diff --git a/arabert/.gitignore b/arabert/.gitignore new file mode 100644 index 0000000000000000000000000000000000000000..1557f6ddc0d0b2040c1048453ef285c16d401b3d --- /dev/null +++ b/arabert/.gitignore @@ -0,0 +1,142 @@ +# Byte-compiled / optimized / DLL files +__pycache__/ +*.py[cod] +*$py.class + +# C extensions +*.so + +# Distribution / packaging +.Python +build/ +develop-eggs/ +dist/ +downloads/ +eggs/ +.eggs/ +lib/ +lib64/ +parts/ +sdist/ +var/ +wheels/ +pip-wheel-metadata/ +share/python-wheels/ +*.egg-info/ +.installed.cfg +*.egg +MANIFEST + +# PyInstaller +# Usually these files are written by a python script from a template +# before PyInstaller builds the exe, so as to inject date/other infos into it. +*.manifest +*.spec + +# Installer logs +pip-log.txt +pip-delete-this-directory.txt + +# Unit test / coverage reports +htmlcov/ +.tox/ +.nox/ +.coverage +.coverage.* +.cache +nosetests.xml +coverage.xml +*.cover +*.py,cover +.hypothesis/ +.pytest_cache/ + +# Translations +*.mo +*.pot + +# Django stuff: +*.log +local_settings.py +db.sqlite3 +db.sqlite3-journal + +# Flask stuff: +instance/ +.webassets-cache + +# Scrapy stuff: +.scrapy + +# Sphinx documentation +docs/_build/ + +# PyBuilder +target/ + +# Jupyter Notebook +.ipynb_checkpoints + +# IPython +profile_default/ +ipython_config.py + +# pyenv +.python-version + +# pipenv +# According to pypa/pipenv#598, it is recommended to include Pipfile.lock in version control. +# However, in case of collaboration, if having platform-specific dependencies or dependencies +# having no cross-platform support, pipenv may install dependencies that don't work, or not +# install all needed dependencies. +#Pipfile.lock + +# PEP 582; used by e.g. github.com/David-OConnor/pyflow +__pypackages__/ + +# Celery stuff +celerybeat-schedule +celerybeat.pid + +# SageMath parsed files +*.sage.py + +# Environments +.env +.venv +env/ +venv/ +ENV/ +env.bak/ +venv.bak/ + +# Spyder project settings +.spyderproject +.spyproject + +# Rope project settings +.ropeproject + +# mkdocs documentation +/site + +# mypy +.mypy_cache/ +.dmypy.json +dmypy.json + +#vscode stuff +.vscode/ + +# Local History for Visual Studio Code +.history/ +# Pyre type checker +.pyre/ +testing_squad.py +FarasaSegmenterJar.jar +data/ +testing/ +*.tsv +*.zip +model_cards/ +optuna/ \ No newline at end of file diff --git a/arabert/AJGT.xlsx b/arabert/AJGT.xlsx new file mode 100644 index 0000000000000000000000000000000000000000..1155b20f1a00487e8b8c5e91e1a08e5ebfc63187 Binary files /dev/null and b/arabert/AJGT.xlsx differ diff --git a/arabert/README.md b/arabert/README.md new file mode 100644 index 0000000000000000000000000000000000000000..8b14ae74fbf0683f4a80006812549c73c9dc0033 --- /dev/null +++ b/arabert/README.md @@ -0,0 +1,227 @@ +# AraBERTv2 / AraGPT2 / AraELECTRA + + + +This repository now contains code and implementation for: +- **AraBERT v0.1/v1**: Original +- **AraBERT v0.2/v2**: Base and large versions with better vocabulary, more data, more training [Read More...](#AraBERT) +- **AraGPT2**: base, medium, large and MEGA. Trained from scratch on Arabic [Read More...](#AraGPT2) +- **AraELECTRA**: Trained from scratch on Arabic [Read More...](#AraELECTRA) + +If you want to clone the old repository: +```bash +git clone https://github.com/aub-mind/arabert/ +cd arabert && git checkout 6a58ca118911ef311cbe8cdcdcc1d03601123291 +``` +# Update + +- **02-Apr-2021:** AraELECTRA powered Arabic Wikipedia QA system [![Open in Streamlit](https://static.streamlit.io/badges/streamlit_badge_black_white.svg)](https://share.streamlit.io/wissamantoun/arabic-wikipedia-qa-streamlit/main) + +# AraBERTv2 + +## What's New! + +AraBERT now comes in 4 new variants to replace the old v1 versions: + +More Detail in the AraBERT folder and in the [README](https://github.com/aub-mind/arabert/tree/master/arabert) and in the [AraBERT Paper](https://arxiv.org/abs/2003.00104) + + Model | HuggingFace Model Name | Size (MB/Params)| Pre-Segmentation | DataSet (Sentences/Size/nWords) | + ---|:---:|:---:|:---:|:---: +AraBERTv0.2-base | [bert-base-arabertv02](https://huggingface.co/aubmindlab/bert-base-arabertv02) | 543MB / 136M | No | 200M / 77GB / 8.6B | + AraBERTv0.2-large| [bert-large-arabertv02](https://huggingface.co/aubmindlab/bert-large-arabertv02) | 1.38G / 371M | No | 200M / 77GB / 8.6B | +AraBERTv2-base| [bert-base-arabertv2](https://huggingface.co/aubmindlab/bert-base-arabertv2) | 543MB / 136M | Yes | 200M / 77GB / 8.6B | +AraBERTv2-large| [bert-large-arabertv2](https://huggingface.co/aubmindlab/bert-large-arabertv2) | 1.38G / 371M | Yes | 200M / 77GB / 8.6B | + AraBERTv0.1-base| [bert-base-arabertv01](https://huggingface.co/aubmindlab/bert-base-arabertv01) | 543MB / 136M | No | 77M / 23GB / 2.7B | +AraBERTv1-base| [bert-base-arabert](https://huggingface.co/aubmindlab/bert-base-arabert) | 543MB / 136M | Yes | 77M / 23GB / 2.7B | + +All models are available in the `HuggingFace` model page under the [aubmindlab](https://huggingface.co/aubmindlab/) name. Checkpoints are available in PyTorch, TF2 and TF1 formats. + +## Better Pre-Processing and New Vocab + +We identified an issue with AraBERTv1's wordpiece vocabulary. The issue came from punctuations and numbers that were still attached to words when learned the wordpiece vocab. We now insert a space between numbers and characters and around punctuation characters. + +The new vocabulary was learnt using the `BertWordpieceTokenizer` from the `tokenizers` library, and should now support the Fast tokenizer implementation from the `transformers` library. + +**P.S.**: All the old BERT codes should work with the new BERT, just change the model name and check the new preprocessing function + +**Please read the section on how to use the [preprocessing function](#Preprocessing)** + +## Bigger Dataset and More Compute + +We used ~3.5 times more data, and trained for longer. +For Dataset Sources see the [Dataset Section](#Dataset) + +Model | Hardware | num of examples with seq len (128 / 512) |128 (Batch Size/ Num of Steps) | 512 (Batch Size/ Num of Steps) | Total Steps | Total Time (in Days) | + ---|:---:|:---:|:---:|:---:|:---:|:---: +AraBERTv0.2-base | TPUv3-8 | 420M / 207M | 2560 / 1M | 384/ 2M | 3M | 36 +AraBERTv0.2-large | TPUv3-128 | 420M / 207M | 13440 / 250K | 2056 / 300K | 550K | 7 +AraBERTv2-base | TPUv3-8 | 420M / 207M | 2560 / 1M | 384/ 2M | 3M | 36 +AraBERTv2-large | TPUv3-128 | 520M / 245M | 13440 / 250K | 2056 / 300K | 550K | 7 +AraBERT-base (v1/v0.1) | TPUv2-8 | - |512 / 900K | 128 / 300K| 1.2M | 4 + +# AraGPT2 + +More details and code are available in the AraGPT2 folder and [README](https://github.com/aub-mind/arabert/blob/master/aragpt2/README.md) + +## Model + + Model | HuggingFace Model Name | Size / Params| + ---|:---:|:---: + AraGPT2-base | [aragpt2-base](https://huggingface.co/aubmindlab/aragpt2-base) | 527MB/135M | + AraGPT2-medium | [aragpt2-medium](https://huggingface.co/aubmindlab/aragpt2-medium) | 1.38G/370M | + AraGPT2-large | [aragpt2-large](https://huggingface.co/aubmindlab/aragpt2-large) | 2.98GB/792M | + AraGPT2-mega | [aragpt2-mega](https://huggingface.co/aubmindlab/aragpt2-mega) | 5.5GB/1.46B | + AraGPT2-mega-detector-long | [aragpt2-mega-detector-long](https://huggingface.co/aubmindlab/aragpt2-mega-detector-long) | 516MB/135M | + +All models are available in the `HuggingFace` model page under the [aubmindlab](https://huggingface.co/aubmindlab/) name. Checkpoints are available in PyTorch, TF2 and TF1 formats. + +## Dataset and Compute + +For Dataset Source see the [Dataset Section](#Dataset) + +Model | Hardware | num of examples (seq len = 1024) | Batch Size | Num of Steps | Time (in days) + ---|:---:|:---:|:---:|:---:|:---: +AraGPT2-base | TPUv3-128 | 9.7M | 1792 | 125K | 1.5 +AraGPT2-medium | TPUv3-128 | 9.7M | 1152 | 85K | 1.5 +AraGPT2-large | TPUv3-128 | 9.7M | 256 | 220k | 3 +AraGPT2-mega | TPUv3-128 | 9.7M | 256 | 800K | 9 + +# AraELECTRA + +More details and code are available in the AraELECTRA folder and [README](https://github.com/aub-mind/arabert/blob/master/araelectra/README.md) + +## Model + +Model | HuggingFace Model Name | Size (MB/Params)| + ---|:---:|:---: +AraELECTRA-base-generator | [araelectra-base-generator](https://huggingface.co/aubmindlab/araelectra-base-generator) | 227MB/60M | +AraELECTRA-base-discriminator | [araelectra-base-discriminator](https://huggingface.co/aubmindlab/araelectra-base-discriminator) | 516MB/135M | + +## Dataset and Compute +Model | Hardware | num of examples (seq len = 512) | Batch Size | Num of Steps | Time (in days) + ---|:---:|:---:|:---:|:---:|:---: +ELECTRA-base | TPUv3-8 | - | 256 | 2M | 24 + +# Dataset + +The pretraining data used for the new AraBERT model is also used for **AraGPT2 and AraELECTRA**. + +The dataset consists of 77GB or 200,095,961 lines or 8,655,948,860 words or 82,232,988,358 chars (before applying Farasa Segmentation) + +For the new dataset we added the unshuffled OSCAR corpus, after we thoroughly filter it, to the previous dataset used in AraBERTv1 but with out the websites that we previously crawled: +- OSCAR unshuffled and filtered. +- [Arabic Wikipedia dump](https://archive.org/details/arwiki-20190201) from 2020/09/01 +- [The 1.5B words Arabic Corpus](https://www.semanticscholar.org/paper/1.5-billion-words-Arabic-Corpus-El-Khair/f3eeef4afb81223df96575adadf808fe7fe440b4) +- [The OSIAN Corpus](https://www.aclweb.org/anthology/W19-4619) +- Assafir news articles. Huge thank you for Assafir for the data + +# Preprocessing + +It is recommended to apply our preprocessing function before training/testing on any dataset. +**Install farasapy to segment text for AraBERT v1 & v2 `pip install farasapy`** + +```python +from arabert.preprocess import ArabertPreprocessor + +model_name = "aubmindlab/bert-base-arabertv2" +arabert_prep = ArabertPreprocessor(model_name=model_name) + +text = "ولن نبالغ إذا قلنا: إن 'هاتف' أو 'كمبيوتر المكتب' في زمننا هذا ضروري" +arabert_prep.preprocess(text) +>>>"و+ لن نبالغ إذا قل +نا : إن ' هاتف ' أو ' كمبيوتر ال+ مكتب ' في زمن +نا هذا ضروري" +``` + +You can also use the `unpreprocess()` function to reverse the preprocessing changes, by fixing the spacing around non alphabetical characters, and also de-segmenting if the model selected need pre-segmentation. We highly recommend unprocessing generated content of `AraGPT2` model, to make it look more natural. +```python +output_text = "و+ لن نبالغ إذا قل +نا : إن ' هاتف ' أو ' كمبيوتر ال+ مكتب ' في زمن +نا هذا ضروري" +arabert_prep.unpreprocess(output_text) +>>>"ولن نبالغ إذا قلنا: إن 'هاتف' أو 'كمبيوتر المكتب' في زمننا هذا ضروري" +``` + +### Accepted Model Names: +The `ArabertPreprocessor` class expects one of the following model names: + +Note: You can also use the same model name from the `HuggingFace` model repository without removing `aubmindlab/`. Defaults to `bert-base-arabertv02` with no pre-segmentation + +``` +bert-base-arabertv01 +bert-base-arabert +bert-base-arabertv02 +bert-base-arabertv2 +bert-large-arabertv02 +bert-large-arabertv2 +araelectra-base-discriminator +araelectra-base-generator +aragpt2-base +aragpt2-medium +aragpt2-large +aragpt2-mega +``` +# Examples Notebooks + +- You can find the old examples that work with AraBERTv1 in the `examples/old` folder +- Check the [Readme.md](https://github.com/aub-mind/arabert/tree/master/examples) file in the examples folder for new links to colab notebooks + +# TensorFlow 1.x models + +**You can find the PyTorch, TF2 and TF1 models in HuggingFace's Transformer Library under the ```aubmindlab``` username** + +- `wget https://huggingface.co/aubmindlab/MODEL_NAME/resolve/main/tf1_model.tar.gz` where `MODEL_NAME` is any model under the `aubmindlab` name + + +# If you used this model please cite us as : +## AraBERT +Google Scholar has our Bibtex wrong (missing name), use this instead +``` +@inproceedings{antoun2020arabert, + title={AraBERT: Transformer-based Model for Arabic Language Understanding}, + author={Antoun, Wissam and Baly, Fady and Hajj, Hazem}, + booktitle={LREC 2020 Workshop Language Resources and Evaluation Conference 11--16 May 2020}, + pages={9} +} +``` +## AraGPT2 +``` +@inproceedings{antoun-etal-2021-aragpt2, + title = "{A}ra{GPT}2: Pre-Trained Transformer for {A}rabic Language Generation", + author = "Antoun, Wissam and + Baly, Fady and + Hajj, Hazem", + booktitle = "Proceedings of the Sixth Arabic Natural Language Processing Workshop", + month = apr, + year = "2021", + address = "Kyiv, Ukraine (Virtual)", + publisher = "Association for Computational Linguistics", + url = "https://www.aclweb.org/anthology/2021.wanlp-1.21", + pages = "196--207", +} +``` + +## AraELECTRA +``` +@inproceedings{antoun-etal-2021-araelectra, + title = "{A}ra{ELECTRA}: Pre-Training Text Discriminators for {A}rabic Language Understanding", + author = "Antoun, Wissam and + Baly, Fady and + Hajj, Hazem", + booktitle = "Proceedings of the Sixth Arabic Natural Language Processing Workshop", + month = apr, + year = "2021", + address = "Kyiv, Ukraine (Virtual)", + publisher = "Association for Computational Linguistics", + url = "https://www.aclweb.org/anthology/2021.wanlp-1.20", + pages = "191--195", +} +``` + + +# Acknowledgments +Thanks to TensorFlow Research Cloud (TFRC) for the free access to Cloud TPUs, couldn't have done it without this program, and to the [AUB MIND Lab](https://sites.aub.edu.lb/mindlab/) Members for the continous support. Also thanks to [Yakshof](https://www.yakshof.com/#/) and Assafir for data and storage access. Another thanks for Habib Rahal (https://www.behance.net/rahalhabib), for putting a face to AraBERT. + +# Contacts +**Wissam Antoun**: [Linkedin](https://www.linkedin.com/in/wissam-antoun-622142b4/) | [Twitter](https://twitter.com/wissam_antoun) | [Github](https://github.com/WissamAntoun) | wfa07 (AT) mail (DOT) aub (DOT) edu | wissam.antoun (AT) gmail (DOT) com + +**Fady Baly**: [Linkedin](https://www.linkedin.com/in/fadybaly/) | [Twitter](https://twitter.com/fadybaly) | [Github](https://github.com/fadybaly) | fgb06 (AT) mail (DOT) aub (DOT) edu | baly.fady (AT) gmail (DOT) com + + + diff --git a/arabert/__init__.py b/arabert/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..9bad5790a5799b96f2e164d825c0b1f8ec0c2dfb --- /dev/null +++ b/arabert/__init__.py @@ -0,0 +1 @@ +# coding=utf-8 diff --git a/arabert/__pycache__/__init__.cpython-310.pyc b/arabert/__pycache__/__init__.cpython-310.pyc new file mode 100644 index 0000000000000000000000000000000000000000..f481b30be71f64c4751778a875761d6cf4c4bc63 Binary files /dev/null and b/arabert/__pycache__/__init__.cpython-310.pyc differ diff --git a/arabert/__pycache__/__init__.cpython-38.pyc b/arabert/__pycache__/__init__.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..9911393bb72d389dab616a1450ac1097077be7be Binary files /dev/null and b/arabert/__pycache__/__init__.cpython-38.pyc differ diff --git a/arabert/__pycache__/__init__.cpython-39.pyc b/arabert/__pycache__/__init__.cpython-39.pyc new file mode 100644 index 0000000000000000000000000000000000000000..5ebbc7f8da3a8db42317d6a95568d884dd2d8201 Binary files /dev/null and b/arabert/__pycache__/__init__.cpython-39.pyc differ diff --git a/arabert/__pycache__/preprocess.cpython-310.pyc b/arabert/__pycache__/preprocess.cpython-310.pyc new file mode 100644 index 0000000000000000000000000000000000000000..393fcacd495a61ad47aaed40c8d1e1c3821fab4b Binary files /dev/null and b/arabert/__pycache__/preprocess.cpython-310.pyc differ diff --git a/arabert/__pycache__/preprocess.cpython-38.pyc b/arabert/__pycache__/preprocess.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..c38ce28273411ecdd55abd122cf74e0e154f0b70 Binary files /dev/null and b/arabert/__pycache__/preprocess.cpython-38.pyc differ diff --git a/arabert/__pycache__/preprocess.cpython-39.pyc b/arabert/__pycache__/preprocess.cpython-39.pyc new file mode 100644 index 0000000000000000000000000000000000000000..1e0c671d0b0366941f4a125dd0d1c506dc6ea7f2 Binary files /dev/null and b/arabert/__pycache__/preprocess.cpython-39.pyc differ diff --git a/arabert/arabert/LICENSE b/arabert/arabert/LICENSE new file mode 100644 index 0000000000000000000000000000000000000000..653d75a6dc83d19c52267b233f0c5fde6ad63c70 --- /dev/null +++ b/arabert/arabert/LICENSE @@ -0,0 +1,75 @@ +========================================== +SOFTWARE LICENSE AGREEMENT - AraBERT +========================================== + +* NAME: AraBERT : Arabic Bidirectional Encoder Representations from Transformers + +* ACKNOWLEDGMENTS + +This [software] was generated by [American +University of Beirut] (“Owners”). The statements +made herein are solely the responsibility of the author[s]. + + The following software programs and programs have been used in the + generation of [AraBERT]: + + + Farasa Segmenter + - Abdelali, Ahmed, Kareem Darwish, Nadir Durrani, and Hamdy Mubarak. + "Farasa: A fast and furious segmenter for arabic." In Proceedings of + the 2016 Conference of the North American Chapter of the Association + for Computational Linguistics: Demonstrations, pp. 11-16. 2016. + - License and link : http://alt.qcri.org/farasa/segmenter.html + + + BERT + - Devlin, Jacob, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. + "Bert: Pre-training of deep bidirectional transformers for language + understanding." arXiv preprint arXiv:1810.04805 (2018). + - License and link : https://github.com/google-research/bert + + + PyArabic + - T. Zerrouki, Pyarabic, An Arabic language library for Python, + https://pypi.python.org/pypi/pyarabic/, 2010 + - License and link: https://github.com/linuxscout/pyarabic/ + +* LICENSE + +This software and database is being provided to you, the LICENSEE, +by the Owners under the following license. By obtaining, using and/or +copying this software and database, you agree that you have read, +understood, and will comply with these terms and conditions. You +further agree that you have read and you will abide by the license +agreements provided in the above links under “acknowledgements”: +Permission to use, copy, modify and distribute this software and +database and its documentation for any purpose and without fee or +royalty is hereby granted, provided that you agree to comply with the +following copyright notice and statements, including the disclaimer, +and that the same appear on ALL copies of the software, database and +documentation, including modifications that you make for internal use +or for distribution. [AraBERT] Copyright 2020 by [American University +of Beirut]. All rights reserved. If you remix, transform, or build +upon the material, you must distribute your contributions under the +same license as this one. You may not apply legal terms or technological +measures that legally restrict others from doing anything this license +permits. THIS SOFTWARE IS PROVIDED "AS IS" AND THE OWNERS MAKE NO +REPRESENTATIONS OR WARRANTIES, EXPRESS OR IMPLIED. BY WAY OF EXAMPLE, +BUT NOT LIMITATION, THE OWNERS MAKE NO REPRESENTATIONS OR WARRANTIES OF +MERCHANT-ABILITY OR FITNESS FOR ANY PARTICULAR PURPOSE OR THAT THE USE OF +THE LICENSED SOFTWARE, DATABASE OR DOCUMENTATION WILL NOT INFRINGE ANY THIRD +PARTY PATENTS, COPYRIGHTS, TRADEMARKS OR OTHER RIGHTS. The name of the +Owners may not be used in advertising or publicity pertaining to +distribution of the software and/or database. Title to copyright in +this software, database and any associated documentation shall at all +times remain with the Owners and LICENSEE agrees to preserve same. + +The use of AraBERT should be cited as follows: +@inproceedings{antoun2020arabert, + title={AraBERT: Transformer-based Model for Arabic Language Understanding}, + author={Antoun, Wissam and Baly, Fady and Hajj, Hazem}, + booktitle={LREC 2020 Workshop Language Resources and Evaluation Conference 11--16 May 2020}, + pages={9} +} + +[AraBERT] Copyright 2020 by [American University of Beirut]. +All rights reserved. +========================================== + diff --git a/arabert/arabert/Readme.md b/arabert/arabert/Readme.md new file mode 100644 index 0000000000000000000000000000000000000000..99032de3fd847000021d76b926065453e37bb507 --- /dev/null +++ b/arabert/arabert/Readme.md @@ -0,0 +1,75 @@ +# AraBERT v1 & v2 : Pre-training BERT for Arabic Language Understanding + + +**AraBERT** is an Arabic pretrained lanaguage model based on [Google's BERT architechture](https://github.com/google-research/bert). AraBERT uses the same BERT-Base config. More details are available in the [AraBERT Paper](https://arxiv.org/abs/2003.00104v2) and in the [AraBERT Meetup](https://github.com/WissamAntoun/pydata_khobar_meetup) + +There are two versions of the model, AraBERTv0.1 and AraBERTv1, with the difference being that AraBERTv1 uses pre-segmented text where prefixes and suffixes were splitted using the [Farasa Segmenter](http://alt.qcri.org/farasa/segmenter.html). + + +We evalaute AraBERT models on different downstream tasks and compare them to [mBERT]((https://github.com/google-research/bert/blob/master/multilingual.md)), and other state of the art models (*To the extent of our knowledge*). The Tasks were Sentiment Analysis on 6 different datasets ([HARD](https://github.com/elnagara/HARD-Arabic-Dataset), [ASTD-Balanced](https://www.aclweb.org/anthology/D15-1299), [ArsenTD-Lev](https://staff.aub.edu.lb/~we07/Publications/ArSentD-LEV_Sentiment_Corpus.pdf), [LABR](https://github.com/mohamedadaly/LABR)), Named Entity Recognition with the [ANERcorp](http://curtis.ml.cmu.edu/w/courses/index.php/ANERcorp), and Arabic Question Answering on [Arabic-SQuAD and ARCD](https://github.com/husseinmozannar/SOQAL) + + +## Results +Task | Metric | AraBERTv0.1 | AraBERTv1 | AraBERTv0.2-base | AraBERTv2-Base | AraBERTv0.2-large | AraBERTv2-large| AraELECTRA-Base +:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:| +HARD |Acc.|**96.2**|96.1|-|-|-|-|- +ASTD |Acc.|92.2|**92.6**|-|-|-|-|- +ArsenTD-Lev|macro-f1|53.56|-|55.71|-|56.94|-|**57.20** +AJGT|Acc.|93.1|**93.8**|-|-|-|-|- +LABR|Acc.|85.9|**86.7**|-|-|-|-|- +ANERcorp|macro-F1|83.1|82.4|83.70|-|83.08|-|**83.95** +ARCD|EM - F1|31.62 - 67.45|31.7 - 67.8|32.76 - 66.53|31.34 - 67.23|36.89 - **71.32**|34.19 - 68.12|**37.03** - 71.22 +TyDiQA-ar|EM - F1|68.51 - 82.86|- |73.07 - 85.41|-|73.72 - 86.03|-|**74.91 - 86.68** + + +## How to use + +You can easily use AraBERT since it is almost fully compatible with existing codebases (Use this repo instead of the official BERT one, the only difference is in the ```tokenization.py``` file where we modify the _is_punctuation function to make it compatible with the "+" symbol and the "[" and "]" characters) + + +**AraBERTv1 an v2 always needs pre-segmentation** +```python +from transformers import AutoTokenizer, AutoModel +from arabert.preprocess import ArabertPreprocessor + +model_name = "aubmindlab/bert-base-arabertv2" +arabert_tokenizer = AutoTokenizer.from_pretrained(model_name) +arabert_model = AutoModel.from_pretrained(model_name) + +arabert_prep = ArabertPreprocessor(model_name=model_name) + +text = "ولن نبالغ إذا قلنا إن هاتف أو كمبيوتر المكتب في زمننا هذا ضروري" +arabert_prep.preprocess(text) +>>>"و+ لن نبالغ إذا قل +نا إن هاتف أو كمبيوتر ال+ مكتب في زمن +نا هذا ضروري" + +arabert_tokenizer.tokenize(text_preprocessed) + +>>> ['و+', 'لن', 'نبال', '##غ', 'إذا', 'قل', '+نا', 'إن', 'هاتف', 'أو', 'كمبيوتر', 'ال+', 'مكتب', 'في', 'زمن', '+نا', 'هذا', 'ضروري'] +``` + +**AraBERTv0.1 and v0.2 needs no pre-segmentation.** +```python +from transformers import AutoTokenizer, AutoModel +from arabert.preprocess import ArabertPreprocessor + +arabert_tokenizer = AutoTokenizer.from_pretrained("aubmindlab/bert-base-arabertv01",do_lower_case=False) +arabert_model = AutoModel.from_pretrained("aubmindlab/bert-base-arabertv01") + +text = "ولن نبالغ إذا قلنا إن هاتف أو كمبيوتر المكتب في زمننا هذا ضروري" + +model_name = "aubmindlab/bert-base-arabertv01" +arabert_tokenizer = AutoTokenizer.from_pretrained(model_name) +arabert_model = AutoModel.from_pretrained(model_name) + +arabert_prep = ArabertPreprocessor(model_name=model_name) + +arabert_tokenizer.tokenize(text_preprocessed) + +>>> ['ولن', 'ن', '##بالغ', 'إذا', 'قلنا', 'إن', 'هاتف', 'أو', 'كمبيوتر', 'المكتب', 'في', 'زمن', '##ن', '##ا', 'هذا', 'ضروري'] +``` + +## Model Weights and Vocab Download + +**You can find the PyTorch, TF2 and TF1 models in HuggingFace's Transformer Library under the ```aubmindlab``` username** + +- `wget https://huggingface.co/aubmindlab/MODEL_NAME/resolve/main/tf1_model.tar.gz` where `MODEL_NAME` is any model under the `aubmindlab` name diff --git a/arabert/arabert/__init__.py b/arabert/arabert/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..707d11c5b92698e70b646ff365ad119af5d29e2e --- /dev/null +++ b/arabert/arabert/__init__.py @@ -0,0 +1,14 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. \ No newline at end of file diff --git a/arabert/arabert/create_classification_data.py b/arabert/arabert/create_classification_data.py new file mode 100644 index 0000000000000000000000000000000000000000..eacaa19544eb27b41e06a97f40f95f4d21e4f2e5 --- /dev/null +++ b/arabert/arabert/create_classification_data.py @@ -0,0 +1,260 @@ +# Scripts used to pre_process and create the data for classifier evaluation +#%% +import pandas as pd +from sklearn.model_selection import train_test_split + +import sys +sys.path.append("..") + +from arabert.preprocess import ArabertPreprocessor + + +from tqdm import tqdm + +tqdm.pandas() + +from tokenization import FullTokenizer +from run_classifier import input_fn_builder, model_fn_builder + + +model_name = "bert-base-arabert" +arabert_prep = ArabertPreprocessor(model_name=model_name, keep_emojis=False) + + +class Dataset: + def __init__( + self, + name, + train, + test, + label_list, + train_InputExamples=None, + test_InputExamples=None, + train_features=None, + test_features=None, + ): + self.name = name + self.train = train + self.test = test + self.label_list = label_list + self.train_InputExamples = train_InputExamples + self.test_InputExamples = test_InputExamples + self.train_features = train_features + self.test_features = test_features + + +all_datasets = [] +#%% +# *************HARD************ +df_HARD = pd.read_csv("Datasets\\HARD\\balanced-reviews-utf8.tsv", sep="\t", header=0) + +df_HARD = df_HARD[["rating", "review"]] # we are interested in rating and review only +# code rating as +ve if > 3, -ve if less, no 3s in dataset +df_HARD["rating"] = df_HARD["rating"].apply(lambda x: 0 if x < 3 else 1) +# rename columns to fit default constructor in fastai +df_HARD.columns = ["label", "text"] +df_HARD["text"] = df_HARD["text"].progress_apply( + lambda x: arabert_prep.preprocess( + x + ) +) +train_HARD, test_HARD = train_test_split(df_HARD, test_size=0.2, random_state=42) +label_list_HARD = [0, 1] + +data_Hard = Dataset("HARD", train_HARD, test_HARD, label_list_HARD) +all_datasets.append(data_Hard) + +#%% +# *************ASTD-Unbalanced************ +df_ASTD_UN = pd.read_csv( + "Datasets\\ASTD-master\\data\\Tweets.txt", sep="\t", header=None +) + +DATA_COLUMN = "text" +LABEL_COLUMN = "label" +df_ASTD_UN.columns = [DATA_COLUMN, LABEL_COLUMN] + +df_ASTD_UN[LABEL_COLUMN] = df_ASTD_UN[LABEL_COLUMN].apply( + lambda x: 0 if (x == "NEG") else x +) +df_ASTD_UN[LABEL_COLUMN] = df_ASTD_UN[LABEL_COLUMN].apply( + lambda x: 1 if (x == "POS") else x +) +df_ASTD_UN[LABEL_COLUMN] = df_ASTD_UN[LABEL_COLUMN].apply( + lambda x: 2 if (x == "NEUTRAL") else x +) +df_ASTD_UN[LABEL_COLUMN] = df_ASTD_UN[LABEL_COLUMN].apply( + lambda x: 3 if (x == "OBJ") else x +) +df_ASTD_UN["text"] = df_ASTD_UN["text"].progress_apply( + lambda x: arabert_prep.preprocess( + x + ) +) +train_ASTD_UN, test_ASTD_UN = train_test_split( + df_ASTD_UN, test_size=0.2, random_state=42 +) +label_list_ASTD_UN = [0, 1, 2, 3] + +data_ASTD_UN = Dataset( + "ASTD-Unbalanced", train_ASTD_UN, test_ASTD_UN, label_list_ASTD_UN +) +all_datasets.append(data_ASTD_UN) +#%% +# *************ASTD-Dahou-Balanced************ + +df_ASTD_B = pd.read_csv( + "Datasets\\Dahou\\data_csv_balanced\\ASTD-balanced-not-linked.csv", + sep=",", + header=0, +) + +df_ASTD_B.columns = [DATA_COLUMN, LABEL_COLUMN] + +df_ASTD_B[LABEL_COLUMN] = df_ASTD_B[LABEL_COLUMN].apply(lambda x: 0 if (x == -1) else x) +df_ASTD_B["text"] = df_ASTD_B["text"].progress_apply( + lambda x: arabert_prep.preprocess( + x + ) +) +train_ASTD_B, test_ASTD_B = train_test_split(df_ASTD_B, test_size=0.2, random_state=42) +label_list_ASTD_B = [0, 1] + +data_ASTD_B = Dataset( + "ASTD-Dahou-Balanced", train_ASTD_B, test_ASTD_B, label_list_ASTD_B +) +all_datasets.append(data_ASTD_B) + +#%% +# *************ArSenTD-LEV************ +df_ArSenTD = pd.read_csv( + "Datasets\\ArSenTD-LEV\\ArSenTD-LEV-processed-no-emojis2.csv", sep=",", header=0 +) + +df_ArSenTD.columns = [DATA_COLUMN, LABEL_COLUMN] + +df_ArSenTD[LABEL_COLUMN] = df_ArSenTD[LABEL_COLUMN].apply( + lambda x: 0 if (x == "very_negative") else x +) +df_ArSenTD[LABEL_COLUMN] = df_ArSenTD[LABEL_COLUMN].apply( + lambda x: 1 if (x == "negative") else x +) +df_ArSenTD[LABEL_COLUMN] = df_ArSenTD[LABEL_COLUMN].apply( + lambda x: 2 if (x == "neutral") else x +) +df_ArSenTD[LABEL_COLUMN] = df_ArSenTD[LABEL_COLUMN].apply( + lambda x: 3 if (x == "positive") else x +) +df_ArSenTD[LABEL_COLUMN] = df_ArSenTD[LABEL_COLUMN].apply( + lambda x: 4 if (x == "very_positive") else x +) +df_ArSenTD["text"] = df_ArSenTD["text"].progress_apply( + lambda x: arabert_prep.preprocess( + x + ) +) +label_list_ArSenTD = [0, 1, 2, 3, 4] + +train_ArSenTD, test_ArSenTD = train_test_split( + df_ArSenTD, test_size=0.2, random_state=42 +) + +data_ArSenTD = Dataset("ArSenTD-LEV", train_ArSenTD, test_ArSenTD, label_list_ArSenTD) +all_datasets.append(data_ArSenTD) + +#%% +# *************AJGT************ +df_AJGT = pd.read_excel("Datasets\\Ajgt\\AJGT.xlsx", header=0) + +df_AJGT = df_AJGT[["Feed", "Sentiment"]] +df_AJGT.columns = [DATA_COLUMN, LABEL_COLUMN] + +df_AJGT[LABEL_COLUMN] = df_AJGT[LABEL_COLUMN].apply( + lambda x: 0 if (x == "Negative") else x +) +df_AJGT[LABEL_COLUMN] = df_AJGT[LABEL_COLUMN].apply( + lambda x: 1 if (x == "Positive") else x +) +df_AJGT["text"] = df_AJGT["text"].progress_apply( + lambda x: arabert_prep.preprocess( + x + ) +) +train_AJGT, test_AJGT = train_test_split(df_AJGT, test_size=0.2, random_state=42) +label_list_AJGT = [0, 1] + +data_AJGT = Dataset("AJGT", train_AJGT, test_AJGT, label_list_AJGT) +all_datasets.append(data_AJGT) +#%% +# *************LABR-UN-Binary************ +from labr import LABR + +labr_helper = LABR() + +(d_train, y_train, d_test, y_test) = labr_helper.get_train_test( + klass="2", balanced="unbalanced" +) + +train_LABR_B_U = pd.DataFrame({"text": d_train, "label": y_train}) +test_LABR_B_U = pd.DataFrame({"text": d_test, "label": y_test}) + +train_LABR_B_U["text"] = train_LABR_B_U["text"].progress_apply( + lambda x: arabert_prep.preprocess( + x + ) +) +test_LABR_B_U["text"] = test_LABR_B_U["text"].progress_apply( + lambda x: arabert_prep.preprocess( + x + ) +) +label_list_LABR_B_U = [0, 1] + +data_LABR_B_U = Dataset( + "LABR-UN-Binary", train_LABR_B_U, test_LABR_B_U, label_list_LABR_B_U +) +# all_datasets.append(data_LABR_B_U) + +#%% +for data in tqdm(all_datasets): + # Use the InputExample class from BERT's run_classifier code to create examples from the data + data.train_InputExamples = data.train.apply( + lambda x: run_classifier.InputExample( + guid=None, # Globally unique ID for bookkeeping, unused in this example + text_a=x[DATA_COLUMN], + text_b=None, + label=x[LABEL_COLUMN], + ), + axis=1, + ) + + data.test_InputExamples = data.test.apply( + lambda x: run_classifier.InputExample( + guid=None, text_a=x[DATA_COLUMN], text_b=None, label=x[LABEL_COLUMN] + ), + axis=1, + ) +#%% +# We'll set sequences to be at most 128 tokens long. +MAX_SEQ_LENGTH = 256 + +VOC_FNAME = "./64000_vocab_sp_70m.txt" +tokenizer = FullTokenizer(VOC_FNAME) + +for data in tqdm(all_datasets): + # Convert our train and test features to InputFeatures that BERT understands. + data.train_features = run_classifier.convert_examples_to_features( + data.train_InputExamples, data.label_list, MAX_SEQ_LENGTH, tokenizer + ) + data.test_features = run_classifier.convert_examples_to_features( + data.test_InputExamples, data.label_list, MAX_SEQ_LENGTH, tokenizer + ) + +# %% +import pickle + +with open("all_datasets_64k_farasa_256.pickle", "wb") as fp: # Pickling + pickle.dump(all_datasets, fp) + + +# %% diff --git a/arabert/arabert/create_pretraining_data.py b/arabert/arabert/create_pretraining_data.py new file mode 100644 index 0000000000000000000000000000000000000000..c3ff08762d7ecfbff0cdd53250ebad6dd501a28d --- /dev/null +++ b/arabert/arabert/create_pretraining_data.py @@ -0,0 +1,534 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Create masked LM/next sentence masked_lm TF examples for BERT.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections +import random +import tokenization +import tensorflow as tf + +flags = tf.flags + +FLAGS = flags.FLAGS + +flags.DEFINE_string( + "input_file", None, "Input raw text file (or comma-separated list of files)." +) + +flags.DEFINE_string( + "output_file", None, "Output TF example file (or comma-separated list of files)." +) + +flags.DEFINE_string( + "vocab_file", None, "The vocabulary file that the BERT model was trained on." +) + +flags.DEFINE_bool( + "do_lower_case", + True, + "Whether to lower case the input text. Should be True for uncased " + "models and False for cased models.", +) + +flags.DEFINE_bool( + "do_whole_word_mask", + False, + "Whether to use whole word masking rather than per-WordPiece masking.", +) + +flags.DEFINE_integer("max_seq_length", 128, "Maximum sequence length.") + +flags.DEFINE_integer( + "max_predictions_per_seq", + 20, + "Maximum number of masked LM predictions per sequence.", +) + +flags.DEFINE_integer("random_seed", 12345, "Random seed for data generation.") + +flags.DEFINE_integer( + "dupe_factor", + 10, + "Number of times to duplicate the input data (with different masks).", +) + +flags.DEFINE_float("masked_lm_prob", 0.15, "Masked LM probability.") + +flags.DEFINE_float( + "short_seq_prob", + 0.1, + "Probability of creating sequences which are shorter than the " "maximum length.", +) + + +class TrainingInstance(object): + """A single training instance (sentence pair).""" + + def __init__( + self, tokens, segment_ids, masked_lm_positions, masked_lm_labels, is_random_next + ): + self.tokens = tokens + self.segment_ids = segment_ids + self.is_random_next = is_random_next + self.masked_lm_positions = masked_lm_positions + self.masked_lm_labels = masked_lm_labels + + def __str__(self): + s = "" + s += "tokens: %s\n" % ( + " ".join([tokenization.printable_text(x) for x in self.tokens]) + ) + s += "segment_ids: %s\n" % (" ".join([str(x) for x in self.segment_ids])) + s += "is_random_next: %s\n" % self.is_random_next + s += "masked_lm_positions: %s\n" % ( + " ".join([str(x) for x in self.masked_lm_positions]) + ) + s += "masked_lm_labels: %s\n" % ( + " ".join([tokenization.printable_text(x) for x in self.masked_lm_labels]) + ) + s += "\n" + return s + + def __repr__(self): + return self.__str__() + + +def write_instance_to_example_files( + instances, tokenizer, max_seq_length, max_predictions_per_seq, output_files +): + """Create TF example files from `TrainingInstance`s.""" + writers = [] + for output_file in output_files: + writers.append(tf.python_io.TFRecordWriter(output_file)) + + writer_index = 0 + + total_written = 0 + for (inst_index, instance) in enumerate(instances): + input_ids = tokenizer.convert_tokens_to_ids(instance.tokens) + input_mask = [1] * len(input_ids) + segment_ids = list(instance.segment_ids) + assert len(input_ids) <= max_seq_length + + while len(input_ids) < max_seq_length: + input_ids.append(0) + input_mask.append(0) + segment_ids.append(0) + + assert len(input_ids) == max_seq_length + assert len(input_mask) == max_seq_length + assert len(segment_ids) == max_seq_length + + masked_lm_positions = list(instance.masked_lm_positions) + masked_lm_ids = tokenizer.convert_tokens_to_ids(instance.masked_lm_labels) + masked_lm_weights = [1.0] * len(masked_lm_ids) + + while len(masked_lm_positions) < max_predictions_per_seq: + masked_lm_positions.append(0) + masked_lm_ids.append(0) + masked_lm_weights.append(0.0) + + next_sentence_label = 1 if instance.is_random_next else 0 + + features = collections.OrderedDict() + features["input_ids"] = create_int_feature(input_ids) + features["input_mask"] = create_int_feature(input_mask) + features["segment_ids"] = create_int_feature(segment_ids) + features["masked_lm_positions"] = create_int_feature(masked_lm_positions) + features["masked_lm_ids"] = create_int_feature(masked_lm_ids) + features["masked_lm_weights"] = create_float_feature(masked_lm_weights) + features["next_sentence_labels"] = create_int_feature([next_sentence_label]) + + tf_example = tf.train.Example(features=tf.train.Features(feature=features)) + + writers[writer_index].write(tf_example.SerializeToString()) + writer_index = (writer_index + 1) % len(writers) + + total_written += 1 + + if inst_index < 20: + tf.logging.info("*** Example ***") + tf.logging.info( + "tokens: %s" + % " ".join([tokenization.printable_text(x) for x in instance.tokens]) + ) + + for feature_name in features.keys(): + feature = features[feature_name] + values = [] + if feature.int64_list.value: + values = feature.int64_list.value + elif feature.float_list.value: + values = feature.float_list.value + tf.logging.info( + "%s: %s" % (feature_name, " ".join([str(x) for x in values])) + ) + + for writer in writers: + writer.close() + + tf.logging.info("Wrote %d total instances", total_written) + + +def create_int_feature(values): + feature = tf.train.Feature(int64_list=tf.train.Int64List(value=list(values))) + return feature + + +def create_float_feature(values): + feature = tf.train.Feature(float_list=tf.train.FloatList(value=list(values))) + return feature + + +def create_training_instances( + input_files, + tokenizer, + max_seq_length, + dupe_factor, + short_seq_prob, + masked_lm_prob, + max_predictions_per_seq, + rng, +): + """Create `TrainingInstance`s from raw text.""" + all_documents = [[]] + + # Input file format: + # (1) One sentence per line. These should ideally be actual sentences, not + # entire paragraphs or arbitrary spans of text. (Because we use the + # sentence boundaries for the "next sentence prediction" task). + # (2) Blank lines between documents. Document boundaries are needed so + # that the "next sentence prediction" task doesn't span between documents. + for input_file in input_files: + with tf.gfile.GFile(input_file, "r") as reader: + while True: + line = tokenization.convert_to_unicode(reader.readline()) + if not line: + break + line = line.strip() + + # Empty lines are used as document delimiters + if not line: + all_documents.append([]) + tokens = tokenizer.tokenize(line) + if tokens: + all_documents[-1].append(tokens) + + # Remove empty documents + all_documents = [x for x in all_documents if x] + rng.shuffle(all_documents) + + vocab_words = list(tokenizer.vocab.keys()) + instances = [] + for _ in range(dupe_factor): + for document_index in range(len(all_documents)): + instances.extend( + create_instances_from_document( + all_documents, + document_index, + max_seq_length, + short_seq_prob, + masked_lm_prob, + max_predictions_per_seq, + vocab_words, + rng, + ) + ) + + rng.shuffle(instances) + return instances + + +def create_instances_from_document( + all_documents, + document_index, + max_seq_length, + short_seq_prob, + masked_lm_prob, + max_predictions_per_seq, + vocab_words, + rng, +): + """Creates `TrainingInstance`s for a single document.""" + document = all_documents[document_index] + + # Account for [CLS], [SEP], [SEP] + max_num_tokens = max_seq_length - 3 + + # We *usually* want to fill up the entire sequence since we are padding + # to `max_seq_length` anyways, so short sequences are generally wasted + # computation. However, we *sometimes* + # (i.e., short_seq_prob == 0.1 == 10% of the time) want to use shorter + # sequences to minimize the mismatch between pre-training and fine-tuning. + # The `target_seq_length` is just a rough target however, whereas + # `max_seq_length` is a hard limit. + target_seq_length = max_num_tokens + if rng.random() < short_seq_prob: + target_seq_length = rng.randint(2, max_num_tokens) + + # We DON'T just concatenate all of the tokens from a document into a long + # sequence and choose an arbitrary split point because this would make the + # next sentence prediction task too easy. Instead, we split the input into + # segments "A" and "B" based on the actual "sentences" provided by the user + # input. + instances = [] + current_chunk = [] + current_length = 0 + i = 0 + while i < len(document): + segment = document[i] + current_chunk.append(segment) + current_length += len(segment) + if i == len(document) - 1 or current_length >= target_seq_length: + if current_chunk: + # `a_end` is how many segments from `current_chunk` go into the `A` + # (first) sentence. + a_end = 1 + if len(current_chunk) >= 2: + a_end = rng.randint(1, len(current_chunk) - 1) + + tokens_a = [] + for j in range(a_end): + tokens_a.extend(current_chunk[j]) + + tokens_b = [] + # Random next + is_random_next = False + if len(current_chunk) == 1 or rng.random() < 0.5: + is_random_next = True + target_b_length = target_seq_length - len(tokens_a) + + # This should rarely go for more than one iteration for large + # corpora. However, just to be careful, we try to make sure that + # the random document is not the same as the document + # we're processing. + for _ in range(10): + random_document_index = rng.randint(0, len(all_documents) - 1) + if random_document_index != document_index: + break + + random_document = all_documents[random_document_index] + random_start = rng.randint(0, len(random_document) - 1) + for j in range(random_start, len(random_document)): + tokens_b.extend(random_document[j]) + if len(tokens_b) >= target_b_length: + break + # We didn't actually use these segments so we "put them back" so + # they don't go to waste. + num_unused_segments = len(current_chunk) - a_end + i -= num_unused_segments + # Actual next + else: + is_random_next = False + for j in range(a_end, len(current_chunk)): + tokens_b.extend(current_chunk[j]) + truncate_seq_pair(tokens_a, tokens_b, max_num_tokens, rng) + + assert len(tokens_a) >= 1 + assert len(tokens_b) >= 1 + + tokens = [] + segment_ids = [] + tokens.append("[CLS]") + segment_ids.append(0) + for token in tokens_a: + tokens.append(token) + segment_ids.append(0) + + tokens.append("[SEP]") + segment_ids.append(0) + + for token in tokens_b: + tokens.append(token) + segment_ids.append(1) + tokens.append("[SEP]") + segment_ids.append(1) + + ( + tokens, + masked_lm_positions, + masked_lm_labels, + ) = create_masked_lm_predictions( + tokens, masked_lm_prob, max_predictions_per_seq, vocab_words, rng + ) + instance = TrainingInstance( + tokens=tokens, + segment_ids=segment_ids, + is_random_next=is_random_next, + masked_lm_positions=masked_lm_positions, + masked_lm_labels=masked_lm_labels, + ) + instances.append(instance) + current_chunk = [] + current_length = 0 + i += 1 + + return instances + + +MaskedLmInstance = collections.namedtuple("MaskedLmInstance", ["index", "label"]) + + +def create_masked_lm_predictions( + tokens, masked_lm_prob, max_predictions_per_seq, vocab_words, rng +): + """Creates the predictions for the masked LM objective.""" + + cand_indexes = [] + for (i, token) in enumerate(tokens): + if token == "[CLS]" or token == "[SEP]": + continue + # Whole Word Masking means that if we mask all of the wordpieces + # corresponding to an original word. When a word has been split into + # WordPieces, the first token does not have any marker and any subsequence + # tokens are prefixed with ##. So whenever we see the ## token, we + # append it to the previous set of word indexes. + # + # Note that Whole Word Masking does *not* change the training code + # at all -- we still predict each WordPiece independently, softmaxed + # over the entire vocabulary. + if ( + FLAGS.do_whole_word_mask + and len(cand_indexes) >= 1 + and token.startswith("##") + ): + cand_indexes[-1].append(i) + else: + cand_indexes.append([i]) + + rng.shuffle(cand_indexes) + + output_tokens = list(tokens) + + num_to_predict = min( + max_predictions_per_seq, max(1, int(round(len(tokens) * masked_lm_prob))) + ) + + masked_lms = [] + covered_indexes = set() + for index_set in cand_indexes: + if len(masked_lms) >= num_to_predict: + break + # If adding a whole-word mask would exceed the maximum number of + # predictions, then just skip this candidate. + if len(masked_lms) + len(index_set) > num_to_predict: + continue + is_any_index_covered = False + for index in index_set: + if index in covered_indexes: + is_any_index_covered = True + break + if is_any_index_covered: + continue + for index in index_set: + covered_indexes.add(index) + + masked_token = None + # 80% of the time, replace with [MASK] + if rng.random() < 0.8: + masked_token = "[MASK]" + else: + # 10% of the time, keep original + if rng.random() < 0.5: + masked_token = tokens[index] + # 10% of the time, replace with random word + else: + masked_token = vocab_words[rng.randint(0, len(vocab_words) - 1)] + + output_tokens[index] = masked_token + + masked_lms.append(MaskedLmInstance(index=index, label=tokens[index])) + assert len(masked_lms) <= num_to_predict + masked_lms = sorted(masked_lms, key=lambda x: x.index) + + masked_lm_positions = [] + masked_lm_labels = [] + for p in masked_lms: + masked_lm_positions.append(p.index) + masked_lm_labels.append(p.label) + + return (output_tokens, masked_lm_positions, masked_lm_labels) + + +def truncate_seq_pair(tokens_a, tokens_b, max_num_tokens, rng): + """Truncates a pair of sequences to a maximum sequence length.""" + while True: + total_length = len(tokens_a) + len(tokens_b) + if total_length <= max_num_tokens: + break + + trunc_tokens = tokens_a if len(tokens_a) > len(tokens_b) else tokens_b + assert len(trunc_tokens) >= 1 + + # We want to sometimes truncate from the front and sometimes from the + # back to add more randomness and avoid biases. + if rng.random() < 0.5: + del trunc_tokens[0] + else: + trunc_tokens.pop() + + +def main(_): + tf.logging.set_verbosity(tf.logging.INFO) + logger = tf.get_logger() + logger.propagate = False + + tokenizer = tokenization.FullTokenizer( + vocab_file=FLAGS.vocab_file, do_lower_case=FLAGS.do_lower_case + ) + + input_files = [] + for input_pattern in FLAGS.input_file.split(","): + input_files.extend(tf.gfile.Glob(input_pattern)) + + tf.logging.info("*** Reading from input files ***") + for input_file in input_files: + tf.logging.info(" %s", input_file) + + rng = random.Random(FLAGS.random_seed) + instances = create_training_instances( + input_files, + tokenizer, + FLAGS.max_seq_length, + FLAGS.dupe_factor, + FLAGS.short_seq_prob, + FLAGS.masked_lm_prob, + FLAGS.max_predictions_per_seq, + rng, + ) + + output_files = FLAGS.output_file.split(",") + tf.logging.info("*** Writing to output files ***") + for output_file in output_files: + tf.logging.info(" %s", output_file) + + write_instance_to_example_files( + instances, + tokenizer, + FLAGS.max_seq_length, + FLAGS.max_predictions_per_seq, + output_files, + ) + + +if __name__ == "__main__": + flags.mark_flag_as_required("input_file") + flags.mark_flag_as_required("output_file") + flags.mark_flag_as_required("vocab_file") + tf.app.run() diff --git a/arabert/arabert/extract_features.py b/arabert/arabert/extract_features.py new file mode 100644 index 0000000000000000000000000000000000000000..54c9e1973106d1515990f8ee64982c0639583299 --- /dev/null +++ b/arabert/arabert/extract_features.py @@ -0,0 +1,444 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Extract pre-computed feature vectors from BERT.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import codecs +import collections +import json +import re + +import modeling +import tokenization +import tensorflow as tf + +flags = tf.flags + +FLAGS = flags.FLAGS + +flags.DEFINE_string("input_file", None, "") + +flags.DEFINE_string("output_file", None, "") + +flags.DEFINE_string("layers", "-1,-2,-3,-4", "") + +flags.DEFINE_string( + "bert_config_file", + None, + "The config json file corresponding to the pre-trained BERT model. " + "This specifies the model architecture.", +) + +flags.DEFINE_integer( + "max_seq_length", + 128, + "The maximum total input sequence length after WordPiece tokenization. " + "Sequences longer than this will be truncated, and sequences shorter " + "than this will be padded.", +) + +flags.DEFINE_string( + "init_checkpoint", + None, + "Initial checkpoint (usually from a pre-trained BERT model).", +) + +flags.DEFINE_string( + "vocab_file", None, "The vocabulary file that the BERT model was trained on." +) + +flags.DEFINE_bool( + "do_lower_case", + True, + "Whether to lower case the input text. Should be True for uncased " + "models and False for cased models.", +) + +flags.DEFINE_integer("batch_size", 32, "Batch size for predictions.") + +flags.DEFINE_bool("use_tpu", False, "Whether to use TPU or GPU/CPU.") + +flags.DEFINE_string("master", None, "If using a TPU, the address of the master.") + +flags.DEFINE_integer( + "num_tpu_cores", + 8, + "Only used if `use_tpu` is True. Total number of TPU cores to use.", +) + +flags.DEFINE_bool( + "use_one_hot_embeddings", + False, + "If True, tf.one_hot will be used for embedding lookups, otherwise " + "tf.nn.embedding_lookup will be used. On TPUs, this should be True " + "since it is much faster.", +) + + +class InputExample(object): + def __init__(self, unique_id, text_a, text_b): + self.unique_id = unique_id + self.text_a = text_a + self.text_b = text_b + + +class InputFeatures(object): + """A single set of features of data.""" + + def __init__(self, unique_id, tokens, input_ids, input_mask, input_type_ids): + self.unique_id = unique_id + self.tokens = tokens + self.input_ids = input_ids + self.input_mask = input_mask + self.input_type_ids = input_type_ids + + +def input_fn_builder(features, seq_length): + """Creates an `input_fn` closure to be passed to TPUEstimator.""" + + all_unique_ids = [] + all_input_ids = [] + all_input_mask = [] + all_input_type_ids = [] + + for feature in features: + all_unique_ids.append(feature.unique_id) + all_input_ids.append(feature.input_ids) + all_input_mask.append(feature.input_mask) + all_input_type_ids.append(feature.input_type_ids) + + def input_fn(params): + """The actual input function.""" + batch_size = params["batch_size"] + + num_examples = len(features) + + # This is for demo purposes and does NOT scale to large data sets. We do + # not use Dataset.from_generator() because that uses tf.py_func which is + # not TPU compatible. The right way to load data is with TFRecordReader. + d = tf.data.Dataset.from_tensor_slices( + { + "unique_ids": tf.constant( + all_unique_ids, shape=[num_examples], dtype=tf.int32 + ), + "input_ids": tf.constant( + all_input_ids, shape=[num_examples, seq_length], dtype=tf.int32 + ), + "input_mask": tf.constant( + all_input_mask, shape=[num_examples, seq_length], dtype=tf.int32 + ), + "input_type_ids": tf.constant( + all_input_type_ids, shape=[num_examples, seq_length], dtype=tf.int32 + ), + } + ) + + d = d.batch(batch_size=batch_size, drop_remainder=False) + return d + + return input_fn + + +def model_fn_builder( + bert_config, init_checkpoint, layer_indexes, use_tpu, use_one_hot_embeddings +): + """Returns `model_fn` closure for TPUEstimator.""" + + def model_fn(features, labels, mode, params): # pylint: disable=unused-argument + """The `model_fn` for TPUEstimator.""" + + unique_ids = features["unique_ids"] + input_ids = features["input_ids"] + input_mask = features["input_mask"] + input_type_ids = features["input_type_ids"] + + model = modeling.BertModel( + config=bert_config, + is_training=False, + input_ids=input_ids, + input_mask=input_mask, + token_type_ids=input_type_ids, + use_one_hot_embeddings=use_one_hot_embeddings, + ) + + if mode != tf.estimator.ModeKeys.PREDICT: + raise ValueError("Only PREDICT modes are supported: %s" % (mode)) + + tvars = tf.trainable_variables() + scaffold_fn = None + ( + assignment_map, + initialized_variable_names, + ) = modeling.get_assignment_map_from_checkpoint(tvars, init_checkpoint) + if use_tpu: + + def tpu_scaffold(): + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + return tf.train.Scaffold() + + scaffold_fn = tpu_scaffold + else: + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + + tf.logging.info("**** Trainable Variables ****") + for var in tvars: + init_string = "" + if var.name in initialized_variable_names: + init_string = ", *INIT_FROM_CKPT*" + tf.logging.info( + " name = %s, shape = %s%s", var.name, var.shape, init_string + ) + + all_layers = model.get_all_encoder_layers() + + predictions = { + "unique_id": unique_ids, + } + + for (i, layer_index) in enumerate(layer_indexes): + predictions["layer_output_%d" % i] = all_layers[layer_index] + + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, predictions=predictions, scaffold_fn=scaffold_fn + ) + return output_spec + + return model_fn + + +def convert_examples_to_features(examples, seq_length, tokenizer): + """Loads a data file into a list of `InputBatch`s.""" + + features = [] + for (ex_index, example) in enumerate(examples): + tokens_a = tokenizer.tokenize(example.text_a) + + tokens_b = None + if example.text_b: + tokens_b = tokenizer.tokenize(example.text_b) + + if tokens_b: + # Modifies `tokens_a` and `tokens_b` in place so that the total + # length is less than the specified length. + # Account for [CLS], [SEP], [SEP] with "- 3" + _truncate_seq_pair(tokens_a, tokens_b, seq_length - 3) + else: + # Account for [CLS] and [SEP] with "- 2" + if len(tokens_a) > seq_length - 2: + tokens_a = tokens_a[0 : (seq_length - 2)] + + # The convention in BERT is: + # (a) For sequence pairs: + # tokens: [CLS] is this jack ##son ##ville ? [SEP] no it is not . [SEP] + # type_ids: 0 0 0 0 0 0 0 0 1 1 1 1 1 1 + # (b) For single sequences: + # tokens: [CLS] the dog is hairy . [SEP] + # type_ids: 0 0 0 0 0 0 0 + # + # Where "type_ids" are used to indicate whether this is the first + # sequence or the second sequence. The embedding vectors for `type=0` and + # `type=1` were learned during pre-training and are added to the wordpiece + # embedding vector (and position vector). This is not *strictly* necessary + # since the [SEP] token unambiguously separates the sequences, but it makes + # it easier for the model to learn the concept of sequences. + # + # For classification tasks, the first vector (corresponding to [CLS]) is + # used as as the "sentence vector". Note that this only makes sense because + # the entire model is fine-tuned. + tokens = [] + input_type_ids = [] + tokens.append("[CLS]") + input_type_ids.append(0) + for token in tokens_a: + tokens.append(token) + input_type_ids.append(0) + tokens.append("[SEP]") + input_type_ids.append(0) + + if tokens_b: + for token in tokens_b: + tokens.append(token) + input_type_ids.append(1) + tokens.append("[SEP]") + input_type_ids.append(1) + + input_ids = tokenizer.convert_tokens_to_ids(tokens) + + # The mask has 1 for real tokens and 0 for padding tokens. Only real + # tokens are attended to. + input_mask = [1] * len(input_ids) + + # Zero-pad up to the sequence length. + while len(input_ids) < seq_length: + input_ids.append(0) + input_mask.append(0) + input_type_ids.append(0) + + assert len(input_ids) == seq_length + assert len(input_mask) == seq_length + assert len(input_type_ids) == seq_length + + if ex_index < 5: + tf.logging.info("*** Example ***") + tf.logging.info("unique_id: %s" % (example.unique_id)) + tf.logging.info( + "tokens: %s" + % " ".join([tokenization.printable_text(x) for x in tokens]) + ) + tf.logging.info("input_ids: %s" % " ".join([str(x) for x in input_ids])) + tf.logging.info("input_mask: %s" % " ".join([str(x) for x in input_mask])) + tf.logging.info( + "input_type_ids: %s" % " ".join([str(x) for x in input_type_ids]) + ) + + features.append( + InputFeatures( + unique_id=example.unique_id, + tokens=tokens, + input_ids=input_ids, + input_mask=input_mask, + input_type_ids=input_type_ids, + ) + ) + return features + + +def _truncate_seq_pair(tokens_a, tokens_b, max_length): + """Truncates a sequence pair in place to the maximum length.""" + + # This is a simple heuristic which will always truncate the longer sequence + # one token at a time. This makes more sense than truncating an equal percent + # of tokens from each, since if one sequence is very short then each token + # that's truncated likely contains more information than a longer sequence. + while True: + total_length = len(tokens_a) + len(tokens_b) + if total_length <= max_length: + break + if len(tokens_a) > len(tokens_b): + tokens_a.pop() + else: + tokens_b.pop() + + +def read_examples(input_file): + """Read a list of `InputExample`s from an input file.""" + examples = [] + unique_id = 0 + with tf.gfile.GFile(input_file, "r") as reader: + while True: + line = tokenization.convert_to_unicode(reader.readline()) + if not line: + break + line = line.strip() + text_a = None + text_b = None + m = re.match(r"^(.*) \|\|\| (.*)$", line) + if m is None: + text_a = line + else: + text_a = m.group(1) + text_b = m.group(2) + examples.append( + InputExample(unique_id=unique_id, text_a=text_a, text_b=text_b) + ) + unique_id += 1 + return examples + + +def main(_): + tf.logging.set_verbosity(tf.logging.INFO) + logger = tf.get_logger() + logger.propagate = False + + layer_indexes = [int(x) for x in FLAGS.layers.split(",")] + + bert_config = modeling.BertConfig.from_json_file(FLAGS.bert_config_file) + + tokenizer = tokenization.FullTokenizer( + vocab_file=FLAGS.vocab_file, do_lower_case=FLAGS.do_lower_case + ) + + is_per_host = tf.contrib.tpu.InputPipelineConfig.PER_HOST_V2 + run_config = tf.contrib.tpu.RunConfig( + master=FLAGS.master, + tpu_config=tf.contrib.tpu.TPUConfig( + num_shards=FLAGS.num_tpu_cores, per_host_input_for_training=is_per_host + ), + ) + + examples = read_examples(FLAGS.input_file) + + features = convert_examples_to_features( + examples=examples, seq_length=FLAGS.max_seq_length, tokenizer=tokenizer + ) + + unique_id_to_feature = {} + for feature in features: + unique_id_to_feature[feature.unique_id] = feature + + model_fn = model_fn_builder( + bert_config=bert_config, + init_checkpoint=FLAGS.init_checkpoint, + layer_indexes=layer_indexes, + use_tpu=FLAGS.use_tpu, + use_one_hot_embeddings=FLAGS.use_one_hot_embeddings, + ) + + # If TPU is not available, this will fall back to normal Estimator on CPU + # or GPU. + estimator = tf.contrib.tpu.TPUEstimator( + use_tpu=FLAGS.use_tpu, + model_fn=model_fn, + config=run_config, + predict_batch_size=FLAGS.batch_size, + ) + + input_fn = input_fn_builder(features=features, seq_length=FLAGS.max_seq_length) + + with codecs.getwriter("utf-8")(tf.gfile.Open(FLAGS.output_file, "w")) as writer: + for result in estimator.predict(input_fn, yield_single_examples=True): + unique_id = int(result["unique_id"]) + feature = unique_id_to_feature[unique_id] + output_json = collections.OrderedDict() + output_json["linex_index"] = unique_id + all_features = [] + for (i, token) in enumerate(feature.tokens): + all_layers = [] + for (j, layer_index) in enumerate(layer_indexes): + layer_output = result["layer_output_%d" % j] + layers = collections.OrderedDict() + layers["index"] = layer_index + layers["values"] = [ + round(float(x), 6) for x in layer_output[i : (i + 1)].flat + ] + all_layers.append(layers) + features = collections.OrderedDict() + features["token"] = token + features["layers"] = all_layers + all_features.append(features) + output_json["features"] = all_features + writer.write(json.dumps(output_json) + "\n") + + +if __name__ == "__main__": + flags.mark_flag_as_required("input_file") + flags.mark_flag_as_required("vocab_file") + flags.mark_flag_as_required("bert_config_file") + flags.mark_flag_as_required("init_checkpoint") + flags.mark_flag_as_required("output_file") + tf.app.run() diff --git a/arabert/arabert/lamb_optimizer.py b/arabert/arabert/lamb_optimizer.py new file mode 100644 index 0000000000000000000000000000000000000000..0fc19a1b43a4e472e05eda80eaeada8c68dfb398 --- /dev/null +++ b/arabert/arabert/lamb_optimizer.py @@ -0,0 +1,158 @@ +# coding=utf-8 +# Copyright 2019 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +# Lint as: python2, python3 +"""Functions and classes related to optimization (weight updates).""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import re +import six +import tensorflow as tf + +# pylint: disable=g-direct-tensorflow-import +from tensorflow.python.ops import array_ops +from tensorflow.python.ops import linalg_ops +from tensorflow.python.ops import math_ops + +# pylint: enable=g-direct-tensorflow-import + + +class LAMBOptimizer(tf.train.Optimizer): + """LAMB (Layer-wise Adaptive Moments optimizer for Batch training).""" + + # A new optimizer that includes correct L2 weight decay, adaptive + # element-wise updating, and layer-wise justification. The LAMB optimizer + # was proposed by Yang You, Jing Li, Jonathan Hseu, Xiaodan Song, + # James Demmel, and Cho-Jui Hsieh in a paper titled as Reducing BERT + # Pre-Training Time from 3 Days to 76 Minutes (arxiv.org/abs/1904.00962) + + def __init__( + self, + learning_rate, + weight_decay_rate=0.0, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=None, + exclude_from_layer_adaptation=None, + name="LAMBOptimizer", + ): + """Constructs a LAMBOptimizer.""" + super(LAMBOptimizer, self).__init__(False, name) + + self.learning_rate = learning_rate + self.weight_decay_rate = weight_decay_rate + self.beta_1 = beta_1 + self.beta_2 = beta_2 + self.epsilon = epsilon + self.exclude_from_weight_decay = exclude_from_weight_decay + # exclude_from_layer_adaptation is set to exclude_from_weight_decay if the + # arg is None. + # TODO(jingli): validate if exclude_from_layer_adaptation is necessary. + if exclude_from_layer_adaptation: + self.exclude_from_layer_adaptation = exclude_from_layer_adaptation + else: + self.exclude_from_layer_adaptation = exclude_from_weight_decay + + def apply_gradients(self, grads_and_vars, global_step=None, name=None): + """See base class.""" + assignments = [] + for (grad, param) in grads_and_vars: + if grad is None or param is None: + continue + + param_name = self._get_variable_name(param.name) + + m = tf.get_variable( + name=six.ensure_str(param_name) + "/adam_m", + shape=param.shape.as_list(), + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer(), + ) + v = tf.get_variable( + name=six.ensure_str(param_name) + "/adam_v", + shape=param.shape.as_list(), + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer(), + ) + + # Standard Adam update. + next_m = tf.multiply(self.beta_1, m) + tf.multiply(1.0 - self.beta_1, grad) + next_v = tf.multiply(self.beta_2, v) + tf.multiply( + 1.0 - self.beta_2, tf.square(grad) + ) + + update = next_m / (tf.sqrt(next_v) + self.epsilon) + + # Just adding the square of the weights to the loss function is *not* + # the correct way of using L2 regularization/weight decay with Adam, + # since that will interact with the m and v parameters in strange ways. + # + # Instead we want ot decay the weights in a manner that doesn't interact + # with the m/v parameters. This is equivalent to adding the square + # of the weights to the loss with plain (non-momentum) SGD. + if self._do_use_weight_decay(param_name): + update += self.weight_decay_rate * param + + ratio = 1.0 + if self._do_layer_adaptation(param_name): + w_norm = linalg_ops.norm(param, ord=2) + g_norm = linalg_ops.norm(update, ord=2) + ratio = array_ops.where( + math_ops.greater(w_norm, 0), + array_ops.where( + math_ops.greater(g_norm, 0), (w_norm / g_norm), 1.0 + ), + 1.0, + ) + + update_with_lr = ratio * self.learning_rate * update + + next_param = param - update_with_lr + + assignments.extend( + [param.assign(next_param), m.assign(next_m), v.assign(next_v)] + ) + return tf.group(*assignments, name=name) + + def _do_use_weight_decay(self, param_name): + """Whether to use L2 weight decay for `param_name`.""" + if not self.weight_decay_rate: + return False + if self.exclude_from_weight_decay: + for r in self.exclude_from_weight_decay: + if re.search(r, param_name) is not None: + return False + return True + + def _do_layer_adaptation(self, param_name): + """Whether to do layer-wise learning rate adaptation for `param_name`.""" + if self.exclude_from_layer_adaptation: + for r in self.exclude_from_layer_adaptation: + if re.search(r, param_name) is not None: + return False + return True + + def _get_variable_name(self, param_name): + """Get the variable name from the tensor name.""" + m = re.match("^(.*):\\d+$", six.ensure_str(param_name)) + if m is not None: + param_name = m.group(1) + return param_name diff --git a/arabert/arabert/modeling.py b/arabert/arabert/modeling.py new file mode 100644 index 0000000000000000000000000000000000000000..05bce39f3e95772e51cb8cdc4414178a5e68f8bd --- /dev/null +++ b/arabert/arabert/modeling.py @@ -0,0 +1,1027 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""The main BERT model and related functions.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections +import copy +import json +import math +import re +import numpy as np +import six +import tensorflow as tf + + +class BertConfig(object): + """Configuration for `BertModel`.""" + + def __init__( + self, + vocab_size, + hidden_size=768, + num_hidden_layers=12, + num_attention_heads=12, + intermediate_size=3072, + hidden_act="gelu", + hidden_dropout_prob=0.1, + attention_probs_dropout_prob=0.1, + max_position_embeddings=512, + type_vocab_size=16, + initializer_range=0.02, + ): + """Constructs BertConfig. + + Args: + vocab_size: Vocabulary size of `inputs_ids` in `BertModel`. + hidden_size: Size of the encoder layers and the pooler layer. + num_hidden_layers: Number of hidden layers in the Transformer encoder. + num_attention_heads: Number of attention heads for each attention layer in + the Transformer encoder. + intermediate_size: The size of the "intermediate" (i.e., feed-forward) + layer in the Transformer encoder. + hidden_act: The non-linear activation function (function or string) in the + encoder and pooler. + hidden_dropout_prob: The dropout probability for all fully connected + layers in the embeddings, encoder, and pooler. + attention_probs_dropout_prob: The dropout ratio for the attention + probabilities. + max_position_embeddings: The maximum sequence length that this model might + ever be used with. Typically set this to something large just in case + (e.g., 512 or 1024 or 2048). + type_vocab_size: The vocabulary size of the `token_type_ids` passed into + `BertModel`. + initializer_range: The stdev of the truncated_normal_initializer for + initializing all weight matrices. + """ + self.vocab_size = vocab_size + self.hidden_size = hidden_size + self.num_hidden_layers = num_hidden_layers + self.num_attention_heads = num_attention_heads + self.hidden_act = hidden_act + self.intermediate_size = intermediate_size + self.hidden_dropout_prob = hidden_dropout_prob + self.attention_probs_dropout_prob = attention_probs_dropout_prob + self.max_position_embeddings = max_position_embeddings + self.type_vocab_size = type_vocab_size + self.initializer_range = initializer_range + + @classmethod + def from_dict(cls, json_object): + """Constructs a `BertConfig` from a Python dictionary of parameters.""" + config = BertConfig(vocab_size=None) + for (key, value) in six.iteritems(json_object): + config.__dict__[key] = value + return config + + @classmethod + def from_json_file(cls, json_file): + """Constructs a `BertConfig` from a json file of parameters.""" + with tf.gfile.GFile(json_file, "r") as reader: + text = reader.read() + return cls.from_dict(json.loads(text)) + + def to_dict(self): + """Serializes this instance to a Python dictionary.""" + output = copy.deepcopy(self.__dict__) + return output + + def to_json_string(self): + """Serializes this instance to a JSON string.""" + return json.dumps(self.to_dict(), indent=2, sort_keys=True) + "\n" + + +class BertModel(object): + """BERT model ("Bidirectional Encoder Representations from Transformers"). + + Example usage: + + ```python + # Already been converted into WordPiece token ids + input_ids = tf.constant([[31, 51, 99], [15, 5, 0]]) + input_mask = tf.constant([[1, 1, 1], [1, 1, 0]]) + token_type_ids = tf.constant([[0, 0, 1], [0, 2, 0]]) + + config = modeling.BertConfig(vocab_size=32000, hidden_size=512, + num_hidden_layers=8, num_attention_heads=6, intermediate_size=1024) + + model = modeling.BertModel(config=config, is_training=True, + input_ids=input_ids, input_mask=input_mask, token_type_ids=token_type_ids) + + label_embeddings = tf.get_variable(...) + pooled_output = model.get_pooled_output() + logits = tf.matmul(pooled_output, label_embeddings) + ... + ``` + """ + + def __init__( + self, + config, + is_training, + input_ids, + input_mask=None, + token_type_ids=None, + use_one_hot_embeddings=False, + scope=None, + ): + """Constructor for BertModel. + + Args: + config: `BertConfig` instance. + is_training: bool. true for training model, false for eval model. Controls + whether dropout will be applied. + input_ids: int32 Tensor of shape [batch_size, seq_length]. + input_mask: (optional) int32 Tensor of shape [batch_size, seq_length]. + token_type_ids: (optional) int32 Tensor of shape [batch_size, seq_length]. + use_one_hot_embeddings: (optional) bool. Whether to use one-hot word + embeddings or tf.embedding_lookup() for the word embeddings. + scope: (optional) variable scope. Defaults to "bert". + + Raises: + ValueError: The config is invalid or one of the input tensor shapes + is invalid. + """ + config = copy.deepcopy(config) + if not is_training: + config.hidden_dropout_prob = 0.0 + config.attention_probs_dropout_prob = 0.0 + + input_shape = get_shape_list(input_ids, expected_rank=2) + batch_size = input_shape[0] + seq_length = input_shape[1] + + if input_mask is None: + input_mask = tf.ones(shape=[batch_size, seq_length], dtype=tf.int32) + + if token_type_ids is None: + token_type_ids = tf.zeros(shape=[batch_size, seq_length], dtype=tf.int32) + + with tf.variable_scope(scope, default_name="bert"): + with tf.variable_scope("embeddings"): + # Perform embedding lookup on the word ids. + (self.embedding_output, self.embedding_table) = embedding_lookup( + input_ids=input_ids, + vocab_size=config.vocab_size, + embedding_size=config.hidden_size, + initializer_range=config.initializer_range, + word_embedding_name="word_embeddings", + use_one_hot_embeddings=use_one_hot_embeddings, + ) + + # Add positional embeddings and token type embeddings, then layer + # normalize and perform dropout. + self.embedding_output = embedding_postprocessor( + input_tensor=self.embedding_output, + use_token_type=True, + token_type_ids=token_type_ids, + token_type_vocab_size=config.type_vocab_size, + token_type_embedding_name="token_type_embeddings", + use_position_embeddings=True, + position_embedding_name="position_embeddings", + initializer_range=config.initializer_range, + max_position_embeddings=config.max_position_embeddings, + dropout_prob=config.hidden_dropout_prob, + ) + + with tf.variable_scope("encoder"): + # This converts a 2D mask of shape [batch_size, seq_length] to a 3D + # mask of shape [batch_size, seq_length, seq_length] which is used + # for the attention scores. + attention_mask = create_attention_mask_from_input_mask( + input_ids, input_mask + ) + + # Run the stacked transformer. + # `sequence_output` shape = [batch_size, seq_length, hidden_size]. + self.all_encoder_layers = transformer_model( + input_tensor=self.embedding_output, + attention_mask=attention_mask, + hidden_size=config.hidden_size, + num_hidden_layers=config.num_hidden_layers, + num_attention_heads=config.num_attention_heads, + intermediate_size=config.intermediate_size, + intermediate_act_fn=get_activation(config.hidden_act), + hidden_dropout_prob=config.hidden_dropout_prob, + attention_probs_dropout_prob=config.attention_probs_dropout_prob, + initializer_range=config.initializer_range, + do_return_all_layers=True, + ) + + self.sequence_output = self.all_encoder_layers[-1] + # The "pooler" converts the encoded sequence tensor of shape + # [batch_size, seq_length, hidden_size] to a tensor of shape + # [batch_size, hidden_size]. This is necessary for segment-level + # (or segment-pair-level) classification tasks where we need a fixed + # dimensional representation of the segment. + with tf.variable_scope("pooler"): + # We "pool" the model by simply taking the hidden state corresponding + # to the first token. We assume that this has been pre-trained + first_token_tensor = tf.squeeze(self.sequence_output[:, 0:1, :], axis=1) + self.pooled_output = tf.layers.dense( + first_token_tensor, + config.hidden_size, + activation=tf.tanh, + kernel_initializer=create_initializer(config.initializer_range), + ) + + def get_pooled_output(self): + return self.pooled_output + + def get_sequence_output(self): + """Gets final hidden layer of encoder. + + Returns: + float Tensor of shape [batch_size, seq_length, hidden_size] corresponding + to the final hidden of the transformer encoder. + """ + return self.sequence_output + + def get_all_encoder_layers(self): + return self.all_encoder_layers + + def get_embedding_output(self): + """Gets output of the embedding lookup (i.e., input to the transformer). + + Returns: + float Tensor of shape [batch_size, seq_length, hidden_size] corresponding + to the output of the embedding layer, after summing the word + embeddings with the positional embeddings and the token type embeddings, + then performing layer normalization. This is the input to the transformer. + """ + return self.embedding_output + + def get_embedding_table(self): + return self.embedding_table + + +def gelu(x): + """Gaussian Error Linear Unit. + + This is a smoother version of the RELU. + Original paper: https://arxiv.org/abs/1606.08415 + Args: + x: float Tensor to perform activation. + + Returns: + `x` with the GELU activation applied. + """ + cdf = 0.5 * (1.0 + tf.tanh((np.sqrt(2 / np.pi) * (x + 0.044715 * tf.pow(x, 3))))) + return x * cdf + + +def get_activation(activation_string): + """Maps a string to a Python function, e.g., "relu" => `tf.nn.relu`. + + Args: + activation_string: String name of the activation function. + + Returns: + A Python function corresponding to the activation function. If + `activation_string` is None, empty, or "linear", this will return None. + If `activation_string` is not a string, it will return `activation_string`. + + Raises: + ValueError: The `activation_string` does not correspond to a known + activation. + """ + + # We assume that anything that"s not a string is already an activation + # function, so we just return it. + if not isinstance(activation_string, six.string_types): + return activation_string + + if not activation_string: + return None + + act = activation_string.lower() + if act == "linear": + return None + elif act == "relu": + return tf.nn.relu + elif act == "gelu": + return gelu + elif act == "tanh": + return tf.tanh + else: + raise ValueError("Unsupported activation: %s" % act) + + +def get_assignment_map_from_checkpoint(tvars, init_checkpoint): + """Compute the union of the current variables and checkpoint variables.""" + assignment_map = {} + initialized_variable_names = {} + + name_to_variable = collections.OrderedDict() + for var in tvars: + name = var.name + m = re.match("^(.*):\\d+$", name) + if m is not None: + name = m.group(1) + name_to_variable[name] = var + + init_vars = tf.train.list_variables(init_checkpoint) + + assignment_map = collections.OrderedDict() + for x in init_vars: + (name, var) = (x[0], x[1]) + if name not in name_to_variable: + continue + assignment_map[name] = name + initialized_variable_names[name] = 1 + initialized_variable_names[name + ":0"] = 1 + + return (assignment_map, initialized_variable_names) + + +def dropout(input_tensor, dropout_prob): + """Perform dropout. + + Args: + input_tensor: float Tensor. + dropout_prob: Python float. The probability of dropping out a value (NOT of + *keeping* a dimension as in `tf.nn.dropout`). + + Returns: + A version of `input_tensor` with dropout applied. + """ + if dropout_prob is None or dropout_prob == 0.0: + return input_tensor + + output = tf.nn.dropout(input_tensor, 1.0 - dropout_prob) + return output + + +def layer_norm(input_tensor, name=None): + """Run layer normalization on the last dimension of the tensor.""" + return tf.contrib.layers.layer_norm( + inputs=input_tensor, begin_norm_axis=-1, begin_params_axis=-1, scope=name + ) + + +def layer_norm_and_dropout(input_tensor, dropout_prob, name=None): + """Runs layer normalization followed by dropout.""" + output_tensor = layer_norm(input_tensor, name) + output_tensor = dropout(output_tensor, dropout_prob) + return output_tensor + + +def create_initializer(initializer_range=0.02): + """Creates a `truncated_normal_initializer` with the given range.""" + return tf.truncated_normal_initializer(stddev=initializer_range) + + +def embedding_lookup( + input_ids, + vocab_size, + embedding_size=128, + initializer_range=0.02, + word_embedding_name="word_embeddings", + use_one_hot_embeddings=False, +): + """Looks up words embeddings for id tensor. + + Args: + input_ids: int32 Tensor of shape [batch_size, seq_length] containing word + ids. + vocab_size: int. Size of the embedding vocabulary. + embedding_size: int. Width of the word embeddings. + initializer_range: float. Embedding initialization range. + word_embedding_name: string. Name of the embedding table. + use_one_hot_embeddings: bool. If True, use one-hot method for word + embeddings. If False, use `tf.gather()`. + + Returns: + float Tensor of shape [batch_size, seq_length, embedding_size]. + """ + # This function assumes that the input is of shape [batch_size, seq_length, + # num_inputs]. + # + # If the input is a 2D tensor of shape [batch_size, seq_length], we + # reshape to [batch_size, seq_length, 1]. + if input_ids.shape.ndims == 2: + input_ids = tf.expand_dims(input_ids, axis=[-1]) + + embedding_table = tf.get_variable( + name=word_embedding_name, + shape=[vocab_size, embedding_size], + initializer=create_initializer(initializer_range), + ) + + flat_input_ids = tf.reshape(input_ids, [-1]) + if use_one_hot_embeddings: + one_hot_input_ids = tf.one_hot(flat_input_ids, depth=vocab_size) + output = tf.matmul(one_hot_input_ids, embedding_table) + else: + output = tf.gather(embedding_table, flat_input_ids) + + input_shape = get_shape_list(input_ids) + + output = tf.reshape(output, input_shape[0:-1] + [input_shape[-1] * embedding_size]) + return (output, embedding_table) + + +def embedding_postprocessor( + input_tensor, + use_token_type=False, + token_type_ids=None, + token_type_vocab_size=16, + token_type_embedding_name="token_type_embeddings", + use_position_embeddings=True, + position_embedding_name="position_embeddings", + initializer_range=0.02, + max_position_embeddings=512, + dropout_prob=0.1, +): + """Performs various post-processing on a word embedding tensor. + + Args: + input_tensor: float Tensor of shape [batch_size, seq_length, + embedding_size]. + use_token_type: bool. Whether to add embeddings for `token_type_ids`. + token_type_ids: (optional) int32 Tensor of shape [batch_size, seq_length]. + Must be specified if `use_token_type` is True. + token_type_vocab_size: int. The vocabulary size of `token_type_ids`. + token_type_embedding_name: string. The name of the embedding table variable + for token type ids. + use_position_embeddings: bool. Whether to add position embeddings for the + position of each token in the sequence. + position_embedding_name: string. The name of the embedding table variable + for positional embeddings. + initializer_range: float. Range of the weight initialization. + max_position_embeddings: int. Maximum sequence length that might ever be + used with this model. This can be longer than the sequence length of + input_tensor, but cannot be shorter. + dropout_prob: float. Dropout probability applied to the final output tensor. + + Returns: + float tensor with same shape as `input_tensor`. + + Raises: + ValueError: One of the tensor shapes or input values is invalid. + """ + input_shape = get_shape_list(input_tensor, expected_rank=3) + batch_size = input_shape[0] + seq_length = input_shape[1] + width = input_shape[2] + + output = input_tensor + + if use_token_type: + if token_type_ids is None: + raise ValueError( + "`token_type_ids` must be specified if" "`use_token_type` is True." + ) + token_type_table = tf.get_variable( + name=token_type_embedding_name, + shape=[token_type_vocab_size, width], + initializer=create_initializer(initializer_range), + ) + # This vocab will be small so we always do one-hot here, since it is always + # faster for a small vocabulary. + flat_token_type_ids = tf.reshape(token_type_ids, [-1]) + one_hot_ids = tf.one_hot(flat_token_type_ids, depth=token_type_vocab_size) + token_type_embeddings = tf.matmul(one_hot_ids, token_type_table) + token_type_embeddings = tf.reshape( + token_type_embeddings, [batch_size, seq_length, width] + ) + output += token_type_embeddings + + if use_position_embeddings: + assert_op = tf.assert_less_equal(seq_length, max_position_embeddings) + with tf.control_dependencies([assert_op]): + full_position_embeddings = tf.get_variable( + name=position_embedding_name, + shape=[max_position_embeddings, width], + initializer=create_initializer(initializer_range), + ) + # Since the position embedding table is a learned variable, we create it + # using a (long) sequence length `max_position_embeddings`. The actual + # sequence length might be shorter than this, for faster training of + # tasks that do not have long sequences. + # + # So `full_position_embeddings` is effectively an embedding table + # for position [0, 1, 2, ..., max_position_embeddings-1], and the current + # sequence has positions [0, 1, 2, ... seq_length-1], so we can just + # perform a slice. + position_embeddings = tf.slice( + full_position_embeddings, [0, 0], [seq_length, -1] + ) + num_dims = len(output.shape.as_list()) + + # Only the last two dimensions are relevant (`seq_length` and `width`), so + # we broadcast among the first dimensions, which is typically just + # the batch size. + position_broadcast_shape = [] + for _ in range(num_dims - 2): + position_broadcast_shape.append(1) + position_broadcast_shape.extend([seq_length, width]) + position_embeddings = tf.reshape( + position_embeddings, position_broadcast_shape + ) + output += position_embeddings + + output = layer_norm_and_dropout(output, dropout_prob) + return output + + +def create_attention_mask_from_input_mask(from_tensor, to_mask): + """Create 3D attention mask from a 2D tensor mask. + + Args: + from_tensor: 2D or 3D Tensor of shape [batch_size, from_seq_length, ...]. + to_mask: int32 Tensor of shape [batch_size, to_seq_length]. + + Returns: + float Tensor of shape [batch_size, from_seq_length, to_seq_length]. + """ + from_shape = get_shape_list(from_tensor, expected_rank=[2, 3]) + batch_size = from_shape[0] + from_seq_length = from_shape[1] + + to_shape = get_shape_list(to_mask, expected_rank=2) + to_seq_length = to_shape[1] + + to_mask = tf.cast(tf.reshape(to_mask, [batch_size, 1, to_seq_length]), tf.float32) + + # We don't assume that `from_tensor` is a mask (although it could be). We + # don't actually care if we attend *from* padding tokens (only *to* padding) + # tokens so we create a tensor of all ones. + # + # `broadcast_ones` = [batch_size, from_seq_length, 1] + broadcast_ones = tf.ones(shape=[batch_size, from_seq_length, 1], dtype=tf.float32) + + # Here we broadcast along two dimensions to create the mask. + mask = broadcast_ones * to_mask + + return mask + + +def attention_layer( + from_tensor, + to_tensor, + attention_mask=None, + num_attention_heads=1, + size_per_head=512, + query_act=None, + key_act=None, + value_act=None, + attention_probs_dropout_prob=0.0, + initializer_range=0.02, + do_return_2d_tensor=False, + batch_size=None, + from_seq_length=None, + to_seq_length=None, +): + """Performs multi-headed attention from `from_tensor` to `to_tensor`. + + This is an implementation of multi-headed attention based on "Attention + is all you Need". If `from_tensor` and `to_tensor` are the same, then + this is self-attention. Each timestep in `from_tensor` attends to the + corresponding sequence in `to_tensor`, and returns a fixed-with vector. + + This function first projects `from_tensor` into a "query" tensor and + `to_tensor` into "key" and "value" tensors. These are (effectively) a list + of tensors of length `num_attention_heads`, where each tensor is of shape + [batch_size, seq_length, size_per_head]. + + Then, the query and key tensors are dot-producted and scaled. These are + softmaxed to obtain attention probabilities. The value tensors are then + interpolated by these probabilities, then concatenated back to a single + tensor and returned. + + In practice, the multi-headed attention are done with transposes and + reshapes rather than actual separate tensors. + + Args: + from_tensor: float Tensor of shape [batch_size, from_seq_length, + from_width]. + to_tensor: float Tensor of shape [batch_size, to_seq_length, to_width]. + attention_mask: (optional) int32 Tensor of shape [batch_size, + from_seq_length, to_seq_length]. The values should be 1 or 0. The + attention scores will effectively be set to -infinity for any positions in + the mask that are 0, and will be unchanged for positions that are 1. + num_attention_heads: int. Number of attention heads. + size_per_head: int. Size of each attention head. + query_act: (optional) Activation function for the query transform. + key_act: (optional) Activation function for the key transform. + value_act: (optional) Activation function for the value transform. + attention_probs_dropout_prob: (optional) float. Dropout probability of the + attention probabilities. + initializer_range: float. Range of the weight initializer. + do_return_2d_tensor: bool. If True, the output will be of shape [batch_size + * from_seq_length, num_attention_heads * size_per_head]. If False, the + output will be of shape [batch_size, from_seq_length, num_attention_heads + * size_per_head]. + batch_size: (Optional) int. If the input is 2D, this might be the batch size + of the 3D version of the `from_tensor` and `to_tensor`. + from_seq_length: (Optional) If the input is 2D, this might be the seq length + of the 3D version of the `from_tensor`. + to_seq_length: (Optional) If the input is 2D, this might be the seq length + of the 3D version of the `to_tensor`. + + Returns: + float Tensor of shape [batch_size, from_seq_length, + num_attention_heads * size_per_head]. (If `do_return_2d_tensor` is + true, this will be of shape [batch_size * from_seq_length, + num_attention_heads * size_per_head]). + + Raises: + ValueError: Any of the arguments or tensor shapes are invalid. + """ + + def transpose_for_scores( + input_tensor, batch_size, num_attention_heads, seq_length, width + ): + output_tensor = tf.reshape( + input_tensor, [batch_size, seq_length, num_attention_heads, width] + ) + + output_tensor = tf.transpose(output_tensor, [0, 2, 1, 3]) + return output_tensor + + from_shape = get_shape_list(from_tensor, expected_rank=[2, 3]) + to_shape = get_shape_list(to_tensor, expected_rank=[2, 3]) + + if len(from_shape) != len(to_shape): + raise ValueError( + "The rank of `from_tensor` must match the rank of `to_tensor`." + ) + + if len(from_shape) == 3: + batch_size = from_shape[0] + from_seq_length = from_shape[1] + to_seq_length = to_shape[1] + elif len(from_shape) == 2: + if batch_size is None or from_seq_length is None or to_seq_length is None: + raise ValueError( + "When passing in rank 2 tensors to attention_layer, the values " + "for `batch_size`, `from_seq_length`, and `to_seq_length` " + "must all be specified." + ) + + # Scalar dimensions referenced here: + # B = batch size (number of sequences) + # F = `from_tensor` sequence length + # T = `to_tensor` sequence length + # N = `num_attention_heads` + # H = `size_per_head` + + from_tensor_2d = reshape_to_matrix(from_tensor) + to_tensor_2d = reshape_to_matrix(to_tensor) + + # `query_layer` = [B*F, N*H] + query_layer = tf.layers.dense( + from_tensor_2d, + num_attention_heads * size_per_head, + activation=query_act, + name="query", + kernel_initializer=create_initializer(initializer_range), + ) + + # `key_layer` = [B*T, N*H] + key_layer = tf.layers.dense( + to_tensor_2d, + num_attention_heads * size_per_head, + activation=key_act, + name="key", + kernel_initializer=create_initializer(initializer_range), + ) + + # `value_layer` = [B*T, N*H] + value_layer = tf.layers.dense( + to_tensor_2d, + num_attention_heads * size_per_head, + activation=value_act, + name="value", + kernel_initializer=create_initializer(initializer_range), + ) + + # `query_layer` = [B, N, F, H] + query_layer = transpose_for_scores( + query_layer, batch_size, num_attention_heads, from_seq_length, size_per_head + ) + + # `key_layer` = [B, N, T, H] + key_layer = transpose_for_scores( + key_layer, batch_size, num_attention_heads, to_seq_length, size_per_head + ) + + # Take the dot product between "query" and "key" to get the raw + # attention scores. + # `attention_scores` = [B, N, F, T] + attention_scores = tf.matmul(query_layer, key_layer, transpose_b=True) + attention_scores = tf.multiply( + attention_scores, 1.0 / math.sqrt(float(size_per_head)) + ) + + if attention_mask is not None: + # `attention_mask` = [B, 1, F, T] + attention_mask = tf.expand_dims(attention_mask, axis=[1]) + + # Since attention_mask is 1.0 for positions we want to attend and 0.0 for + # masked positions, this operation will create a tensor which is 0.0 for + # positions we want to attend and -10000.0 for masked positions. + adder = (1.0 - tf.cast(attention_mask, tf.float32)) * -10000.0 + + # Since we are adding it to the raw scores before the softmax, this is + # effectively the same as removing these entirely. + attention_scores += adder + + # Normalize the attention scores to probabilities. + # `attention_probs` = [B, N, F, T] + attention_probs = tf.nn.softmax(attention_scores) + + # This is actually dropping out entire tokens to attend to, which might + # seem a bit unusual, but is taken from the original Transformer paper. + attention_probs = dropout(attention_probs, attention_probs_dropout_prob) + + # `value_layer` = [B, T, N, H] + value_layer = tf.reshape( + value_layer, [batch_size, to_seq_length, num_attention_heads, size_per_head] + ) + + # `value_layer` = [B, N, T, H] + value_layer = tf.transpose(value_layer, [0, 2, 1, 3]) + + # `context_layer` = [B, N, F, H] + context_layer = tf.matmul(attention_probs, value_layer) + + # `context_layer` = [B, F, N, H] + context_layer = tf.transpose(context_layer, [0, 2, 1, 3]) + + if do_return_2d_tensor: + # `context_layer` = [B*F, N*H] + context_layer = tf.reshape( + context_layer, + [batch_size * from_seq_length, num_attention_heads * size_per_head], + ) + else: + # `context_layer` = [B, F, N*H] + context_layer = tf.reshape( + context_layer, + [batch_size, from_seq_length, num_attention_heads * size_per_head], + ) + + return context_layer + + +def transformer_model( + input_tensor, + attention_mask=None, + hidden_size=768, + num_hidden_layers=12, + num_attention_heads=12, + intermediate_size=3072, + intermediate_act_fn=gelu, + hidden_dropout_prob=0.1, + attention_probs_dropout_prob=0.1, + initializer_range=0.02, + do_return_all_layers=False, +): + """Multi-headed, multi-layer Transformer from "Attention is All You Need". + + This is almost an exact implementation of the original Transformer encoder. + + See the original paper: + https://arxiv.org/abs/1706.03762 + + Also see: + https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/models/transformer.py + + Args: + input_tensor: float Tensor of shape [batch_size, seq_length, hidden_size]. + attention_mask: (optional) int32 Tensor of shape [batch_size, seq_length, + seq_length], with 1 for positions that can be attended to and 0 in + positions that should not be. + hidden_size: int. Hidden size of the Transformer. + num_hidden_layers: int. Number of layers (blocks) in the Transformer. + num_attention_heads: int. Number of attention heads in the Transformer. + intermediate_size: int. The size of the "intermediate" (a.k.a., feed + forward) layer. + intermediate_act_fn: function. The non-linear activation function to apply + to the output of the intermediate/feed-forward layer. + hidden_dropout_prob: float. Dropout probability for the hidden layers. + attention_probs_dropout_prob: float. Dropout probability of the attention + probabilities. + initializer_range: float. Range of the initializer (stddev of truncated + normal). + do_return_all_layers: Whether to also return all layers or just the final + layer. + + Returns: + float Tensor of shape [batch_size, seq_length, hidden_size], the final + hidden layer of the Transformer. + + Raises: + ValueError: A Tensor shape or parameter is invalid. + """ + if hidden_size % num_attention_heads != 0: + raise ValueError( + "The hidden size (%d) is not a multiple of the number of attention " + "heads (%d)" % (hidden_size, num_attention_heads) + ) + + attention_head_size = int(hidden_size / num_attention_heads) + input_shape = get_shape_list(input_tensor, expected_rank=3) + batch_size = input_shape[0] + seq_length = input_shape[1] + input_width = input_shape[2] + + # The Transformer performs sum residuals on all layers so the input needs + # to be the same as the hidden size. + if input_width != hidden_size: + raise ValueError( + "The width of the input tensor (%d) != hidden size (%d)" + % (input_width, hidden_size) + ) + + # We keep the representation as a 2D tensor to avoid re-shaping it back and + # forth from a 3D tensor to a 2D tensor. Re-shapes are normally free on + # the GPU/CPU but may not be free on the TPU, so we want to minimize them to + # help the optimizer. + prev_output = reshape_to_matrix(input_tensor) + + all_layer_outputs = [] + for layer_idx in range(num_hidden_layers): + with tf.variable_scope("layer_%d" % layer_idx): + layer_input = prev_output + + with tf.variable_scope("attention"): + attention_heads = [] + with tf.variable_scope("self"): + attention_head = attention_layer( + from_tensor=layer_input, + to_tensor=layer_input, + attention_mask=attention_mask, + num_attention_heads=num_attention_heads, + size_per_head=attention_head_size, + attention_probs_dropout_prob=attention_probs_dropout_prob, + initializer_range=initializer_range, + do_return_2d_tensor=True, + batch_size=batch_size, + from_seq_length=seq_length, + to_seq_length=seq_length, + ) + attention_heads.append(attention_head) + + attention_output = None + if len(attention_heads) == 1: + attention_output = attention_heads[0] + else: + # In the case where we have other sequences, we just concatenate + # them to the self-attention head before the projection. + attention_output = tf.concat(attention_heads, axis=-1) + + # Run a linear projection of `hidden_size` then add a residual + # with `layer_input`. + with tf.variable_scope("output"): + attention_output = tf.layers.dense( + attention_output, + hidden_size, + kernel_initializer=create_initializer(initializer_range), + ) + attention_output = dropout(attention_output, hidden_dropout_prob) + attention_output = layer_norm(attention_output + layer_input) + + # The activation is only applied to the "intermediate" hidden layer. + with tf.variable_scope("intermediate"): + intermediate_output = tf.layers.dense( + attention_output, + intermediate_size, + activation=intermediate_act_fn, + kernel_initializer=create_initializer(initializer_range), + ) + + # Down-project back to `hidden_size` then add the residual. + with tf.variable_scope("output"): + layer_output = tf.layers.dense( + intermediate_output, + hidden_size, + kernel_initializer=create_initializer(initializer_range), + ) + layer_output = dropout(layer_output, hidden_dropout_prob) + layer_output = layer_norm(layer_output + attention_output) + prev_output = layer_output + all_layer_outputs.append(layer_output) + + if do_return_all_layers: + final_outputs = [] + for layer_output in all_layer_outputs: + final_output = reshape_from_matrix(layer_output, input_shape) + final_outputs.append(final_output) + return final_outputs + else: + final_output = reshape_from_matrix(prev_output, input_shape) + return final_output + + +def get_shape_list(tensor, expected_rank=None, name=None): + """Returns a list of the shape of tensor, preferring static dimensions. + + Args: + tensor: A tf.Tensor object to find the shape of. + expected_rank: (optional) int. The expected rank of `tensor`. If this is + specified and the `tensor` has a different rank, and exception will be + thrown. + name: Optional name of the tensor for the error message. + + Returns: + A list of dimensions of the shape of tensor. All static dimensions will + be returned as python integers, and dynamic dimensions will be returned + as tf.Tensor scalars. + """ + if name is None: + name = tensor.name + + if expected_rank is not None: + assert_rank(tensor, expected_rank, name) + + shape = tensor.shape.as_list() + + non_static_indexes = [] + for (index, dim) in enumerate(shape): + if dim is None: + non_static_indexes.append(index) + + if not non_static_indexes: + return shape + + dyn_shape = tf.shape(tensor) + for index in non_static_indexes: + shape[index] = dyn_shape[index] + return shape + + +def reshape_to_matrix(input_tensor): + """Reshapes a >= rank 2 tensor to a rank 2 tensor (i.e., a matrix).""" + ndims = input_tensor.shape.ndims + if ndims < 2: + raise ValueError( + "Input tensor must have at least rank 2. Shape = %s" % (input_tensor.shape) + ) + if ndims == 2: + return input_tensor + + width = input_tensor.shape[-1] + output_tensor = tf.reshape(input_tensor, [-1, width]) + return output_tensor + + +def reshape_from_matrix(output_tensor, orig_shape_list): + """Reshapes a rank 2 tensor back to its original rank >= 2 tensor.""" + if len(orig_shape_list) == 2: + return output_tensor + + output_shape = get_shape_list(output_tensor) + + orig_dims = orig_shape_list[0:-1] + width = output_shape[-1] + + return tf.reshape(output_tensor, orig_dims + [width]) + + +def assert_rank(tensor, expected_rank, name=None): + """Raises an exception if the tensor rank is not of the expected rank. + + Args: + tensor: A tf.Tensor to check the rank of. + expected_rank: Python integer or list of integers, expected rank. + name: Optional name of the tensor for the error message. + + Raises: + ValueError: If the expected shape doesn't match the actual shape. + """ + if name is None: + name = tensor.name + + expected_rank_dict = {} + if isinstance(expected_rank, six.integer_types): + expected_rank_dict[expected_rank] = True + else: + for x in expected_rank: + expected_rank_dict[x] = True + + actual_rank = tensor.shape.ndims + if actual_rank not in expected_rank_dict: + scope_name = tf.get_variable_scope().name + raise ValueError( + "For the tensor `%s` in scope `%s`, the actual rank " + "`%d` (shape = %s) is not equal to the expected rank `%s`" + % (name, scope_name, actual_rank, str(tensor.shape), str(expected_rank)) + ) diff --git a/arabert/arabert/optimization.py b/arabert/arabert/optimization.py new file mode 100644 index 0000000000000000000000000000000000000000..04529be68f01625856ff7d1c0971627a0e12d8a1 --- /dev/null +++ b/arabert/arabert/optimization.py @@ -0,0 +1,202 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Functions and classes related to optimization (weight updates).""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import re +import tensorflow as tf +import lamb_optimizer + +def create_optimizer(loss, init_lr, num_train_steps, num_warmup_steps, use_tpu, + optimizer="adamw", poly_power=1.0, start_warmup_step=0, + colocate_gradients_with_ops=False): + """Creates an optimizer training op.""" + global_step = tf.train.get_or_create_global_step() + + learning_rate = tf.constant(value=init_lr, shape=[], dtype=tf.float32) + + # Implements linear decay of the learning rate. + learning_rate = tf.train.polynomial_decay( + learning_rate, + global_step, + num_train_steps, + end_learning_rate=0.0, + power=poly_power, + cycle=False, + ) + + # Implements linear warmup. I.e., if global_step - start_warmup_step < + # num_warmup_steps, the learning rate will be + # `(global_step - start_warmup_step)/num_warmup_steps * init_lr`. + if num_warmup_steps: + tf.logging.info("++++++ warmup starts at step " + str(start_warmup_step) + + ", for " + str(num_warmup_steps) + " steps ++++++") + global_steps_int = tf.cast(global_step, tf.int32) + start_warm_int = tf.constant(start_warmup_step, dtype=tf.int32) + global_steps_int = global_steps_int - start_warm_int + warmup_steps_int = tf.constant(num_warmup_steps, dtype=tf.int32) + + global_steps_float = tf.cast(global_steps_int, tf.float32) + warmup_steps_float = tf.cast(warmup_steps_int, tf.float32) + + warmup_percent_done = global_steps_float / warmup_steps_float + warmup_learning_rate = init_lr * warmup_percent_done + + is_warmup = tf.cast(global_steps_int < warmup_steps_int, tf.float32) + learning_rate = ( + 1.0 - is_warmup + ) * learning_rate + is_warmup * warmup_learning_rate + + # It is OK that you use this optimizer for finetuning, since this + # is how the model was trained (note that the Adam m/v variables are NOT + # loaded from init_checkpoint.) + # It is OK to use AdamW in the finetuning even the model is trained by LAMB. + # As report in the Bert pulic github, the learning rate for SQuAD 1.1 finetune + # is 3e-5, 4e-5 or 5e-5. For LAMB, the users can use 3e-4, 4e-4,or 5e-4 for a + # batch size of 64 in the finetune. + if optimizer == "adamw": + tf.logging.info("using adamw") + optimizer = AdamWeightDecayOptimizer( + learning_rate=learning_rate, + weight_decay_rate=0.01, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=["LayerNorm", "layer_norm", "bias"]) + elif optimizer == "lamb": + tf.logging.info("using lamb") + optimizer = lamb_optimizer.LAMBOptimizer( + learning_rate=learning_rate, + weight_decay_rate=0.01, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=["LayerNorm", "layer_norm", "bias"]) + else: + raise ValueError("Not supported optimizer: ", optimizer) + + if use_tpu: + optimizer = tf.contrib.tpu.CrossShardOptimizer(optimizer) + + tvars = tf.trainable_variables() + grads = tf.gradients(loss, tvars) + + # This is how the model was pre-trained. + (grads, _) = tf.clip_by_global_norm(grads, clip_norm=1.0) + + train_op = optimizer.apply_gradients(zip(grads, tvars), global_step=global_step) + + # Normally the global step update is done inside of `apply_gradients`. + # However, neither `AdamWeightDecayOptimizer` nor `LAMBOptimizer` do this. + # But if you use a different optimizer, you should probably take this line + # out. + new_global_step = global_step + 1 + train_op = tf.group(train_op, [global_step.assign(new_global_step)]) + return train_op + + +class AdamWeightDecayOptimizer(tf.train.Optimizer): + """A basic Adam optimizer that includes "correct" L2 weight decay.""" + + def __init__( + self, + learning_rate, + weight_decay_rate=0.0, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=None, + name="AdamWeightDecayOptimizer", + ): + """Constructs a AdamWeightDecayOptimizer.""" + super(AdamWeightDecayOptimizer, self).__init__(False, name) + + self.learning_rate = learning_rate + self.weight_decay_rate = weight_decay_rate + self.beta_1 = beta_1 + self.beta_2 = beta_2 + self.epsilon = epsilon + self.exclude_from_weight_decay = exclude_from_weight_decay + + def apply_gradients(self, grads_and_vars, global_step=None, name=None): + """See base class.""" + assignments = [] + for (grad, param) in grads_and_vars: + if grad is None or param is None: + continue + + param_name = self._get_variable_name(param.name) + + m = tf.get_variable( + name=param_name + "/adam_m", + shape=param.shape.as_list(), + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer(), + ) + v = tf.get_variable( + name=param_name + "/adam_v", + shape=param.shape.as_list(), + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer(), + ) + + # Standard Adam update. + next_m = tf.multiply(self.beta_1, m) + tf.multiply(1.0 - self.beta_1, grad) + next_v = tf.multiply(self.beta_2, v) + tf.multiply( + 1.0 - self.beta_2, tf.square(grad) + ) + + update = next_m / (tf.sqrt(next_v) + self.epsilon) + + # Just adding the square of the weights to the loss function is *not* + # the correct way of using L2 regularization/weight decay with Adam, + # since that will interact with the m and v parameters in strange ways. + # + # Instead we want ot decay the weights in a manner that doesn't interact + # with the m/v parameters. This is equivalent to adding the square + # of the weights to the loss with plain (non-momentum) SGD. + if self._do_use_weight_decay(param_name): + update += self.weight_decay_rate * param + + update_with_lr = self.learning_rate * update + + next_param = param - update_with_lr + + assignments.extend( + [param.assign(next_param), m.assign(next_m), v.assign(next_v)] + ) + return tf.group(*assignments, name=name) + + def _do_use_weight_decay(self, param_name): + """Whether to use L2 weight decay for `param_name`.""" + if not self.weight_decay_rate: + return False + if self.exclude_from_weight_decay: + for r in self.exclude_from_weight_decay: + if re.search(r, param_name) is not None: + return False + return True + + def _get_variable_name(self, param_name): + """Get the variable name from the tensor name.""" + m = re.match("^(.*):\\d+$", param_name) + if m is not None: + param_name = m.group(1) + return param_name diff --git a/arabert/arabert/run_classifier.py b/arabert/arabert/run_classifier.py new file mode 100644 index 0000000000000000000000000000000000000000..ee2c782f4ee66ba391ebf6728bfcfe7e553b0bdd --- /dev/null +++ b/arabert/arabert/run_classifier.py @@ -0,0 +1,1078 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""BERT finetuning runner.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections +import csv +import os +import modeling +import optimization +import tokenization +import tensorflow as tf + +flags = tf.flags + +FLAGS = flags.FLAGS + +## Required parameters +flags.DEFINE_string( + "data_dir", + None, + "The input data dir. Should contain the .tsv files (or other data files) " + "for the task.", +) + +flags.DEFINE_string( + "bert_config_file", + None, + "The config json file corresponding to the pre-trained BERT model. " + "This specifies the model architecture.", +) + +flags.DEFINE_string("task_name", None, "The name of the task to train.") + +flags.DEFINE_string( + "vocab_file", None, "The vocabulary file that the BERT model was trained on." +) + +flags.DEFINE_string( + "output_dir", + None, + "The output directory where the model checkpoints will be written.", +) + +## Other parameters + +flags.DEFINE_string( + "init_checkpoint", + None, + "Initial checkpoint (usually from a pre-trained BERT model).", +) + +flags.DEFINE_bool( + "do_lower_case", + True, + "Whether to lower case the input text. Should be True for uncased " + "models and False for cased models.", +) + +flags.DEFINE_integer( + "max_seq_length", + 128, + "The maximum total input sequence length after WordPiece tokenization. " + "Sequences longer than this will be truncated, and sequences shorter " + "than this will be padded.", +) + +flags.DEFINE_bool("do_train", False, "Whether to run training.") + +flags.DEFINE_bool("do_eval", False, "Whether to run eval on the dev set.") + +flags.DEFINE_bool( + "do_predict", False, "Whether to run the model in inference mode on the test set." +) + +flags.DEFINE_integer("train_batch_size", 32, "Total batch size for training.") + +flags.DEFINE_integer("eval_batch_size", 8, "Total batch size for eval.") + +flags.DEFINE_integer("predict_batch_size", 8, "Total batch size for predict.") + +flags.DEFINE_float("learning_rate", 5e-5, "The initial learning rate for Adam.") + +flags.DEFINE_float( + "num_train_epochs", 3.0, "Total number of training epochs to perform." +) + +flags.DEFINE_float( + "warmup_proportion", + 0.1, + "Proportion of training to perform linear learning rate warmup for. " + "E.g., 0.1 = 10% of training.", +) + +flags.DEFINE_integer( + "save_checkpoints_steps", 1000, "How often to save the model checkpoint." +) + +flags.DEFINE_integer( + "iterations_per_loop", 1000, "How many steps to make in each estimator call." +) + +flags.DEFINE_bool("use_tpu", False, "Whether to use TPU or GPU/CPU.") + +tf.flags.DEFINE_string( + "tpu_name", + None, + "The Cloud TPU to use for training. This should be either the name " + "used when creating the Cloud TPU, or a grpc://ip.address.of.tpu:8470 " + "url.", +) + +tf.flags.DEFINE_string( + "tpu_zone", + None, + "[Optional] GCE zone where the Cloud TPU is located in. If not " + "specified, we will attempt to automatically detect the GCE project from " + "metadata.", +) + +tf.flags.DEFINE_string( + "gcp_project", + None, + "[Optional] Project name for the Cloud TPU-enabled project. If not " + "specified, we will attempt to automatically detect the GCE project from " + "metadata.", +) + +tf.flags.DEFINE_string("master", None, "[Optional] TensorFlow master URL.") + +flags.DEFINE_integer( + "num_tpu_cores", + 8, + "Only used if `use_tpu` is True. Total number of TPU cores to use.", +) + + +class InputExample(object): + """A single training/test example for simple sequence classification.""" + + def __init__(self, guid, text_a, text_b=None, label=None): + """Constructs a InputExample. + + Args: + guid: Unique id for the example. + text_a: string. The untokenized text of the first sequence. For single + sequence tasks, only this sequence must be specified. + text_b: (Optional) string. The untokenized text of the second sequence. + Only must be specified for sequence pair tasks. + label: (Optional) string. The label of the example. This should be + specified for train and dev examples, but not for test examples. + """ + self.guid = guid + self.text_a = text_a + self.text_b = text_b + self.label = label + + +class PaddingInputExample(object): + """Fake example so the num input examples is a multiple of the batch size. + + When running eval/predict on the TPU, we need to pad the number of examples + to be a multiple of the batch size, because the TPU requires a fixed batch + size. The alternative is to drop the last batch, which is bad because it means + the entire output data won't be generated. + + We use this class instead of `None` because treating `None` as padding + battches could cause silent errors. + """ + + +class InputFeatures(object): + """A single set of features of data.""" + + def __init__( + self, input_ids, input_mask, segment_ids, label_id, is_real_example=True + ): + self.input_ids = input_ids + self.input_mask = input_mask + self.segment_ids = segment_ids + self.label_id = label_id + self.is_real_example = is_real_example + + +class DataProcessor(object): + """Base class for data converters for sequence classification data sets.""" + + def get_train_examples(self, data_dir): + """Gets a collection of `InputExample`s for the train set.""" + raise NotImplementedError() + + def get_dev_examples(self, data_dir): + """Gets a collection of `InputExample`s for the dev set.""" + raise NotImplementedError() + + def get_test_examples(self, data_dir): + """Gets a collection of `InputExample`s for prediction.""" + raise NotImplementedError() + + def get_labels(self): + """Gets the list of labels for this data set.""" + raise NotImplementedError() + + @classmethod + def _read_tsv(cls, input_file, quotechar=None): + """Reads a tab separated value file.""" + with tf.gfile.Open(input_file, "r") as f: + reader = csv.reader(f, delimiter="\t", quotechar=quotechar) + lines = [] + for line in reader: + lines.append(line) + return lines + + +class XnliProcessor(DataProcessor): + """Processor for the XNLI data set.""" + + def __init__(self): + self.language = "ar" + + def get_train_examples(self, data_dir): + """See base class.""" + lines = self._read_tsv( + os.path.join(data_dir, "multinli", "multinli.train.%s.tsv" % self.language) + ) + examples = [] + for (i, line) in enumerate(lines): + if i == 0: + continue + guid = "train-%d" % (i) + text_a = tokenization.convert_to_unicode(line[0]) + text_b = tokenization.convert_to_unicode(line[1]) + label = tokenization.convert_to_unicode(line[2]) + if label == tokenization.convert_to_unicode("contradictory"): + label = tokenization.convert_to_unicode("contradiction") + examples.append( + InputExample(guid=guid, text_a=text_a, text_b=text_b, label=label) + ) + return examples + + def get_dev_examples(self, data_dir): + """See base class.""" + lines = self._read_tsv(os.path.join(data_dir, "xnli.dev.tsv")) + examples = [] + for (i, line) in enumerate(lines): + if i == 0: + continue + guid = "dev-%d" % (i) + language = tokenization.convert_to_unicode(line[0]) + if language != tokenization.convert_to_unicode(self.language): + continue + text_a = tokenization.convert_to_unicode(line[6]) + text_b = tokenization.convert_to_unicode(line[7]) + label = tokenization.convert_to_unicode(line[1]) + examples.append( + InputExample(guid=guid, text_a=text_a, text_b=text_b, label=label) + ) + return examples + + def get_labels(self): + """See base class.""" + return ["contradiction", "entailment", "neutral"] + + +class MnliProcessor(DataProcessor): + """Processor for the MultiNLI data set (GLUE version).""" + + def get_train_examples(self, data_dir): + """See base class.""" + return self._create_examples( + self._read_tsv(os.path.join(data_dir, "train.tsv")), "train" + ) + + def get_dev_examples(self, data_dir): + """See base class.""" + return self._create_examples( + self._read_tsv(os.path.join(data_dir, "dev_matched.tsv")), "dev_matched" + ) + + def get_test_examples(self, data_dir): + """See base class.""" + return self._create_examples( + self._read_tsv(os.path.join(data_dir, "test_matched.tsv")), "test" + ) + + def get_labels(self): + """See base class.""" + return ["contradiction", "entailment", "neutral"] + + def _create_examples(self, lines, set_type): + """Creates examples for the training and dev sets.""" + examples = [] + for (i, line) in enumerate(lines): + if i == 0: + continue + guid = "%s-%s" % (set_type, tokenization.convert_to_unicode(line[0])) + text_a = tokenization.convert_to_unicode(line[8]) + text_b = tokenization.convert_to_unicode(line[9]) + if set_type == "test": + label = "contradiction" + else: + label = tokenization.convert_to_unicode(line[-1]) + examples.append( + InputExample(guid=guid, text_a=text_a, text_b=text_b, label=label) + ) + return examples + + +class MrpcProcessor(DataProcessor): + """Processor for the MRPC data set (GLUE version).""" + + def get_train_examples(self, data_dir): + """See base class.""" + return self._create_examples( + self._read_tsv(os.path.join(data_dir, "train.tsv")), "train" + ) + + def get_dev_examples(self, data_dir): + """See base class.""" + return self._create_examples( + self._read_tsv(os.path.join(data_dir, "dev.tsv")), "dev" + ) + + def get_test_examples(self, data_dir): + """See base class.""" + return self._create_examples( + self._read_tsv(os.path.join(data_dir, "test.tsv")), "test" + ) + + def get_labels(self): + """See base class.""" + return ["0", "1"] + + def _create_examples(self, lines, set_type): + """Creates examples for the training and dev sets.""" + examples = [] + for (i, line) in enumerate(lines): + if i == 0: + continue + guid = "%s-%s" % (set_type, i) + text_a = tokenization.convert_to_unicode(line[3]) + text_b = tokenization.convert_to_unicode(line[4]) + if set_type == "test": + label = "0" + else: + label = tokenization.convert_to_unicode(line[0]) + examples.append( + InputExample(guid=guid, text_a=text_a, text_b=text_b, label=label) + ) + return examples + + +class ColaProcessor(DataProcessor): + """Processor for the CoLA data set (GLUE version).""" + + def get_train_examples(self, data_dir): + """See base class.""" + return self._create_examples( + self._read_tsv(os.path.join(data_dir, "train.tsv")), "train" + ) + + def get_dev_examples(self, data_dir): + """See base class.""" + return self._create_examples( + self._read_tsv(os.path.join(data_dir, "dev.tsv")), "dev" + ) + + def get_test_examples(self, data_dir): + """See base class.""" + return self._create_examples( + self._read_tsv(os.path.join(data_dir, "test.tsv")), "test" + ) + + def get_labels(self): + """See base class.""" + return ["0", "1"] + + def _create_examples(self, lines, set_type): + """Creates examples for the training and dev sets.""" + examples = [] + for (i, line) in enumerate(lines): + # Only the test set has a header + if set_type == "test" and i == 0: + continue + guid = "%s-%s" % (set_type, i) + if set_type == "test": + text_a = tokenization.convert_to_unicode(line[1]) + label = "0" + else: + text_a = tokenization.convert_to_unicode(line[3]) + label = tokenization.convert_to_unicode(line[1]) + examples.append( + InputExample(guid=guid, text_a=text_a, text_b=None, label=label) + ) + return examples + + +def convert_single_example(ex_index, example, label_list, max_seq_length, tokenizer): + """Converts a single `InputExample` into a single `InputFeatures`.""" + + if isinstance(example, PaddingInputExample): + return InputFeatures( + input_ids=[0] * max_seq_length, + input_mask=[0] * max_seq_length, + segment_ids=[0] * max_seq_length, + label_id=0, + is_real_example=False, + ) + + label_map = {} + for (i, label) in enumerate(label_list): + label_map[label] = i + + tokens_a = tokenizer.tokenize(example.text_a) + tokens_b = None + if example.text_b: + tokens_b = tokenizer.tokenize(example.text_b) + + if tokens_b: + # Modifies `tokens_a` and `tokens_b` in place so that the total + # length is less than the specified length. + # Account for [CLS], [SEP], [SEP] with "- 3" + _truncate_seq_pair(tokens_a, tokens_b, max_seq_length - 3) + else: + # Account for [CLS] and [SEP] with "- 2" + if len(tokens_a) > max_seq_length - 2: + tokens_a = tokens_a[0 : (max_seq_length - 2)] + + # The convention in BERT is: + # (a) For sequence pairs: + # tokens: [CLS] is this jack ##son ##ville ? [SEP] no it is not . [SEP] + # type_ids: 0 0 0 0 0 0 0 0 1 1 1 1 1 1 + # (b) For single sequences: + # tokens: [CLS] the dog is hairy . [SEP] + # type_ids: 0 0 0 0 0 0 0 + # + # Where "type_ids" are used to indicate whether this is the first + # sequence or the second sequence. The embedding vectors for `type=0` and + # `type=1` were learned during pre-training and are added to the wordpiece + # embedding vector (and position vector). This is not *strictly* necessary + # since the [SEP] token unambiguously separates the sequences, but it makes + # it easier for the model to learn the concept of sequences. + # + # For classification tasks, the first vector (corresponding to [CLS]) is + # used as the "sentence vector". Note that this only makes sense because + # the entire model is fine-tuned. + tokens = [] + segment_ids = [] + tokens.append("[CLS]") + segment_ids.append(0) + for token in tokens_a: + tokens.append(token) + segment_ids.append(0) + tokens.append("[SEP]") + segment_ids.append(0) + + if tokens_b: + for token in tokens_b: + tokens.append(token) + segment_ids.append(1) + tokens.append("[SEP]") + segment_ids.append(1) + + input_ids = tokenizer.convert_tokens_to_ids(tokens) + + # The mask has 1 for real tokens and 0 for padding tokens. Only real + # tokens are attended to. + input_mask = [1] * len(input_ids) + + # Zero-pad up to the sequence length. + while len(input_ids) < max_seq_length: + input_ids.append(0) + input_mask.append(0) + segment_ids.append(0) + + assert len(input_ids) == max_seq_length + assert len(input_mask) == max_seq_length + assert len(segment_ids) == max_seq_length + + label_id = label_map[example.label] + if ex_index < 5: + tf.logging.info("*** Example ***") + tf.logging.info("guid: %s" % (example.guid)) + tf.logging.info( + "tokens: %s" % " ".join([tokenization.printable_text(x) for x in tokens]) + ) + tf.logging.info("input_ids: %s" % " ".join([str(x) for x in input_ids])) + tf.logging.info("input_mask: %s" % " ".join([str(x) for x in input_mask])) + tf.logging.info("segment_ids: %s" % " ".join([str(x) for x in segment_ids])) + tf.logging.info("label: %s (id = %d)" % (example.label, label_id)) + + feature = InputFeatures( + input_ids=input_ids, + input_mask=input_mask, + segment_ids=segment_ids, + label_id=label_id, + is_real_example=True, + ) + return feature + + +def file_based_convert_examples_to_features( + examples, label_list, max_seq_length, tokenizer, output_file +): + """Convert a set of `InputExample`s to a TFRecord file.""" + + writer = tf.python_io.TFRecordWriter(output_file) + + for (ex_index, example) in enumerate(examples): + if ex_index % 10000 == 0: + tf.logging.info("Writing example %d of %d" % (ex_index, len(examples))) + + feature = convert_single_example( + ex_index, example, label_list, max_seq_length, tokenizer + ) + + def create_int_feature(values): + f = tf.train.Feature(int64_list=tf.train.Int64List(value=list(values))) + return f + + features = collections.OrderedDict() + features["input_ids"] = create_int_feature(feature.input_ids) + features["input_mask"] = create_int_feature(feature.input_mask) + features["segment_ids"] = create_int_feature(feature.segment_ids) + features["label_ids"] = create_int_feature([feature.label_id]) + features["is_real_example"] = create_int_feature([int(feature.is_real_example)]) + + tf_example = tf.train.Example(features=tf.train.Features(feature=features)) + writer.write(tf_example.SerializeToString()) + writer.close() + + +def file_based_input_fn_builder(input_file, seq_length, is_training, drop_remainder): + """Creates an `input_fn` closure to be passed to TPUEstimator.""" + + name_to_features = { + "input_ids": tf.FixedLenFeature([seq_length], tf.int64), + "input_mask": tf.FixedLenFeature([seq_length], tf.int64), + "segment_ids": tf.FixedLenFeature([seq_length], tf.int64), + "label_ids": tf.FixedLenFeature([], tf.int64), + "is_real_example": tf.FixedLenFeature([], tf.int64), + } + + def _decode_record(record, name_to_features): + """Decodes a record to a TensorFlow example.""" + example = tf.parse_single_example(record, name_to_features) + + # tf.Example only supports tf.int64, but the TPU only supports tf.int32. + # So cast all int64 to int32. + for name in list(example.keys()): + t = example[name] + if t.dtype == tf.int64: + t = tf.to_int32(t) + example[name] = t + + return example + + def input_fn(params): + """The actual input function.""" + batch_size = params["batch_size"] + + # For training, we want a lot of parallel reading and shuffling. + # For eval, we want no shuffling and parallel reading doesn't matter. + d = tf.data.TFRecordDataset(input_file) + if is_training: + d = d.repeat() + d = d.shuffle(buffer_size=100) + + d = d.apply( + tf.contrib.data.map_and_batch( + lambda record: _decode_record(record, name_to_features), + batch_size=batch_size, + drop_remainder=drop_remainder, + ) + ) + + return d + + return input_fn + + +def _truncate_seq_pair(tokens_a, tokens_b, max_length): + """Truncates a sequence pair in place to the maximum length.""" + + # This is a simple heuristic which will always truncate the longer sequence + # one token at a time. This makes more sense than truncating an equal percent + # of tokens from each, since if one sequence is very short then each token + # that's truncated likely contains more information than a longer sequence. + while True: + total_length = len(tokens_a) + len(tokens_b) + if total_length <= max_length: + break + if len(tokens_a) > len(tokens_b): + tokens_a.pop() + else: + tokens_b.pop() + + +def create_model( + bert_config, + is_training, + input_ids, + input_mask, + segment_ids, + labels, + num_labels, + use_one_hot_embeddings, +): + """Creates a classification model.""" + model = modeling.BertModel( + config=bert_config, + is_training=is_training, + input_ids=input_ids, + input_mask=input_mask, + token_type_ids=segment_ids, + use_one_hot_embeddings=use_one_hot_embeddings, + ) + + # In the demo, we are doing a simple classification task on the entire + # segment. + # + # If you want to use the token-level output, use model.get_sequence_output() + # instead. + output_layer = model.get_pooled_output() + + hidden_size = output_layer.shape[-1].value + + output_weights = tf.get_variable( + "output_weights", + [num_labels, hidden_size], + initializer=tf.truncated_normal_initializer(stddev=0.02), + ) + + output_bias = tf.get_variable( + "output_bias", [num_labels], initializer=tf.zeros_initializer() + ) + + with tf.variable_scope("loss"): + if is_training: + # I.e., 0.1 dropout + output_layer = tf.nn.dropout(output_layer, keep_prob=0.9) + + logits = tf.matmul(output_layer, output_weights, transpose_b=True) + logits = tf.nn.bias_add(logits, output_bias) + probabilities = tf.nn.softmax(logits, axis=-1) + log_probs = tf.nn.log_softmax(logits, axis=-1) + + one_hot_labels = tf.one_hot(labels, depth=num_labels, dtype=tf.float32) + + per_example_loss = -tf.reduce_sum(one_hot_labels * log_probs, axis=-1) + loss = tf.reduce_mean(per_example_loss) + + return (loss, per_example_loss, logits, probabilities) + + +def model_fn_builder( + bert_config, + num_labels, + init_checkpoint, + learning_rate, + num_train_steps, + num_warmup_steps, + use_tpu, + use_one_hot_embeddings, +): + """Returns `model_fn` closure for TPUEstimator.""" + + def model_fn(features, labels, mode, params): # pylint: disable=unused-argument + """The `model_fn` for TPUEstimator.""" + + tf.logging.info("*** Features ***") + for name in sorted(features.keys()): + tf.logging.info(" name = %s, shape = %s" % (name, features[name].shape)) + + input_ids = features["input_ids"] + input_mask = features["input_mask"] + segment_ids = features["segment_ids"] + label_ids = features["label_ids"] + is_real_example = None + if "is_real_example" in features: + is_real_example = tf.cast(features["is_real_example"], dtype=tf.float32) + else: + is_real_example = tf.ones(tf.shape(label_ids), dtype=tf.float32) + + is_training = mode == tf.estimator.ModeKeys.TRAIN + + (total_loss, per_example_loss, logits, probabilities) = create_model( + bert_config, + is_training, + input_ids, + input_mask, + segment_ids, + label_ids, + num_labels, + use_one_hot_embeddings, + ) + + tvars = tf.trainable_variables() + initialized_variable_names = {} + scaffold_fn = None + if init_checkpoint: + ( + assignment_map, + initialized_variable_names, + ) = modeling.get_assignment_map_from_checkpoint(tvars, init_checkpoint) + if use_tpu: + + def tpu_scaffold(): + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + return tf.train.Scaffold() + + scaffold_fn = tpu_scaffold + else: + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + + tf.logging.info("**** Trainable Variables ****") + for var in tvars: + init_string = "" + if var.name in initialized_variable_names: + init_string = ", *INIT_FROM_CKPT*" + tf.logging.info( + " name = %s, shape = %s%s", var.name, var.shape, init_string + ) + + output_spec = None + if mode == tf.estimator.ModeKeys.TRAIN: + + train_op = optimization.create_optimizer( + total_loss, learning_rate, num_train_steps, num_warmup_steps, use_tpu + ) + + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, loss=total_loss, train_op=train_op, scaffold_fn=scaffold_fn + ) + elif mode == tf.estimator.ModeKeys.EVAL: + + def metric_fn(per_example_loss, label_ids, logits, is_real_example): + predictions = tf.argmax(logits, axis=-1, output_type=tf.int32) + accuracy = tf.metrics.accuracy( + labels=label_ids, predictions=predictions, weights=is_real_example + ) + loss = tf.metrics.mean(values=per_example_loss, weights=is_real_example) + return { + "eval_accuracy": accuracy, + "eval_loss": loss, + } + + eval_metrics = ( + metric_fn, + [per_example_loss, label_ids, logits, is_real_example], + ) + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, + loss=total_loss, + eval_metrics=eval_metrics, + scaffold_fn=scaffold_fn, + ) + else: + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, + predictions={"probabilities": probabilities}, + scaffold_fn=scaffold_fn, + ) + return output_spec + + return model_fn + + +# This function is not used by this file but is still used by the Colab and +# people who depend on it. +def input_fn_builder(features, seq_length, is_training, drop_remainder): + """Creates an `input_fn` closure to be passed to TPUEstimator.""" + + all_input_ids = [] + all_input_mask = [] + all_segment_ids = [] + all_label_ids = [] + + for feature in features: + all_input_ids.append(feature.input_ids) + all_input_mask.append(feature.input_mask) + all_segment_ids.append(feature.segment_ids) + all_label_ids.append(feature.label_id) + + def input_fn(params): + """The actual input function.""" + batch_size = params["batch_size"] + + num_examples = len(features) + + # This is for demo purposes and does NOT scale to large data sets. We do + # not use Dataset.from_generator() because that uses tf.py_func which is + # not TPU compatible. The right way to load data is with TFRecordReader. + d = tf.data.Dataset.from_tensor_slices( + { + "input_ids": tf.constant( + all_input_ids, shape=[num_examples, seq_length], dtype=tf.int32 + ), + "input_mask": tf.constant( + all_input_mask, shape=[num_examples, seq_length], dtype=tf.int32 + ), + "segment_ids": tf.constant( + all_segment_ids, shape=[num_examples, seq_length], dtype=tf.int32 + ), + "label_ids": tf.constant( + all_label_ids, shape=[num_examples], dtype=tf.int32 + ), + } + ) + + if is_training: + d = d.repeat() + d = d.shuffle(buffer_size=100) + + d = d.batch(batch_size=batch_size, drop_remainder=drop_remainder) + return d + + return input_fn + + +# This function is not used by this file but is still used by the Colab and +# people who depend on it. +def convert_examples_to_features(examples, label_list, max_seq_length, tokenizer): + """Convert a set of `InputExample`s to a list of `InputFeatures`.""" + + features = [] + for (ex_index, example) in enumerate(examples): + if ex_index % 10000 == 0: + tf.logging.info("Writing example %d of %d" % (ex_index, len(examples))) + + feature = convert_single_example( + ex_index, example, label_list, max_seq_length, tokenizer + ) + + features.append(feature) + return features + + +def main(_): + tf.logging.set_verbosity(tf.logging.INFO) + logger = tf.get_logger() + logger.propagate = False + + processors = { + "cola": ColaProcessor, + "mnli": MnliProcessor, + "mrpc": MrpcProcessor, + "xnli": XnliProcessor, + } + + tokenization.validate_case_matches_checkpoint( + FLAGS.do_lower_case, FLAGS.init_checkpoint + ) + + if not FLAGS.do_train and not FLAGS.do_eval and not FLAGS.do_predict: + raise ValueError( + "At least one of `do_train`, `do_eval` or `do_predict' must be True." + ) + + bert_config = modeling.BertConfig.from_json_file(FLAGS.bert_config_file) + + if FLAGS.max_seq_length > bert_config.max_position_embeddings: + raise ValueError( + "Cannot use sequence length %d because the BERT model " + "was only trained up to sequence length %d" + % (FLAGS.max_seq_length, bert_config.max_position_embeddings) + ) + + tf.gfile.MakeDirs(FLAGS.output_dir) + + task_name = FLAGS.task_name.lower() + + if task_name not in processors: + raise ValueError("Task not found: %s" % (task_name)) + + processor = processors[task_name]() + + label_list = processor.get_labels() + + tokenizer = tokenization.FullTokenizer( + vocab_file=FLAGS.vocab_file, do_lower_case=FLAGS.do_lower_case + ) + + tpu_cluster_resolver = None + if FLAGS.use_tpu and FLAGS.tpu_name: + tpu_cluster_resolver = tf.contrib.cluster_resolver.TPUClusterResolver( + FLAGS.tpu_name, zone=FLAGS.tpu_zone, project=FLAGS.gcp_project + ) + + is_per_host = tf.contrib.tpu.InputPipelineConfig.PER_HOST_V2 + run_config = tf.contrib.tpu.RunConfig( + cluster=tpu_cluster_resolver, + master=FLAGS.master, + model_dir=FLAGS.output_dir, + save_checkpoints_steps=FLAGS.save_checkpoints_steps, + tpu_config=tf.contrib.tpu.TPUConfig( + iterations_per_loop=FLAGS.iterations_per_loop, + num_shards=FLAGS.num_tpu_cores, + per_host_input_for_training=is_per_host, + ), + ) + + train_examples = None + num_train_steps = None + num_warmup_steps = None + if FLAGS.do_train: + train_examples = processor.get_train_examples(FLAGS.data_dir) + num_train_steps = int( + len(train_examples) / FLAGS.train_batch_size * FLAGS.num_train_epochs + ) + num_warmup_steps = int(num_train_steps * FLAGS.warmup_proportion) + + model_fn = model_fn_builder( + bert_config=bert_config, + num_labels=len(label_list), + init_checkpoint=FLAGS.init_checkpoint, + learning_rate=FLAGS.learning_rate, + num_train_steps=num_train_steps, + num_warmup_steps=num_warmup_steps, + use_tpu=FLAGS.use_tpu, + use_one_hot_embeddings=FLAGS.use_tpu, + ) + + # If TPU is not available, this will fall back to normal Estimator on CPU + # or GPU. + estimator = tf.contrib.tpu.TPUEstimator( + use_tpu=FLAGS.use_tpu, + model_fn=model_fn, + config=run_config, + train_batch_size=FLAGS.train_batch_size, + eval_batch_size=FLAGS.eval_batch_size, + predict_batch_size=FLAGS.predict_batch_size, + ) + + if FLAGS.do_train: + train_file = os.path.join(FLAGS.output_dir, "train.tf_record") + file_based_convert_examples_to_features( + train_examples, label_list, FLAGS.max_seq_length, tokenizer, train_file + ) + tf.logging.info("***** Running training *****") + tf.logging.info(" Num examples = %d", len(train_examples)) + tf.logging.info(" Batch size = %d", FLAGS.train_batch_size) + tf.logging.info(" Num steps = %d", num_train_steps) + train_input_fn = file_based_input_fn_builder( + input_file=train_file, + seq_length=FLAGS.max_seq_length, + is_training=True, + drop_remainder=True, + ) + estimator.train(input_fn=train_input_fn, max_steps=num_train_steps) + + if FLAGS.do_eval: + eval_examples = processor.get_dev_examples(FLAGS.data_dir) + num_actual_eval_examples = len(eval_examples) + if FLAGS.use_tpu: + # TPU requires a fixed batch size for all batches, therefore the number + # of examples must be a multiple of the batch size, or else examples + # will get dropped. So we pad with fake examples which are ignored + # later on. These do NOT count towards the metric (all tf.metrics + # support a per-instance weight, and these get a weight of 0.0). + while len(eval_examples) % FLAGS.eval_batch_size != 0: + eval_examples.append(PaddingInputExample()) + + eval_file = os.path.join(FLAGS.output_dir, "eval.tf_record") + file_based_convert_examples_to_features( + eval_examples, label_list, FLAGS.max_seq_length, tokenizer, eval_file + ) + + tf.logging.info("***** Running evaluation *****") + tf.logging.info( + " Num examples = %d (%d actual, %d padding)", + len(eval_examples), + num_actual_eval_examples, + len(eval_examples) - num_actual_eval_examples, + ) + tf.logging.info(" Batch size = %d", FLAGS.eval_batch_size) + + # This tells the estimator to run through the entire set. + eval_steps = None + # However, if running eval on the TPU, you will need to specify the + # number of steps. + if FLAGS.use_tpu: + assert len(eval_examples) % FLAGS.eval_batch_size == 0 + eval_steps = int(len(eval_examples) // FLAGS.eval_batch_size) + + eval_drop_remainder = True if FLAGS.use_tpu else False + eval_input_fn = file_based_input_fn_builder( + input_file=eval_file, + seq_length=FLAGS.max_seq_length, + is_training=False, + drop_remainder=eval_drop_remainder, + ) + + result = estimator.evaluate(input_fn=eval_input_fn, steps=eval_steps) + + output_eval_file = os.path.join(FLAGS.output_dir, "eval_results.txt") + with tf.gfile.GFile(output_eval_file, "w") as writer: + tf.logging.info("***** Eval results *****") + for key in sorted(result.keys()): + tf.logging.info(" %s = %s", key, str(result[key])) + writer.write("%s = %s\n" % (key, str(result[key]))) + + if FLAGS.do_predict: + predict_examples = processor.get_test_examples(FLAGS.data_dir) + num_actual_predict_examples = len(predict_examples) + if FLAGS.use_tpu: + # TPU requires a fixed batch size for all batches, therefore the number + # of examples must be a multiple of the batch size, or else examples + # will get dropped. So we pad with fake examples which are ignored + # later on. + while len(predict_examples) % FLAGS.predict_batch_size != 0: + predict_examples.append(PaddingInputExample()) + + predict_file = os.path.join(FLAGS.output_dir, "predict.tf_record") + file_based_convert_examples_to_features( + predict_examples, label_list, FLAGS.max_seq_length, tokenizer, predict_file + ) + + tf.logging.info("***** Running prediction*****") + tf.logging.info( + " Num examples = %d (%d actual, %d padding)", + len(predict_examples), + num_actual_predict_examples, + len(predict_examples) - num_actual_predict_examples, + ) + tf.logging.info(" Batch size = %d", FLAGS.predict_batch_size) + + predict_drop_remainder = True if FLAGS.use_tpu else False + predict_input_fn = file_based_input_fn_builder( + input_file=predict_file, + seq_length=FLAGS.max_seq_length, + is_training=False, + drop_remainder=predict_drop_remainder, + ) + + result = estimator.predict(input_fn=predict_input_fn) + + output_predict_file = os.path.join(FLAGS.output_dir, "test_results.tsv") + with tf.gfile.GFile(output_predict_file, "w") as writer: + num_written_lines = 0 + tf.logging.info("***** Predict results *****") + for (i, prediction) in enumerate(result): + probabilities = prediction["probabilities"] + if i >= num_actual_predict_examples: + break + output_line = ( + "\t".join( + str(class_probability) for class_probability in probabilities + ) + + "\n" + ) + writer.write(output_line) + num_written_lines += 1 + assert num_written_lines == num_actual_predict_examples + + +if __name__ == "__main__": + flags.mark_flag_as_required("data_dir") + flags.mark_flag_as_required("task_name") + flags.mark_flag_as_required("vocab_file") + flags.mark_flag_as_required("bert_config_file") + flags.mark_flag_as_required("output_dir") + tf.app.run() diff --git a/arabert/arabert/run_pretraining.py b/arabert/arabert/run_pretraining.py new file mode 100644 index 0000000000000000000000000000000000000000..b5fa757fc9f0259bf79419596ed4a1091b88b483 --- /dev/null +++ b/arabert/arabert/run_pretraining.py @@ -0,0 +1,593 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Run masked LM/next sentence masked_lm pre-training for BERT.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import os +import modeling +import optimization +import tensorflow as tf + +flags = tf.flags + +FLAGS = flags.FLAGS + +## Required parameters +flags.DEFINE_string( + "bert_config_file", + None, + "The config json file corresponding to the pre-trained BERT model. " + "This specifies the model architecture.", +) + +flags.DEFINE_string( + "input_file", None, "Input TF example files (can be a glob or comma separated)." +) + +flags.DEFINE_string( + "output_dir", + None, + "The output directory where the model checkpoints will be written.", +) + +## Other parameters +flags.DEFINE_string( + "init_checkpoint", + None, + "Initial checkpoint (usually from a pre-trained BERT model).", +) + +flags.DEFINE_integer( + "max_seq_length", + 128, + "The maximum total input sequence length after WordPiece tokenization. " + "Sequences longer than this will be truncated, and sequences shorter " + "than this will be padded. Must match data generation.", +) + +flags.DEFINE_integer( + "max_predictions_per_seq", + 20, + "Maximum number of masked LM predictions per sequence. " + "Must match data generation.", +) + +flags.DEFINE_bool("do_train", False, "Whether to run training.") + +flags.DEFINE_bool("do_eval", False, "Whether to run eval on the dev set.") + +flags.DEFINE_integer("train_batch_size", 32, "Total batch size for training.") + +flags.DEFINE_integer("eval_batch_size", 8, "Total batch size for eval.") + +flags.DEFINE_float("poly_power", 1.0, "The power of poly decay.") + +flags.DEFINE_enum("optimizer", "lamb", ["adamw", "lamb"], + "The optimizer for training.") + +flags.DEFINE_float("learning_rate", 5e-5, "The initial learning rate for Adam.") + +flags.DEFINE_integer("num_train_steps", 100000, "Number of training steps.") + +flags.DEFINE_integer("num_warmup_steps", 10000, "Number of warmup steps.") + +flags.DEFINE_integer("start_warmup_step", 0, "The starting step of warmup.") + +flags.DEFINE_integer( + "save_checkpoints_steps", 1000, "How often to save the model checkpoint." +) + +flags.DEFINE_integer( + "iterations_per_loop", 1000, "How many steps to make in each estimator call." +) + +flags.DEFINE_integer("max_eval_steps", 100, "Maximum number of eval steps.") + +flags.DEFINE_bool("use_tpu", False, "Whether to use TPU or GPU/CPU.") + +tf.flags.DEFINE_string( + "tpu_name", + None, + "The Cloud TPU to use for training. This should be either the name " + "used when creating the Cloud TPU, or a grpc://ip.address.of.tpu:8470 " + "url.", +) + +tf.flags.DEFINE_string( + "tpu_zone", + None, + "[Optional] GCE zone where the Cloud TPU is located in. If not " + "specified, we will attempt to automatically detect the GCE project from " + "metadata.", +) + +tf.flags.DEFINE_string( + "gcp_project", + None, + "[Optional] Project name for the Cloud TPU-enabled project. If not " + "specified, we will attempt to automatically detect the GCE project from " + "metadata.", +) + +tf.flags.DEFINE_string("master", None, "[Optional] TensorFlow master URL.") + +flags.DEFINE_integer( + "num_tpu_cores", + 8, + "Only used if `use_tpu` is True. Total number of TPU cores to use.", +) + +flags.DEFINE_integer("keep_checkpoint_max", 10, + "How many checkpoints to keep.") + + +def model_fn_builder( + bert_config, + init_checkpoint, + learning_rate, + num_train_steps, + num_warmup_steps, + use_tpu, + use_one_hot_embeddings, + optimizer, + poly_power, + start_warmup_step, +): + """Returns `model_fn` closure for TPUEstimator.""" + + def model_fn(features, labels, mode, params): # pylint: disable=unused-argument + """The `model_fn` for TPUEstimator.""" + + tf.logging.info("*** Features ***") + for name in sorted(features.keys()): + tf.logging.info(" name = %s, shape = %s" % (name, features[name].shape)) + + input_ids = features["input_ids"] + input_mask = features["input_mask"] + segment_ids = features["segment_ids"] + masked_lm_positions = features["masked_lm_positions"] + masked_lm_ids = features["masked_lm_ids"] + masked_lm_weights = features["masked_lm_weights"] + next_sentence_labels = features["next_sentence_labels"] + + is_training = mode == tf.estimator.ModeKeys.TRAIN + + model = modeling.BertModel( + config=bert_config, + is_training=is_training, + input_ids=input_ids, + input_mask=input_mask, + token_type_ids=segment_ids, + use_one_hot_embeddings=use_one_hot_embeddings, + ) + + ( + masked_lm_loss, + masked_lm_example_loss, + masked_lm_log_probs, + ) = get_masked_lm_output( + bert_config, + model.get_sequence_output(), + model.get_embedding_table(), + masked_lm_positions, + masked_lm_ids, + masked_lm_weights, + ) + + ( + next_sentence_loss, + next_sentence_example_loss, + next_sentence_log_probs, + ) = get_next_sentence_output( + bert_config, model.get_pooled_output(), next_sentence_labels + ) + + total_loss = masked_lm_loss + next_sentence_loss + + tvars = tf.trainable_variables() + + initialized_variable_names = {} + scaffold_fn = None + if init_checkpoint: + ( + assignment_map, + initialized_variable_names, + ) = modeling.get_assignment_map_from_checkpoint(tvars, init_checkpoint) + if use_tpu: + + def tpu_scaffold(): + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + return tf.train.Scaffold() + + scaffold_fn = tpu_scaffold + else: + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + + tf.logging.info("**** Trainable Variables ****") + for var in tvars: + init_string = "" + if var.name in initialized_variable_names: + init_string = ", *INIT_FROM_CKPT*" + tf.logging.info( + " name = %s, shape = %s%s", var.name, var.shape, init_string + ) + + output_spec = None + if mode == tf.estimator.ModeKeys.TRAIN: + train_op = optimization.create_optimizer( + total_loss, + learning_rate, + num_train_steps, + num_warmup_steps, + use_tpu, + optimizer, + poly_power, + start_warmup_step, + ) + + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, loss=total_loss, train_op=train_op, scaffold_fn=scaffold_fn + ) + elif mode == tf.estimator.ModeKeys.EVAL: + + def metric_fn( + masked_lm_example_loss, + masked_lm_log_probs, + masked_lm_ids, + masked_lm_weights, + next_sentence_example_loss, + next_sentence_log_probs, + next_sentence_labels, + ): + """Computes the loss and accuracy of the model.""" + masked_lm_log_probs = tf.reshape( + masked_lm_log_probs, [-1, masked_lm_log_probs.shape[-1]] + ) + masked_lm_predictions = tf.argmax( + masked_lm_log_probs, axis=-1, output_type=tf.int32 + ) + masked_lm_example_loss = tf.reshape(masked_lm_example_loss, [-1]) + masked_lm_ids = tf.reshape(masked_lm_ids, [-1]) + masked_lm_weights = tf.reshape(masked_lm_weights, [-1]) + masked_lm_accuracy = tf.metrics.accuracy( + labels=masked_lm_ids, + predictions=masked_lm_predictions, + weights=masked_lm_weights, + ) + masked_lm_mean_loss = tf.metrics.mean( + values=masked_lm_example_loss, weights=masked_lm_weights + ) + + next_sentence_log_probs = tf.reshape( + next_sentence_log_probs, [-1, next_sentence_log_probs.shape[-1]] + ) + next_sentence_predictions = tf.argmax( + next_sentence_log_probs, axis=-1, output_type=tf.int32 + ) + next_sentence_labels = tf.reshape(next_sentence_labels, [-1]) + next_sentence_accuracy = tf.metrics.accuracy( + labels=next_sentence_labels, predictions=next_sentence_predictions + ) + next_sentence_mean_loss = tf.metrics.mean( + values=next_sentence_example_loss + ) + + return { + "masked_lm_accuracy": masked_lm_accuracy, + "masked_lm_loss": masked_lm_mean_loss, + "next_sentence_accuracy": next_sentence_accuracy, + "next_sentence_loss": next_sentence_mean_loss, + } + + eval_metrics = ( + metric_fn, + [ + masked_lm_example_loss, + masked_lm_log_probs, + masked_lm_ids, + masked_lm_weights, + next_sentence_example_loss, + next_sentence_log_probs, + next_sentence_labels, + ], + ) + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, + loss=total_loss, + eval_metrics=eval_metrics, + scaffold_fn=scaffold_fn, + ) + else: + raise ValueError("Only TRAIN and EVAL modes are supported: %s" % (mode)) + + return output_spec + + return model_fn + + +def get_masked_lm_output( + bert_config, input_tensor, output_weights, positions, label_ids, label_weights +): + """Get loss and log probs for the masked LM.""" + input_tensor = gather_indexes(input_tensor, positions) + + with tf.variable_scope("cls/predictions"): + # We apply one more non-linear transformation before the output layer. + # This matrix is not used after pre-training. + with tf.variable_scope("transform"): + input_tensor = tf.layers.dense( + input_tensor, + units=bert_config.hidden_size, + activation=modeling.get_activation(bert_config.hidden_act), + kernel_initializer=modeling.create_initializer( + bert_config.initializer_range + ), + ) + input_tensor = modeling.layer_norm(input_tensor) + + # The output weights are the same as the input embeddings, but there is + # an output-only bias for each token. + output_bias = tf.get_variable( + "output_bias", + shape=[bert_config.vocab_size], + initializer=tf.zeros_initializer(), + ) + logits = tf.matmul(input_tensor, output_weights, transpose_b=True) + logits = tf.nn.bias_add(logits, output_bias) + log_probs = tf.nn.log_softmax(logits, axis=-1) + + label_ids = tf.reshape(label_ids, [-1]) + label_weights = tf.reshape(label_weights, [-1]) + + one_hot_labels = tf.one_hot( + label_ids, depth=bert_config.vocab_size, dtype=tf.float32 + ) + + # The `positions` tensor might be zero-padded (if the sequence is too + # short to have the maximum number of predictions). The `label_weights` + # tensor has a value of 1.0 for every real prediction and 0.0 for the + # padding predictions. + per_example_loss = -tf.reduce_sum(log_probs * one_hot_labels, axis=[-1]) + numerator = tf.reduce_sum(label_weights * per_example_loss) + denominator = tf.reduce_sum(label_weights) + 1e-5 + loss = numerator / denominator + + return (loss, per_example_loss, log_probs) + + +def get_next_sentence_output(bert_config, input_tensor, labels): + """Get loss and log probs for the next sentence prediction.""" + + # Simple binary classification. Note that 0 is "next sentence" and 1 is + # "random sentence". This weight matrix is not used after pre-training. + with tf.variable_scope("cls/seq_relationship"): + output_weights = tf.get_variable( + "output_weights", + shape=[2, bert_config.hidden_size], + initializer=modeling.create_initializer(bert_config.initializer_range), + ) + output_bias = tf.get_variable( + "output_bias", shape=[2], initializer=tf.zeros_initializer() + ) + + logits = tf.matmul(input_tensor, output_weights, transpose_b=True) + logits = tf.nn.bias_add(logits, output_bias) + log_probs = tf.nn.log_softmax(logits, axis=-1) + labels = tf.reshape(labels, [-1]) + one_hot_labels = tf.one_hot(labels, depth=2, dtype=tf.float32) + per_example_loss = -tf.reduce_sum(one_hot_labels * log_probs, axis=-1) + loss = tf.reduce_mean(per_example_loss) + return (loss, per_example_loss, log_probs) + + +def gather_indexes(sequence_tensor, positions): + """Gathers the vectors at the specific positions over a minibatch.""" + sequence_shape = modeling.get_shape_list(sequence_tensor, expected_rank=3) + batch_size = sequence_shape[0] + seq_length = sequence_shape[1] + width = sequence_shape[2] + + flat_offsets = tf.reshape( + tf.range(0, batch_size, dtype=tf.int32) * seq_length, [-1, 1] + ) + flat_positions = tf.reshape(positions + flat_offsets, [-1]) + flat_sequence_tensor = tf.reshape(sequence_tensor, [batch_size * seq_length, width]) + output_tensor = tf.gather(flat_sequence_tensor, flat_positions) + return output_tensor + + +def input_fn_builder( + input_files, max_seq_length, max_predictions_per_seq, is_training, num_cpu_threads=4 +): + """Creates an `input_fn` closure to be passed to TPUEstimator.""" + + def input_fn(params): + """The actual input function.""" + batch_size = params["batch_size"] + + name_to_features = { + "input_ids": tf.FixedLenFeature([max_seq_length], tf.int64), + "input_mask": tf.FixedLenFeature([max_seq_length], tf.int64), + "segment_ids": tf.FixedLenFeature([max_seq_length], tf.int64), + "masked_lm_positions": tf.FixedLenFeature( + [max_predictions_per_seq], tf.int64 + ), + "masked_lm_ids": tf.FixedLenFeature([max_predictions_per_seq], tf.int64), + "masked_lm_weights": tf.FixedLenFeature( + [max_predictions_per_seq], tf.float32 + ), + "next_sentence_labels": tf.FixedLenFeature([1], tf.int64), + } + + # For training, we want a lot of parallel reading and shuffling. + # For eval, we want no shuffling and parallel reading doesn't matter. + if is_training: + d = tf.data.Dataset.from_tensor_slices(tf.constant(input_files)) + d = d.repeat() + d = d.shuffle(buffer_size=len(input_files)) + + # `cycle_length` is the number of parallel files that get read. + cycle_length = min(num_cpu_threads, len(input_files)) + + # `sloppy` mode means that the interleaving is not exact. This adds + # even more randomness to the training pipeline. + d = d.apply( + tf.contrib.data.parallel_interleave( + tf.data.TFRecordDataset, + sloppy=is_training, + cycle_length=cycle_length, + ) + ) + d = d.shuffle(buffer_size=100) + else: + d = tf.data.TFRecordDataset(input_files) + # Since we evaluate for a fixed number of steps we don't want to encounter + # out-of-range exceptions. + d = d.repeat() + + # We must `drop_remainder` on training because the TPU requires fixed + # size dimensions. For eval, we assume we are evaluating on the CPU or GPU + # and we *don't* want to drop the remainder, otherwise we wont cover + # every sample. + d = d.apply( + tf.contrib.data.map_and_batch( + lambda record: _decode_record(record, name_to_features), + batch_size=batch_size, + num_parallel_batches=num_cpu_threads, + drop_remainder=True, + ) + ) + return d + + return input_fn + + +def _decode_record(record, name_to_features): + """Decodes a record to a TensorFlow example.""" + example = tf.parse_single_example(record, name_to_features) + + # tf.Example only supports tf.int64, but the TPU only supports tf.int32. + # So cast all int64 to int32. + for name in list(example.keys()): + t = example[name] + if t.dtype == tf.int64: + t = tf.to_int32(t) + example[name] = t + + return example + + +def main(_): + tf.logging.set_verbosity(tf.logging.INFO) + logger = tf.get_logger() + logger.propagate = False + + if not FLAGS.do_train and not FLAGS.do_eval: + raise ValueError("At least one of `do_train` or `do_eval` must be True.") + + bert_config = modeling.BertConfig.from_json_file(FLAGS.bert_config_file) + + tf.gfile.MakeDirs(FLAGS.output_dir) + + input_files = [] + for input_pattern in FLAGS.input_file.split(","): + input_files.extend(tf.gfile.Glob(input_pattern)) + + # tf.logging.info("*** Input Files ***") + # for input_file in input_files: + # tf.logging.info(" %s" % input_file) + + tpu_cluster_resolver = None + if FLAGS.use_tpu and FLAGS.tpu_name: + tpu_cluster_resolver = tf.contrib.cluster_resolver.TPUClusterResolver( + FLAGS.tpu_name, zone=FLAGS.tpu_zone, project=FLAGS.gcp_project + ) + + is_per_host = tf.contrib.tpu.InputPipelineConfig.PER_HOST_V2 + run_config = tf.contrib.tpu.RunConfig( + cluster=tpu_cluster_resolver, + master=FLAGS.master, + model_dir=FLAGS.output_dir, + save_checkpoints_steps=FLAGS.save_checkpoints_steps, + keep_checkpoint_max=FLAGS.keep_checkpoint_max, + tpu_config=tf.contrib.tpu.TPUConfig( + iterations_per_loop=FLAGS.iterations_per_loop, + num_shards=FLAGS.num_tpu_cores, + per_host_input_for_training=is_per_host, + ), + ) + + model_fn = model_fn_builder( + bert_config=bert_config, + init_checkpoint=FLAGS.init_checkpoint, + learning_rate=FLAGS.learning_rate, + num_train_steps=FLAGS.num_train_steps, + num_warmup_steps=FLAGS.num_warmup_steps, + use_tpu=FLAGS.use_tpu, + use_one_hot_embeddings=FLAGS.use_tpu, + optimizer=FLAGS.optimizer, + poly_power=FLAGS.poly_power, + start_warmup_step=FLAGS.start_warmup_step + ) + + # If TPU is not available, this will fall back to normal Estimator on CPU + # or GPU. + estimator = tf.contrib.tpu.TPUEstimator( + use_tpu=FLAGS.use_tpu, + model_fn=model_fn, + config=run_config, + train_batch_size=FLAGS.train_batch_size, + eval_batch_size=FLAGS.eval_batch_size, + ) + + if FLAGS.do_train: + tf.logging.info("***** Running training *****") + tf.logging.info(" Batch size = %d", FLAGS.train_batch_size) + train_input_fn = input_fn_builder( + input_files=input_files, + max_seq_length=FLAGS.max_seq_length, + max_predictions_per_seq=FLAGS.max_predictions_per_seq, + is_training=True, + ) + estimator.train(input_fn=train_input_fn, max_steps=FLAGS.num_train_steps) + + if FLAGS.do_eval: + tf.logging.info("***** Running evaluation *****") + tf.logging.info(" Batch size = %d", FLAGS.eval_batch_size) + + eval_input_fn = input_fn_builder( + input_files=input_files, + max_seq_length=FLAGS.max_seq_length, + max_predictions_per_seq=FLAGS.max_predictions_per_seq, + is_training=False, + ) + + result = estimator.evaluate(input_fn=eval_input_fn, steps=FLAGS.max_eval_steps) + + output_eval_file = os.path.join(FLAGS.output_dir, "eval_results.txt") + with tf.gfile.GFile(output_eval_file, "w") as writer: + tf.logging.info("***** Eval results *****") + for key in sorted(result.keys()): + tf.logging.info(" %s = %s", key, str(result[key])) + writer.write("%s = %s\n" % (key, str(result[key]))) + +if __name__ == "__main__": + flags.mark_flag_as_required("input_file") + flags.mark_flag_as_required("bert_config_file") + flags.mark_flag_as_required("output_dir") + tf.app.run() diff --git a/arabert/arabert/run_squad.py b/arabert/arabert/run_squad.py new file mode 100644 index 0000000000000000000000000000000000000000..0c5608ff7088b8b2559d452e953a55a6a5dc6e61 --- /dev/null +++ b/arabert/arabert/run_squad.py @@ -0,0 +1,1440 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Run BERT on SQuAD 1.1 and SQuAD 2.0.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections +import json +import math +import os +import random +import modeling +import optimization +import tokenization +import six +import tensorflow as tf + +flags = tf.flags + +FLAGS = flags.FLAGS + +## Required parameters +flags.DEFINE_string( + "bert_config_file", + None, + "The config json file corresponding to the pre-trained BERT model. " + "This specifies the model architecture.", +) + +flags.DEFINE_string( + "vocab_file", None, "The vocabulary file that the BERT model was trained on." +) + +flags.DEFINE_string( + "output_dir", + None, + "The output directory where the model checkpoints will be written.", +) + +## Other parameters +flags.DEFINE_string( + "train_file", None, "SQuAD json for training. E.g., train-v1.1.json" +) + +flags.DEFINE_string( + "predict_file", + None, + "SQuAD json for predictions. E.g., dev-v1.1.json or test-v1.1.json", +) + +flags.DEFINE_string( + "init_checkpoint", + None, + "Initial checkpoint (usually from a pre-trained BERT model).", +) + +flags.DEFINE_bool( + "do_lower_case", + True, + "Whether to lower case the input text. Should be True for uncased " + "models and False for cased models.", +) + +flags.DEFINE_integer( + "max_seq_length", + 384, + "The maximum total input sequence length after WordPiece tokenization. " + "Sequences longer than this will be truncated, and sequences shorter " + "than this will be padded.", +) + +flags.DEFINE_integer( + "doc_stride", + 128, + "When splitting up a long document into chunks, how much stride to " + "take between chunks.", +) + +flags.DEFINE_integer( + "max_query_length", + 64, + "The maximum number of tokens for the question. Questions longer than " + "this will be truncated to this length.", +) + +flags.DEFINE_bool("do_train", False, "Whether to run training.") + +flags.DEFINE_bool("do_predict", False, "Whether to run eval on the dev set.") + +flags.DEFINE_integer("train_batch_size", 32, "Total batch size for training.") + +flags.DEFINE_integer("predict_batch_size", 8, "Total batch size for predictions.") + +flags.DEFINE_float("learning_rate", 5e-5, "The initial learning rate for Adam.") + +flags.DEFINE_float( + "num_train_epochs", 3.0, "Total number of training epochs to perform." +) + +flags.DEFINE_float( + "warmup_proportion", + 0.1, + "Proportion of training to perform linear learning rate warmup for. " + "E.g., 0.1 = 10% of training.", +) + +flags.DEFINE_integer( + "save_checkpoints_steps", 1000, "How often to save the model checkpoint." +) + +flags.DEFINE_integer( + "iterations_per_loop", 1000, "How many steps to make in each estimator call." +) + +flags.DEFINE_integer( + "n_best_size", + 20, + "The total number of n-best predictions to generate in the " + "nbest_predictions.json output file.", +) + +flags.DEFINE_integer( + "max_answer_length", + 30, + "The maximum length of an answer that can be generated. This is needed " + "because the start and end predictions are not conditioned on one another.", +) + +flags.DEFINE_bool("use_tpu", False, "Whether to use TPU or GPU/CPU.") + +tf.flags.DEFINE_string( + "tpu_name", + None, + "The Cloud TPU to use for training. This should be either the name " + "used when creating the Cloud TPU, or a grpc://ip.address.of.tpu:8470 " + "url.", +) + +tf.flags.DEFINE_string( + "tpu_zone", + None, + "[Optional] GCE zone where the Cloud TPU is located in. If not " + "specified, we will attempt to automatically detect the GCE project from " + "metadata.", +) + +tf.flags.DEFINE_string( + "gcp_project", + None, + "[Optional] Project name for the Cloud TPU-enabled project. If not " + "specified, we will attempt to automatically detect the GCE project from " + "metadata.", +) + +tf.flags.DEFINE_string("master", None, "[Optional] TensorFlow master URL.") + +flags.DEFINE_integer( + "num_tpu_cores", + 8, + "Only used if `use_tpu` is True. Total number of TPU cores to use.", +) + +flags.DEFINE_bool( + "verbose_logging", + False, + "If true, all of the warnings related to data processing will be printed. " + "A number of warnings are expected for a normal SQuAD evaluation.", +) + +flags.DEFINE_bool( + "version_2_with_negative", + False, + "If true, the SQuAD examples contain some that do not have an answer.", +) + +flags.DEFINE_float( + "null_score_diff_threshold", + 0.0, + "If null_score - best_non_null is greater than the threshold predict null.", +) + + +class SquadExample(object): + """A single training/test example for simple sequence classification. + + For examples without an answer, the start and end position are -1. + """ + + def __init__( + self, + qas_id, + question_text, + doc_tokens, + orig_answer_text=None, + start_position=None, + end_position=None, + is_impossible=False, + ): + self.qas_id = qas_id + self.question_text = question_text + self.doc_tokens = doc_tokens + self.orig_answer_text = orig_answer_text + self.start_position = start_position + self.end_position = end_position + self.is_impossible = is_impossible + + def __str__(self): + return self.__repr__() + + def __repr__(self): + s = "" + s += "qas_id: %s" % (tokenization.printable_text(self.qas_id)) + s += ", question_text: %s" % (tokenization.printable_text(self.question_text)) + s += ", doc_tokens: [%s]" % (" ".join(self.doc_tokens)) + if self.start_position: + s += ", start_position: %d" % (self.start_position) + if self.start_position: + s += ", end_position: %d" % (self.end_position) + if self.start_position: + s += ", is_impossible: %r" % (self.is_impossible) + return s + + +class InputFeatures(object): + """A single set of features of data.""" + + def __init__( + self, + unique_id, + example_index, + doc_span_index, + tokens, + token_to_orig_map, + token_is_max_context, + input_ids, + input_mask, + segment_ids, + start_position=None, + end_position=None, + is_impossible=None, + ): + self.unique_id = unique_id + self.example_index = example_index + self.doc_span_index = doc_span_index + self.tokens = tokens + self.token_to_orig_map = token_to_orig_map + self.token_is_max_context = token_is_max_context + self.input_ids = input_ids + self.input_mask = input_mask + self.segment_ids = segment_ids + self.start_position = start_position + self.end_position = end_position + self.is_impossible = is_impossible + + +def read_squad_examples(input_file, is_training): + """Read a SQuAD json file into a list of SquadExample.""" + with tf.gfile.Open(input_file, "r") as reader: + input_data = json.load(reader)["data"] + + def is_whitespace(c): + if c == " " or c == "\t" or c == "\r" or c == "\n" or ord(c) == 0x202F: + return True + return False + + examples = [] + for entry in input_data: + for paragraph in entry["paragraphs"]: + paragraph_text = paragraph["context"] + doc_tokens = [] + char_to_word_offset = [] + prev_is_whitespace = True + for c in paragraph_text: + if is_whitespace(c): + prev_is_whitespace = True + else: + if prev_is_whitespace: + doc_tokens.append(c) + else: + doc_tokens[-1] += c + prev_is_whitespace = False + char_to_word_offset.append(len(doc_tokens) - 1) + + for qa in paragraph["qas"]: + qas_id = qa["id"] + question_text = qa["question"] + start_position = None + end_position = None + orig_answer_text = None + is_impossible = False + if is_training: + + if FLAGS.version_2_with_negative: + is_impossible = qa["is_impossible"] + if (len(qa["answers"]) != 1) and (not is_impossible): + raise ValueError( + "For training, each question should have exactly 1 answer." + ) + if not is_impossible: + answer = qa["answers"][0] + orig_answer_text = answer["text"] + answer_offset = answer["answer_start"] + answer_length = len(orig_answer_text) + start_position = char_to_word_offset[answer_offset] + end_position = char_to_word_offset[ + answer_offset + answer_length - 1 + ] + # Only add answers where the text can be exactly recovered from the + # document. If this CAN'T happen it's likely due to weird Unicode + # stuff so we will just skip the example. + # + # Note that this means for training mode, every example is NOT + # guaranteed to be preserved. + actual_text = " ".join( + doc_tokens[start_position : (end_position + 1)] + ) + cleaned_answer_text = " ".join( + tokenization.whitespace_tokenize(orig_answer_text) + ) + if actual_text.find(cleaned_answer_text) == -1: + tf.logging.warning( + "Could not find answer: '%s' vs. '%s'", + actual_text, + cleaned_answer_text, + ) + continue + else: + start_position = -1 + end_position = -1 + orig_answer_text = "" + + example = SquadExample( + qas_id=qas_id, + question_text=question_text, + doc_tokens=doc_tokens, + orig_answer_text=orig_answer_text, + start_position=start_position, + end_position=end_position, + is_impossible=is_impossible, + ) + examples.append(example) + + return examples + + +def convert_examples_to_features( + examples, + tokenizer, + max_seq_length, + doc_stride, + max_query_length, + is_training, + output_fn, +): + """Loads a data file into a list of `InputBatch`s.""" + + unique_id = 1000000000 + + for (example_index, example) in enumerate(examples): + query_tokens = tokenizer.tokenize(example.question_text) + + if len(query_tokens) > max_query_length: + query_tokens = query_tokens[0:max_query_length] + + tok_to_orig_index = [] + orig_to_tok_index = [] + all_doc_tokens = [] + for (i, token) in enumerate(example.doc_tokens): + orig_to_tok_index.append(len(all_doc_tokens)) + sub_tokens = tokenizer.tokenize(token) + for sub_token in sub_tokens: + tok_to_orig_index.append(i) + all_doc_tokens.append(sub_token) + + tok_start_position = None + tok_end_position = None + if is_training and example.is_impossible: + tok_start_position = -1 + tok_end_position = -1 + if is_training and not example.is_impossible: + tok_start_position = orig_to_tok_index[example.start_position] + if example.end_position < len(example.doc_tokens) - 1: + tok_end_position = orig_to_tok_index[example.end_position + 1] - 1 + else: + tok_end_position = len(all_doc_tokens) - 1 + (tok_start_position, tok_end_position) = _improve_answer_span( + all_doc_tokens, + tok_start_position, + tok_end_position, + tokenizer, + example.orig_answer_text, + ) + + # The -3 accounts for [CLS], [SEP] and [SEP] + max_tokens_for_doc = max_seq_length - len(query_tokens) - 3 + + # We can have documents that are longer than the maximum sequence length. + # To deal with this we do a sliding window approach, where we take chunks + # of the up to our max length with a stride of `doc_stride`. + _DocSpan = collections.namedtuple( # pylint: disable=invalid-name + "DocSpan", ["start", "length"] + ) + doc_spans = [] + start_offset = 0 + while start_offset < len(all_doc_tokens): + length = len(all_doc_tokens) - start_offset + if length > max_tokens_for_doc: + length = max_tokens_for_doc + doc_spans.append(_DocSpan(start=start_offset, length=length)) + if start_offset + length == len(all_doc_tokens): + break + start_offset += min(length, doc_stride) + + for (doc_span_index, doc_span) in enumerate(doc_spans): + tokens = [] + token_to_orig_map = {} + token_is_max_context = {} + segment_ids = [] + tokens.append("[CLS]") + segment_ids.append(0) + for token in query_tokens: + tokens.append(token) + segment_ids.append(0) + tokens.append("[SEP]") + segment_ids.append(0) + + for i in range(doc_span.length): + split_token_index = doc_span.start + i + token_to_orig_map[len(tokens)] = tok_to_orig_index[split_token_index] + + is_max_context = _check_is_max_context( + doc_spans, doc_span_index, split_token_index + ) + token_is_max_context[len(tokens)] = is_max_context + tokens.append(all_doc_tokens[split_token_index]) + segment_ids.append(1) + tokens.append("[SEP]") + segment_ids.append(1) + + input_ids = tokenizer.convert_tokens_to_ids(tokens) + + # The mask has 1 for real tokens and 0 for padding tokens. Only real + # tokens are attended to. + input_mask = [1] * len(input_ids) + + # Zero-pad up to the sequence length. + while len(input_ids) < max_seq_length: + input_ids.append(0) + input_mask.append(0) + segment_ids.append(0) + + assert len(input_ids) == max_seq_length + assert len(input_mask) == max_seq_length + assert len(segment_ids) == max_seq_length + + start_position = None + end_position = None + if is_training and not example.is_impossible: + # For training, if our document chunk does not contain an annotation + # we throw it out, since there is nothing to predict. + doc_start = doc_span.start + doc_end = doc_span.start + doc_span.length - 1 + out_of_span = False + if not ( + tok_start_position >= doc_start and tok_end_position <= doc_end + ): + out_of_span = True + if out_of_span: + start_position = 0 + end_position = 0 + else: + doc_offset = len(query_tokens) + 2 + start_position = tok_start_position - doc_start + doc_offset + end_position = tok_end_position - doc_start + doc_offset + + if is_training and example.is_impossible: + start_position = 0 + end_position = 0 + + if example_index < 20: + tf.logging.info("*** Example ***") + tf.logging.info("unique_id: %s" % (unique_id)) + tf.logging.info("example_index: %s" % (example_index)) + tf.logging.info("doc_span_index: %s" % (doc_span_index)) + tf.logging.info( + "tokens: %s" + % " ".join([tokenization.printable_text(x) for x in tokens]) + ) + tf.logging.info( + "token_to_orig_map: %s" + % " ".join( + [ + "%d:%d" % (x, y) + for (x, y) in six.iteritems(token_to_orig_map) + ] + ) + ) + tf.logging.info( + "token_is_max_context: %s" + % " ".join( + [ + "%d:%s" % (x, y) + for (x, y) in six.iteritems(token_is_max_context) + ] + ) + ) + tf.logging.info("input_ids: %s" % " ".join([str(x) for x in input_ids])) + tf.logging.info( + "input_mask: %s" % " ".join([str(x) for x in input_mask]) + ) + tf.logging.info( + "segment_ids: %s" % " ".join([str(x) for x in segment_ids]) + ) + if is_training and example.is_impossible: + tf.logging.info("impossible example") + if is_training and not example.is_impossible: + answer_text = " ".join(tokens[start_position : (end_position + 1)]) + tf.logging.info("start_position: %d" % (start_position)) + tf.logging.info("end_position: %d" % (end_position)) + tf.logging.info( + "answer: %s" % (tokenization.printable_text(answer_text)) + ) + + feature = InputFeatures( + unique_id=unique_id, + example_index=example_index, + doc_span_index=doc_span_index, + tokens=tokens, + token_to_orig_map=token_to_orig_map, + token_is_max_context=token_is_max_context, + input_ids=input_ids, + input_mask=input_mask, + segment_ids=segment_ids, + start_position=start_position, + end_position=end_position, + is_impossible=example.is_impossible, + ) + + # Run callback + output_fn(feature) + + unique_id += 1 + + +def _improve_answer_span( + doc_tokens, input_start, input_end, tokenizer, orig_answer_text +): + """Returns tokenized answer spans that better match the annotated answer.""" + + # The SQuAD annotations are character based. We first project them to + # whitespace-tokenized words. But then after WordPiece tokenization, we can + # often find a "better match". For example: + # + # Question: What year was John Smith born? + # Context: The leader was John Smith (1895-1943). + # Answer: 1895 + # + # The original whitespace-tokenized answer will be "(1895-1943).". However + # after tokenization, our tokens will be "( 1895 - 1943 ) .". So we can match + # the exact answer, 1895. + # + # However, this is not always possible. Consider the following: + # + # Question: What country is the top exporter of electornics? + # Context: The Japanese electronics industry is the lagest in the world. + # Answer: Japan + # + # In this case, the annotator chose "Japan" as a character sub-span of + # the word "Japanese". Since our WordPiece tokenizer does not split + # "Japanese", we just use "Japanese" as the annotation. This is fairly rare + # in SQuAD, but does happen. + tok_answer_text = " ".join(tokenizer.tokenize(orig_answer_text)) + + for new_start in range(input_start, input_end + 1): + for new_end in range(input_end, new_start - 1, -1): + text_span = " ".join(doc_tokens[new_start : (new_end + 1)]) + if text_span == tok_answer_text: + return (new_start, new_end) + + return (input_start, input_end) + + +def _check_is_max_context(doc_spans, cur_span_index, position): + """Check if this is the 'max context' doc span for the token.""" + + # Because of the sliding window approach taken to scoring documents, a single + # token can appear in multiple documents. E.g. + # Doc: the man went to the store and bought a gallon of milk + # Span A: the man went to the + # Span B: to the store and bought + # Span C: and bought a gallon of + # ... + # + # Now the word 'bought' will have two scores from spans B and C. We only + # want to consider the score with "maximum context", which we define as + # the *minimum* of its left and right context (the *sum* of left and + # right context will always be the same, of course). + # + # In the example the maximum context for 'bought' would be span C since + # it has 1 left context and 3 right context, while span B has 4 left context + # and 0 right context. + best_score = None + best_span_index = None + for (span_index, doc_span) in enumerate(doc_spans): + end = doc_span.start + doc_span.length - 1 + if position < doc_span.start: + continue + if position > end: + continue + num_left_context = position - doc_span.start + num_right_context = end - position + score = min(num_left_context, num_right_context) + 0.01 * doc_span.length + if best_score is None or score > best_score: + best_score = score + best_span_index = span_index + + return cur_span_index == best_span_index + + +def create_model( + bert_config, is_training, input_ids, input_mask, segment_ids, use_one_hot_embeddings +): + """Creates a classification model.""" + model = modeling.BertModel( + config=bert_config, + is_training=is_training, + input_ids=input_ids, + input_mask=input_mask, + token_type_ids=segment_ids, + use_one_hot_embeddings=use_one_hot_embeddings, + ) + + final_hidden = model.get_sequence_output() + + final_hidden_shape = modeling.get_shape_list(final_hidden, expected_rank=3) + batch_size = final_hidden_shape[0] + seq_length = final_hidden_shape[1] + hidden_size = final_hidden_shape[2] + + output_weights = tf.get_variable( + "cls/squad/output_weights", + [2, hidden_size], + initializer=tf.truncated_normal_initializer(stddev=0.02), + ) + + output_bias = tf.get_variable( + "cls/squad/output_bias", [2], initializer=tf.zeros_initializer() + ) + + final_hidden_matrix = tf.reshape( + final_hidden, [batch_size * seq_length, hidden_size] + ) + logits = tf.matmul(final_hidden_matrix, output_weights, transpose_b=True) + logits = tf.nn.bias_add(logits, output_bias) + + logits = tf.reshape(logits, [batch_size, seq_length, 2]) + logits = tf.transpose(logits, [2, 0, 1]) + + unstacked_logits = tf.unstack(logits, axis=0) + + (start_logits, end_logits) = (unstacked_logits[0], unstacked_logits[1]) + + return (start_logits, end_logits) + + +def model_fn_builder( + bert_config, + init_checkpoint, + learning_rate, + num_train_steps, + num_warmup_steps, + use_tpu, + use_one_hot_embeddings, +): + """Returns `model_fn` closure for TPUEstimator.""" + + def model_fn(features, labels, mode, params): # pylint: disable=unused-argument + """The `model_fn` for TPUEstimator.""" + + tf.logging.info("*** Features ***") + for name in sorted(features.keys()): + tf.logging.info(" name = %s, shape = %s" % (name, features[name].shape)) + + unique_ids = features["unique_ids"] + input_ids = features["input_ids"] + input_mask = features["input_mask"] + segment_ids = features["segment_ids"] + + is_training = mode == tf.estimator.ModeKeys.TRAIN + + (start_logits, end_logits) = create_model( + bert_config=bert_config, + is_training=is_training, + input_ids=input_ids, + input_mask=input_mask, + segment_ids=segment_ids, + use_one_hot_embeddings=use_one_hot_embeddings, + ) + + tvars = tf.trainable_variables() + + initialized_variable_names = {} + scaffold_fn = None + if init_checkpoint: + ( + assignment_map, + initialized_variable_names, + ) = modeling.get_assignment_map_from_checkpoint(tvars, init_checkpoint) + if use_tpu: + + def tpu_scaffold(): + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + return tf.train.Scaffold() + + scaffold_fn = tpu_scaffold + else: + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + + tf.logging.info("**** Trainable Variables ****") + for var in tvars: + init_string = "" + if var.name in initialized_variable_names: + init_string = ", *INIT_FROM_CKPT*" + tf.logging.info( + " name = %s, shape = %s%s", var.name, var.shape, init_string + ) + + output_spec = None + if mode == tf.estimator.ModeKeys.TRAIN: + seq_length = modeling.get_shape_list(input_ids)[1] + + def compute_loss(logits, positions): + one_hot_positions = tf.one_hot( + positions, depth=seq_length, dtype=tf.float32 + ) + log_probs = tf.nn.log_softmax(logits, axis=-1) + loss = -tf.reduce_mean( + tf.reduce_sum(one_hot_positions * log_probs, axis=-1) + ) + return loss + + start_positions = features["start_positions"] + end_positions = features["end_positions"] + + start_loss = compute_loss(start_logits, start_positions) + end_loss = compute_loss(end_logits, end_positions) + + total_loss = (start_loss + end_loss) / 2.0 + + train_op = optimization.create_optimizer( + total_loss, learning_rate, num_train_steps, num_warmup_steps, use_tpu + ) + + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, loss=total_loss, train_op=train_op, scaffold_fn=scaffold_fn + ) + elif mode == tf.estimator.ModeKeys.PREDICT: + predictions = { + "unique_ids": unique_ids, + "start_logits": start_logits, + "end_logits": end_logits, + } + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, predictions=predictions, scaffold_fn=scaffold_fn + ) + else: + raise ValueError("Only TRAIN and PREDICT modes are supported: %s" % (mode)) + + return output_spec + + return model_fn + + +def input_fn_builder(input_file, seq_length, is_training, drop_remainder): + """Creates an `input_fn` closure to be passed to TPUEstimator.""" + + name_to_features = { + "unique_ids": tf.FixedLenFeature([], tf.int64), + "input_ids": tf.FixedLenFeature([seq_length], tf.int64), + "input_mask": tf.FixedLenFeature([seq_length], tf.int64), + "segment_ids": tf.FixedLenFeature([seq_length], tf.int64), + } + + if is_training: + name_to_features["start_positions"] = tf.FixedLenFeature([], tf.int64) + name_to_features["end_positions"] = tf.FixedLenFeature([], tf.int64) + + def _decode_record(record, name_to_features): + """Decodes a record to a TensorFlow example.""" + example = tf.parse_single_example(record, name_to_features) + + # tf.Example only supports tf.int64, but the TPU only supports tf.int32. + # So cast all int64 to int32. + for name in list(example.keys()): + t = example[name] + if t.dtype == tf.int64: + t = tf.to_int32(t) + example[name] = t + + return example + + def input_fn(params): + """The actual input function.""" + batch_size = params["batch_size"] + + # For training, we want a lot of parallel reading and shuffling. + # For eval, we want no shuffling and parallel reading doesn't matter. + d = tf.data.TFRecordDataset(input_file) + if is_training: + d = d.repeat() + d = d.shuffle(buffer_size=100) + + d = d.apply( + tf.contrib.data.map_and_batch( + lambda record: _decode_record(record, name_to_features), + batch_size=batch_size, + drop_remainder=drop_remainder, + ) + ) + + return d + + return input_fn + + +RawResult = collections.namedtuple( + "RawResult", ["unique_id", "start_logits", "end_logits"] +) + + +def write_predictions( + all_examples, + all_features, + all_results, + n_best_size, + max_answer_length, + do_lower_case, + output_prediction_file, + output_nbest_file, + output_null_log_odds_file, +): + """Write final predictions to the json file and log-odds of null if needed.""" + tf.logging.info("Writing predictions to: %s" % (output_prediction_file)) + tf.logging.info("Writing nbest to: %s" % (output_nbest_file)) + + example_index_to_features = collections.defaultdict(list) + for feature in all_features: + example_index_to_features[feature.example_index].append(feature) + + unique_id_to_result = {} + for result in all_results: + unique_id_to_result[result.unique_id] = result + + _PrelimPrediction = collections.namedtuple( # pylint: disable=invalid-name + "PrelimPrediction", + ["feature_index", "start_index", "end_index", "start_logit", "end_logit"], + ) + + all_predictions = collections.OrderedDict() + all_nbest_json = collections.OrderedDict() + scores_diff_json = collections.OrderedDict() + + for (example_index, example) in enumerate(all_examples): + features = example_index_to_features[example_index] + + prelim_predictions = [] + # keep track of the minimum score of null start+end of position 0 + score_null = 1000000 # large and positive + min_null_feature_index = 0 # the paragraph slice with min mull score + null_start_logit = 0 # the start logit at the slice with min null score + null_end_logit = 0 # the end logit at the slice with min null score + for (feature_index, feature) in enumerate(features): + result = unique_id_to_result[feature.unique_id] + start_indexes = _get_best_indexes(result.start_logits, n_best_size) + end_indexes = _get_best_indexes(result.end_logits, n_best_size) + # if we could have irrelevant answers, get the min score of irrelevant + if FLAGS.version_2_with_negative: + feature_null_score = result.start_logits[0] + result.end_logits[0] + if feature_null_score < score_null: + score_null = feature_null_score + min_null_feature_index = feature_index + null_start_logit = result.start_logits[0] + null_end_logit = result.end_logits[0] + for start_index in start_indexes: + for end_index in end_indexes: + # We could hypothetically create invalid predictions, e.g., predict + # that the start of the span is in the question. We throw out all + # invalid predictions. + if start_index >= len(feature.tokens): + continue + if end_index >= len(feature.tokens): + continue + if start_index not in feature.token_to_orig_map: + continue + if end_index not in feature.token_to_orig_map: + continue + if not feature.token_is_max_context.get(start_index, False): + continue + if end_index < start_index: + continue + length = end_index - start_index + 1 + if length > max_answer_length: + continue + prelim_predictions.append( + _PrelimPrediction( + feature_index=feature_index, + start_index=start_index, + end_index=end_index, + start_logit=result.start_logits[start_index], + end_logit=result.end_logits[end_index], + ) + ) + + if FLAGS.version_2_with_negative: + prelim_predictions.append( + _PrelimPrediction( + feature_index=min_null_feature_index, + start_index=0, + end_index=0, + start_logit=null_start_logit, + end_logit=null_end_logit, + ) + ) + prelim_predictions = sorted( + prelim_predictions, + key=lambda x: (x.start_logit + x.end_logit), + reverse=True, + ) + + _NbestPrediction = collections.namedtuple( # pylint: disable=invalid-name + "NbestPrediction", ["text", "start_logit", "end_logit"] + ) + + seen_predictions = {} + nbest = [] + for pred in prelim_predictions: + if len(nbest) >= n_best_size: + break + feature = features[pred.feature_index] + if pred.start_index > 0: # this is a non-null prediction + tok_tokens = feature.tokens[pred.start_index : (pred.end_index + 1)] + orig_doc_start = feature.token_to_orig_map[pred.start_index] + orig_doc_end = feature.token_to_orig_map[pred.end_index] + orig_tokens = example.doc_tokens[orig_doc_start : (orig_doc_end + 1)] + tok_text = " ".join(tok_tokens) + + # De-tokenize WordPieces that have been split off. + tok_text = tok_text.replace(" ##", "") + tok_text = tok_text.replace("##", "") + + # Clean whitespace + tok_text = tok_text.strip() + tok_text = " ".join(tok_text.split()) + orig_text = " ".join(orig_tokens) + + final_text = get_final_text(tok_text, orig_text, do_lower_case) + if final_text in seen_predictions: + continue + + seen_predictions[final_text] = True + else: + final_text = "" + seen_predictions[final_text] = True + + nbest.append( + _NbestPrediction( + text=final_text, + start_logit=pred.start_logit, + end_logit=pred.end_logit, + ) + ) + + # if we didn't inlude the empty option in the n-best, inlcude it + if FLAGS.version_2_with_negative: + if "" not in seen_predictions: + nbest.append( + _NbestPrediction( + text="", start_logit=null_start_logit, end_logit=null_end_logit + ) + ) + # In very rare edge cases we could have no valid predictions. So we + # just create a nonce prediction in this case to avoid failure. + if not nbest: + nbest.append(_NbestPrediction(text="empty", start_logit=0.0, end_logit=0.0)) + + assert len(nbest) >= 1 + + total_scores = [] + best_non_null_entry = None + for entry in nbest: + total_scores.append(entry.start_logit + entry.end_logit) + if not best_non_null_entry: + if entry.text: + best_non_null_entry = entry + + probs = _compute_softmax(total_scores) + + nbest_json = [] + for (i, entry) in enumerate(nbest): + output = collections.OrderedDict() + output["text"] = entry.text + output["probability"] = probs[i] + output["start_logit"] = entry.start_logit + output["end_logit"] = entry.end_logit + nbest_json.append(output) + + assert len(nbest_json) >= 1 + + if not FLAGS.version_2_with_negative: + all_predictions[example.qas_id] = nbest_json[0]["text"] + else: + # predict "" iff the null score - the score of best non-null > threshold + score_diff = ( + score_null + - best_non_null_entry.start_logit + - (best_non_null_entry.end_logit) + ) + scores_diff_json[example.qas_id] = score_diff + if score_diff > FLAGS.null_score_diff_threshold: + all_predictions[example.qas_id] = "" + else: + all_predictions[example.qas_id] = best_non_null_entry.text + + all_nbest_json[example.qas_id] = nbest_json + + with tf.gfile.GFile(output_prediction_file, "w") as writer: + writer.write(json.dumps(all_predictions, indent=4) + "\n") + + with tf.gfile.GFile(output_nbest_file, "w") as writer: + writer.write(json.dumps(all_nbest_json, indent=4) + "\n") + + if FLAGS.version_2_with_negative: + with tf.gfile.GFile(output_null_log_odds_file, "w") as writer: + writer.write(json.dumps(scores_diff_json, indent=4) + "\n") + + +def get_final_text(pred_text, orig_text, do_lower_case): + """Project the tokenized prediction back to the original text.""" + + # When we created the data, we kept track of the alignment between original + # (whitespace tokenized) tokens and our WordPiece tokenized tokens. So + # now `orig_text` contains the span of our original text corresponding to the + # span that we predicted. + # + # However, `orig_text` may contain extra characters that we don't want in + # our prediction. + # + # For example, let's say: + # pred_text = steve smith + # orig_text = Steve Smith's + # + # We don't want to return `orig_text` because it contains the extra "'s". + # + # We don't want to return `pred_text` because it's already been normalized + # (the SQuAD eval script also does punctuation stripping/lower casing but + # our tokenizer does additional normalization like stripping accent + # characters). + # + # What we really want to return is "Steve Smith". + # + # Therefore, we have to apply a semi-complicated alignment heruistic between + # `pred_text` and `orig_text` to get a character-to-charcter alignment. This + # can fail in certain cases in which case we just return `orig_text`. + + def _strip_spaces(text): + ns_chars = [] + ns_to_s_map = collections.OrderedDict() + for (i, c) in enumerate(text): + if c == " ": + continue + ns_to_s_map[len(ns_chars)] = i + ns_chars.append(c) + ns_text = "".join(ns_chars) + return (ns_text, ns_to_s_map) + + # We first tokenize `orig_text`, strip whitespace from the result + # and `pred_text`, and check if they are the same length. If they are + # NOT the same length, the heuristic has failed. If they are the same + # length, we assume the characters are one-to-one aligned. + tokenizer = tokenization.BasicTokenizer(do_lower_case=do_lower_case) + + tok_text = " ".join(tokenizer.tokenize(orig_text)) + + start_position = tok_text.find(pred_text) + if start_position == -1: + if FLAGS.verbose_logging: + tf.logging.info( + "Unable to find text: '%s' in '%s'" % (pred_text, orig_text) + ) + return orig_text + end_position = start_position + len(pred_text) - 1 + + (orig_ns_text, orig_ns_to_s_map) = _strip_spaces(orig_text) + (tok_ns_text, tok_ns_to_s_map) = _strip_spaces(tok_text) + + if len(orig_ns_text) != len(tok_ns_text): + if FLAGS.verbose_logging: + tf.logging.info( + "Length not equal after stripping spaces: '%s' vs '%s'", + orig_ns_text, + tok_ns_text, + ) + return orig_text + + # We then project the characters in `pred_text` back to `orig_text` using + # the character-to-character alignment. + tok_s_to_ns_map = {} + for (i, tok_index) in six.iteritems(tok_ns_to_s_map): + tok_s_to_ns_map[tok_index] = i + + orig_start_position = None + if start_position in tok_s_to_ns_map: + ns_start_position = tok_s_to_ns_map[start_position] + if ns_start_position in orig_ns_to_s_map: + orig_start_position = orig_ns_to_s_map[ns_start_position] + + if orig_start_position is None: + if FLAGS.verbose_logging: + tf.logging.info("Couldn't map start position") + return orig_text + + orig_end_position = None + if end_position in tok_s_to_ns_map: + ns_end_position = tok_s_to_ns_map[end_position] + if ns_end_position in orig_ns_to_s_map: + orig_end_position = orig_ns_to_s_map[ns_end_position] + + if orig_end_position is None: + if FLAGS.verbose_logging: + tf.logging.info("Couldn't map end position") + return orig_text + + output_text = orig_text[orig_start_position : (orig_end_position + 1)] + return output_text + + +def _get_best_indexes(logits, n_best_size): + """Get the n-best logits from a list.""" + index_and_score = sorted(enumerate(logits), key=lambda x: x[1], reverse=True) + + best_indexes = [] + for i in range(len(index_and_score)): + if i >= n_best_size: + break + best_indexes.append(index_and_score[i][0]) + return best_indexes + + +def _compute_softmax(scores): + """Compute softmax probability over raw logits.""" + if not scores: + return [] + + max_score = None + for score in scores: + if max_score is None or score > max_score: + max_score = score + + exp_scores = [] + total_sum = 0.0 + for score in scores: + x = math.exp(score - max_score) + exp_scores.append(x) + total_sum += x + + probs = [] + for score in exp_scores: + probs.append(score / total_sum) + return probs + + +class FeatureWriter(object): + """Writes InputFeature to TF example file.""" + + def __init__(self, filename, is_training): + self.filename = filename + self.is_training = is_training + self.num_features = 0 + self._writer = tf.python_io.TFRecordWriter(filename) + + def process_feature(self, feature): + """Write a InputFeature to the TFRecordWriter as a tf.train.Example.""" + self.num_features += 1 + + def create_int_feature(values): + feature = tf.train.Feature( + int64_list=tf.train.Int64List(value=list(values)) + ) + return feature + + features = collections.OrderedDict() + features["unique_ids"] = create_int_feature([feature.unique_id]) + features["input_ids"] = create_int_feature(feature.input_ids) + features["input_mask"] = create_int_feature(feature.input_mask) + features["segment_ids"] = create_int_feature(feature.segment_ids) + + if self.is_training: + features["start_positions"] = create_int_feature([feature.start_position]) + features["end_positions"] = create_int_feature([feature.end_position]) + impossible = 0 + if feature.is_impossible: + impossible = 1 + features["is_impossible"] = create_int_feature([impossible]) + + tf_example = tf.train.Example(features=tf.train.Features(feature=features)) + self._writer.write(tf_example.SerializeToString()) + + def close(self): + self._writer.close() + + +def validate_flags_or_throw(bert_config): + """Validate the input FLAGS or throw an exception.""" + tokenization.validate_case_matches_checkpoint( + FLAGS.do_lower_case, FLAGS.init_checkpoint + ) + + if not FLAGS.do_train and not FLAGS.do_predict: + raise ValueError("At least one of `do_train` or `do_predict` must be True.") + + if FLAGS.do_train: + if not FLAGS.train_file: + raise ValueError( + "If `do_train` is True, then `train_file` must be specified." + ) + if FLAGS.do_predict: + if not FLAGS.predict_file: + raise ValueError( + "If `do_predict` is True, then `predict_file` must be specified." + ) + + if FLAGS.max_seq_length > bert_config.max_position_embeddings: + raise ValueError( + "Cannot use sequence length %d because the BERT model " + "was only trained up to sequence length %d" + % (FLAGS.max_seq_length, bert_config.max_position_embeddings) + ) + + if FLAGS.max_seq_length <= FLAGS.max_query_length + 3: + raise ValueError( + "The max_seq_length (%d) must be greater than max_query_length " + "(%d) + 3" % (FLAGS.max_seq_length, FLAGS.max_query_length) + ) + + +def main(_): + tf.logging.set_verbosity(tf.logging.INFO) + logger = tf.get_logger() + logger.propagate = False + + bert_config = modeling.BertConfig.from_json_file(FLAGS.bert_config_file) + + validate_flags_or_throw(bert_config) + + tf.gfile.MakeDirs(FLAGS.output_dir) + + tokenizer = tokenization.FullTokenizer( + vocab_file=FLAGS.vocab_file, do_lower_case=FLAGS.do_lower_case + ) + + tpu_cluster_resolver = None + if FLAGS.use_tpu and FLAGS.tpu_name: + tpu_cluster_resolver = tf.contrib.cluster_resolver.TPUClusterResolver( + FLAGS.tpu_name, zone=FLAGS.tpu_zone, project=FLAGS.gcp_project + ) + + is_per_host = tf.contrib.tpu.InputPipelineConfig.PER_HOST_V2 + run_config = tf.contrib.tpu.RunConfig( + cluster=tpu_cluster_resolver, + master=FLAGS.master, + model_dir=FLAGS.output_dir, + save_checkpoints_steps=FLAGS.save_checkpoints_steps, + tpu_config=tf.contrib.tpu.TPUConfig( + iterations_per_loop=FLAGS.iterations_per_loop, + num_shards=FLAGS.num_tpu_cores, + per_host_input_for_training=is_per_host, + ), + ) + + train_examples = None + num_train_steps = None + num_warmup_steps = None + if FLAGS.do_train: + train_examples = read_squad_examples( + input_file=FLAGS.train_file, is_training=True + ) + num_train_steps = int( + len(train_examples) / FLAGS.train_batch_size * FLAGS.num_train_epochs + ) + num_warmup_steps = int(num_train_steps * FLAGS.warmup_proportion) + + # Pre-shuffle the input to avoid having to make a very large shuffle + # buffer in in the `input_fn`. + rng = random.Random(12345) + rng.shuffle(train_examples) + + model_fn = model_fn_builder( + bert_config=bert_config, + init_checkpoint=FLAGS.init_checkpoint, + learning_rate=FLAGS.learning_rate, + num_train_steps=num_train_steps, + num_warmup_steps=num_warmup_steps, + use_tpu=FLAGS.use_tpu, + use_one_hot_embeddings=FLAGS.use_tpu, + ) + + # If TPU is not available, this will fall back to normal Estimator on CPU + # or GPU. + estimator = tf.contrib.tpu.TPUEstimator( + use_tpu=FLAGS.use_tpu, + model_fn=model_fn, + config=run_config, + train_batch_size=FLAGS.train_batch_size, + predict_batch_size=FLAGS.predict_batch_size, + ) + + if FLAGS.do_train: + # We write to a temporary file to avoid storing very large constant tensors + # in memory. + train_writer = FeatureWriter( + filename=os.path.join(FLAGS.output_dir, "train.tf_record"), is_training=True + ) + convert_examples_to_features( + examples=train_examples, + tokenizer=tokenizer, + max_seq_length=FLAGS.max_seq_length, + doc_stride=FLAGS.doc_stride, + max_query_length=FLAGS.max_query_length, + is_training=True, + output_fn=train_writer.process_feature, + ) + train_writer.close() + + tf.logging.info("***** Running training *****") + tf.logging.info(" Num orig examples = %d", len(train_examples)) + tf.logging.info(" Num split examples = %d", train_writer.num_features) + tf.logging.info(" Batch size = %d", FLAGS.train_batch_size) + tf.logging.info(" Num steps = %d", num_train_steps) + del train_examples + + train_input_fn = input_fn_builder( + input_file=train_writer.filename, + seq_length=FLAGS.max_seq_length, + is_training=True, + drop_remainder=True, + ) + estimator.train(input_fn=train_input_fn, max_steps=num_train_steps) + + if FLAGS.do_predict: + eval_examples = read_squad_examples( + input_file=FLAGS.predict_file, is_training=False + ) + + eval_writer = FeatureWriter( + filename=os.path.join(FLAGS.output_dir, "eval.tf_record"), is_training=False + ) + eval_features = [] + + def append_feature(feature): + eval_features.append(feature) + eval_writer.process_feature(feature) + + convert_examples_to_features( + examples=eval_examples, + tokenizer=tokenizer, + max_seq_length=FLAGS.max_seq_length, + doc_stride=FLAGS.doc_stride, + max_query_length=FLAGS.max_query_length, + is_training=False, + output_fn=append_feature, + ) + eval_writer.close() + + tf.logging.info("***** Running predictions *****") + tf.logging.info(" Num orig examples = %d", len(eval_examples)) + tf.logging.info(" Num split examples = %d", len(eval_features)) + tf.logging.info(" Batch size = %d", FLAGS.predict_batch_size) + + all_results = [] + + predict_input_fn = input_fn_builder( + input_file=eval_writer.filename, + seq_length=FLAGS.max_seq_length, + is_training=False, + drop_remainder=False, + ) + + # If running eval on the TPU, you will need to specify the number of + # steps. + all_results = [] + for result in estimator.predict(predict_input_fn, yield_single_examples=True): + if len(all_results) % 1000 == 0: + tf.logging.info("Processing example: %d" % (len(all_results))) + unique_id = int(result["unique_ids"]) + start_logits = [float(x) for x in result["start_logits"].flat] + end_logits = [float(x) for x in result["end_logits"].flat] + all_results.append( + RawResult( + unique_id=unique_id, + start_logits=start_logits, + end_logits=end_logits, + ) + ) + + output_prediction_file = os.path.join(FLAGS.output_dir, "predictions.json") + output_nbest_file = os.path.join(FLAGS.output_dir, "nbest_predictions.json") + output_null_log_odds_file = os.path.join(FLAGS.output_dir, "null_odds.json") + + write_predictions( + eval_examples, + eval_features, + all_results, + FLAGS.n_best_size, + FLAGS.max_answer_length, + FLAGS.do_lower_case, + output_prediction_file, + output_nbest_file, + output_null_log_odds_file, + ) + + +if __name__ == "__main__": + flags.mark_flag_as_required("vocab_file") + flags.mark_flag_as_required("bert_config_file") + flags.mark_flag_as_required("output_dir") + tf.app.run() diff --git a/arabert/arabert/sample_text.txt b/arabert/arabert/sample_text.txt new file mode 100644 index 0000000000000000000000000000000000000000..4a65feeb0eef32ad18b2678a0ecc16002f76c9f9 --- /dev/null +++ b/arabert/arabert/sample_text.txt @@ -0,0 +1,38 @@ +Text should be one-sentence-per-line, with empty lines between documents. +This sample text is was randomly selected from the pretriaining corpus for araBERT with Farasa Tokenization. + +• « أدعو ال+ جه +ات ال+ مختص +ة في ال+ دول +ة إلى إجراء دراس +ة مقارن +ة بين مستوي +ات ال+ طلب +ة في زمني و+ في هذا ال+ وقت » . +أريد طرح جانب واحد بسيط في هذه ال+ مساح +ة بناء على حوار بين +ي و+ بين أحد أقربائي عن كيفي +ة تأثير هذه ال+ حقب +ة ال+ رقمي +ة على ال+ حيا +ة ال+ جامعي +ة ، و+ مما لا شك في +ه أن ال+ تقني +ة اقتحم +ت حقل ال+ تعليم +كما فعل +ت مع غير +ه و+ غير +ت +ه ب+ شكل جذري . +ال+ يوم : ال+ هواتف ال+ ذكي +ة منتشر +ة و+ ال+ معلم +ون متوافر +ون على مدار ال+ ساع +ة ، و+ لن نبالغ إذا قل +نا إن هاتف أو كمبيوتر ال+ مكتب في زمن +نا هذا قد لا يكون ضروري +ا . +ال+ يوم : ال+ واتساب وسيل +ة ال+ تنسيق و+ ال+ تواصل بين ال+ طلاب ، و+ من خلال +ه تنشأ مجموع +ات تناقش ال+ مشروع +ات ال+ جامعي +ة ، بل إن ال+ واتساب ألغى ال+ حاج +ة إلى ال+ ماسح ال+ ضوئي في حال +ات كثير +ة ، و+ أصبح تصوير ال+ أوراق و+ ال+ مستند +ات يتم عن طريق +ه ب+ استخدام كاميرا ال+ هاتف ال+ محمول . +ال+ يوم : كل شيء يتم تصوير +ه و+ رصد +ه و+ بث +ه على وسائل ال+ تواصل كاف +ة ، و+ إن انتشر تفتح ال+ سلط +ات تحقيق +ا و+ يتحول أي موضوع ، سواء كان تافه +ا أم كبير +ا ، إلى و+ صم +ة عار في ال+ حال +ة ال+ أولى ، و+ قضي +ة في ال+ حال +ة ال+ ثاني +ة . +ال+ يوم : ينشغل ال+ طلاب ب+ وسائل ال+ تواصل ال+ اجتماعي داخل ال+ فصل بين مدرس +ين متساهل +ين و+ متشدد +ين ، و+ هناك طلاب يستخدم +ون ال+ يوتيوب وسيل +ة ترفيهي +ة داخل ال+ فصل على حساب ال+ درس و+ ب+ وجود ال+ معلم . ++كن +نا نمزح مع بعض +نا كثير +ا مزاح +ا خفيف +ا و+ ثقيل +ا ، و+ كان +ت تحدث معارك أحيان +ا ، لكن كان +ت فضيل +ة ال+ ستر منتشر +ة بين +نا ، و+ لم يكن أحد يشي ب+ ال+ آخر ، إلا نادر +ا ، و+ إن حدث ذلك ف+ لا دليل علي +ه ، إلا من صاحب ال+ وشاي +ة و+ كلم +ت +ه قد تصدق ، أو يتم تجاهل +ها . +لم يكن استخدام ال+ هاتف ال+ محمول مسموح +ا ب+ +ه داخل ال+ فصول ال+ دراسي +ة إلا في حال +ات ال+ طوارئ ، ال+ معلم +ون ال+ أجانب كان +وا يتساهلون مع ذلك بينما ال+ عرب متشدد +ون ، كان مسموح +ا ل+ +نا ب+ فتح كتاب تعليمي عن ال+ ماد +ة نفس +ها و+ ال+ مطالع +ة في +ه ب+ حضور ال+ مدرس . + +أزم +ات ال+ أندي +ة - ال+ إمار +ات ال+ يومكثر ال+ حديث في ال+ آون +ة ال+ أخير +ة عن ال+ مشكل +ات التي تعاني +ها أندي +ت +نا ، و+ ما تواجه +ه من معوق +ات و+ تحدي +ات فرض +ت علي +ها ب+ سبب عوامل و+ تراكم +ات أسلوب ال+ عمل ال+ إداري ، الذي تنتهج +ه ال+ أغلبي +ة من +ها . +ال+ أزم +ات التي تظهر بين فتر +ة و+ أخرى مرد +ها غياب ال+ منهجي +ة و+ سوء ال+ تخطيط و+ ال+ صرف ال+ عشوائي . +أما ال+ أهلي ف+ رغم ما مر ب+ +ه خلال هذا ال+ موسم و+ ما واجه +ه من تحدي +ات ، إلا أن +ه أنعش آمال +ه من جديد و+ بقي +ت ل+ +ه خطو +ة من أجل مرافق +ة ال+ فرق ال+ متأهل +ة ل+ ال+ دور ال+ تالي . +ف+ هو واقع تعيش +ه هذه ال+ أندي +ة و+ ال+ جميع يدرك تداعي +ات +ه ال+ سلبي +ة علي +ها ، التي تنعكس مباشر +ة على أدائ +ها ال+ مؤسسي و+ مخرج +ات +ه ، و+ هو أمر يخالف ال+ طموح . +لكن ال+ سؤال الذي يتردد دائم +ا من ال+ متسبب في هذا ؟ و+ ل+ أجل ذلك عاد ال+ عين ب+ مكاسب عد +ة لعل أهم +ها أن +ه استطاع أن يغسل أحزان +ه ال+ محلي +ة في ال+ بطول +ة ال+ آسيوي +ة ، و+ يحيى أمل +ه في ال+ خروج ب+ مكسب آسيوي ينسي +ه خسار +ة ال+ دوري و+ ال+ كأس ، بل قد يعطي +ه مساح +ة أكبر من ال+ تركيز ل+ ال+ منافس +ة على ال+ أبطال و+ إعاد +ة ذكري +ات 2003 . +و+ لعل ال+ أزم +ات التي تظهر بين فتر +ة و+ أخرى مرد +ها غياب ال+ منهجي +ة و+ سوء ال+ تخطيط ، ب+ ال+ إضاف +ة إلى ال+ صرف ال+ عشوائي الذي كبد ميزاني +ات +ها ال+ كثير ، و+ وضع +ها في خان +ة حرج +ة دفع +ها أحيان +ا ل+ إطلاق صرخ +ات ال+ استغاث +ة ل+ نجد +ت +ها و+ إخراج +ها من تلك ال+ دوام +ات التي تقع في +ها . +و+ لماذا يستمر هذا ال+ وضع في أغلب ال+ أندي +ة دون حراك نحو ال+ تغيير و+ ال+ تطوير و+ خلع + +This sample text is was randomly selected from the pretriaining corpus for araBERT WITHOUT Farasa Tokenization. + +• " أدعو الجهات المختصة في الدولة إلى إجراء دراسة مقارنة بين مستويات الطلبة في زمني وفي هذا الوقت ". +أريد طرح جانب واحد بسيط في هذه المساحة بناء على حوار بيني وبين أحد أقربائي عن كيفية تأثير هذه الحقبة الرقمية على الحياة الجامعية ، ومما لا شك فيه أن التقنية اقتحمت حقل التعليم كما فعلت مع غيره وغيرته بشكل جذري. +اليوم : الهواتف الذكية منتشرة والمعلمون متوافرون على مدار الساعة ، ولن نبالغ إذا قلنا إن هاتف أو كمبيوتر المكتب في زمننا هذا قد لا يكون ضروريا. +اليوم : الواتساب وسيلة التنسيق والتواصل بين الطلاب ، ومن خلاله تنشأ مجموعات تناقش المشروعات الجامعية ، بل إن الواتساب ألغى الحاجة إلى الماسح الضوئي في حالات كثيرة ، وأصبح تصوير الأوراق والمستندات يتم عن طريقه باستخدام كاميرا الهاتف المحمول. +اليوم : كل شيء يتم تصويره ورصده وبثه على وسائل التواصل كافة ، وإن انتشر تفتح السلطات تحقيقا ويتحول أي موضوع ، سواء كان تافها أم كبيرا ، إلى وصمة عار في الحالة الأولى ، وقضية في الحالة الثانية. +اليوم : ينشغل الطلاب بوسائل التواصل الاجتماعي داخل الفصل بين مدرسين متساهلين ومتشددين ، وهناك طلاب يستخدمون اليوتيوب وسيلة ترفيهية داخل الفصل على حساب الدرس وبوجود المعلم. +كنا نمزح مع بعضنا كثيرا مزاحا خفيفا وثقيلا ، وكانت تحدث معارك أحيانا ، لكن كانت فضيلة الستر منتشرة بيننا ، ولم يكن أحد يشي بالآخر ، إلا نادرا ، وإن حدث ذلك فلا دليل عليه ، إلا من صاحب الوشاية وكلمته قد تصدق ، أو يتم تجاهلها. +لم يكن استخدام الهاتف المحمول مسموحا به داخل الفصول الدراسية إلا في حالات الطوارئ ، المعلمون الأجانب كانوا يتساهلون مع ذلك بينما العرب متشددون ، كان مسموحا لنا بفتح كتاب تعليمي عن المادة نفسها والمطالعة فيه بحضور المدرس. + +أزمات الأندية - الإمارات اليومكثر الحديث في الآونة الأخيرة عن المشكلات التي تعانيها أنديتنا ، وما تواجهه من معوقات وتحديات فرضت عليها بسبب عوامل وتراكمات أسلوب العمل الإداري ، الذي تنتهجه الأغلبية منها. +الأزمات التي تظهر بين فترة وأخرى مردها غياب المنهجية وسوء التخطيط والصرف العشوائي. +أما الأهلي فرغم ما مر به خلال هذا الموسم وما واجهه من تحديات ، إلا أنه أنعش آماله من جديد وبقيت له خطوة من أجل مرافقة الفرق المتأهلة للدور التالي. +فهو واقع تعيشه هذه الأندية والجميع يدرك تداعياته السلبية عليها ، التي تنعكس مباشرة على أدائها المؤسسي ومخرجاته ، وهو أمر يخالف الطموح. +لكن السؤال الذي يتردد دائما من المتسبب في هذا ؟ ولأجل ذلك عاد العين بمكاسب عدة لعل أهمها أنه استطاع أن يغسل أحزانه المحلية في البطولة الآسيوية ، ويحيى أمله في الخروج بمكسب آسيوي ينسيه خسارة الدوري والكأس ، بل قد يعطيه مساحة أكبر من التركيز للمنافسة على الأبطال وإعادة ذكريات 2003. +ولعل الأزمات التي تظهر بين فترة وأخرى مردها غياب المنهجية وسوء التخطيط ، بالإضافة إلى الصرف العشوائي الذي كبد ميزانياتها الكثير ، ووضعها في خانة حرجة دفعها أحيانا لإطلاق صرخات الاستغاثة لنجدتها وإخراجها من تلك الدوامات التي تقع فيها. +ولماذا يستمر هذا الوضع في أغلب الأندية دون حراك نحو التغيير والتطوير وخلع الجلباب الإداري القديم؟ diff --git a/arabert/arabert/tokenization.py b/arabert/arabert/tokenization.py new file mode 100644 index 0000000000000000000000000000000000000000..0fbd8bb01173dd03e391b4207ce9362fd0fdd041 --- /dev/null +++ b/arabert/arabert/tokenization.py @@ -0,0 +1,414 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Tokenization classes.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections +import re +import unicodedata +import six +import tensorflow as tf + + +def validate_case_matches_checkpoint(do_lower_case, init_checkpoint): + """Checks whether the casing config is consistent with the checkpoint name.""" + + # The casing has to be passed in by the user and there is no explicit check + # as to whether it matches the checkpoint. The casing information probably + # should have been stored in the bert_config.json file, but it's not, so + # we have to heuristically detect it to validate. + + if not init_checkpoint: + return + + m = re.match("^.*?([A-Za-z0-9_-]+)/bert_model.ckpt", init_checkpoint) + if m is None: + return + + model_name = m.group(1) + + lower_models = [ + "uncased_L-24_H-1024_A-16", + "uncased_L-12_H-768_A-12", + "multilingual_L-12_H-768_A-12", + "chinese_L-12_H-768_A-12", + ] + + cased_models = [ + "cased_L-12_H-768_A-12", + "cased_L-24_H-1024_A-16", + "multi_cased_L-12_H-768_A-12", + ] + + is_bad_config = False + if model_name in lower_models and not do_lower_case: + is_bad_config = True + actual_flag = "False" + case_name = "lowercased" + opposite_flag = "True" + + if model_name in cased_models and do_lower_case: + is_bad_config = True + actual_flag = "True" + case_name = "cased" + opposite_flag = "False" + + if is_bad_config: + raise ValueError( + "You passed in `--do_lower_case=%s` with `--init_checkpoint=%s`. " + "However, `%s` seems to be a %s model, so you " + "should pass in `--do_lower_case=%s` so that the fine-tuning matches " + "how the model was pre-training. If this error is wrong, please " + "just comment out this check." + % (actual_flag, init_checkpoint, model_name, case_name, opposite_flag) + ) + + +def convert_to_unicode(text): + """Converts `text` to Unicode (if it's not already), assuming utf-8 input.""" + if six.PY3: + if isinstance(text, str): + return text + elif isinstance(text, bytes): + return text.decode("utf-8", "ignore") + else: + raise ValueError("Unsupported string type: %s" % (type(text))) + elif six.PY2: + if isinstance(text, str): + return text.decode("utf-8", "ignore") + elif isinstance(text, unicode): + return text + else: + raise ValueError("Unsupported string type: %s" % (type(text))) + else: + raise ValueError("Not running on Python2 or Python 3?") + + +def printable_text(text): + """Returns text encoded in a way suitable for print or `tf.logging`.""" + + # These functions want `str` for both Python2 and Python3, but in one case + # it's a Unicode string and in the other it's a byte string. + if six.PY3: + if isinstance(text, str): + return text + elif isinstance(text, bytes): + return text.decode("utf-8", "ignore") + else: + raise ValueError("Unsupported string type: %s" % (type(text))) + elif six.PY2: + if isinstance(text, str): + return text + elif isinstance(text, unicode): + return text.encode("utf-8") + else: + raise ValueError("Unsupported string type: %s" % (type(text))) + else: + raise ValueError("Not running on Python2 or Python 3?") + + +def load_vocab(vocab_file): + """Loads a vocabulary file into a dictionary.""" + vocab = collections.OrderedDict() + index = 0 + with tf.gfile.GFile(vocab_file, "r") as reader: + while True: + token = convert_to_unicode(reader.readline()) + if not token: + break + token = token.strip() + vocab[token] = index + index += 1 + return vocab + + +def convert_by_vocab(vocab, items): + """Converts a sequence of [tokens|ids] using the vocab.""" + output = [] + for item in items: + output.append(vocab[item]) + return output + + +def convert_tokens_to_ids(vocab, tokens): + return convert_by_vocab(vocab, tokens) + + +def convert_ids_to_tokens(inv_vocab, ids): + return convert_by_vocab(inv_vocab, ids) + + +def whitespace_tokenize(text): + """Runs basic whitespace cleaning and splitting on a piece of text.""" + text = text.strip() + if not text: + return [] + tokens = text.split() + return tokens + + +class FullTokenizer(object): + """Runs end-to-end tokenziation.""" + + def __init__(self, vocab_file, do_lower_case=True): + self.vocab = load_vocab(vocab_file) + self.inv_vocab = {v: k for k, v in self.vocab.items()} + self.basic_tokenizer = BasicTokenizer(do_lower_case=do_lower_case) + self.wordpiece_tokenizer = WordpieceTokenizer(vocab=self.vocab) + + def tokenize(self, text): + split_tokens = [] + for token in self.basic_tokenizer.tokenize(text): + for sub_token in self.wordpiece_tokenizer.tokenize(token): + split_tokens.append(sub_token) + + return split_tokens + + def convert_tokens_to_ids(self, tokens): + return convert_by_vocab(self.vocab, tokens) + + def convert_ids_to_tokens(self, ids): + return convert_by_vocab(self.inv_vocab, ids) + + +class BasicTokenizer(object): + """Runs basic tokenization (punctuation splitting, lower casing, etc.).""" + + def __init__(self, do_lower_case=True): + """Constructs a BasicTokenizer. + + Args: + do_lower_case: Whether to lower case the input. + """ + self.do_lower_case = do_lower_case + + def tokenize(self, text): + """Tokenizes a piece of text.""" + text = convert_to_unicode(text) + text = self._clean_text(text) + + # This was added on November 1st, 2018 for the multilingual and Chinese + # models. This is also applied to the English models now, but it doesn't + # matter since the English models were not trained on any Chinese data + # and generally don't have any Chinese data in them (there are Chinese + # characters in the vocabulary because Wikipedia does have some Chinese + # words in the English Wikipedia.). + text = self._tokenize_chinese_chars(text) + + orig_tokens = whitespace_tokenize(text) + split_tokens = [] + for token in orig_tokens: + if self.do_lower_case: + token = token.lower() + token = self._run_strip_accents(token) + split_tokens.extend(self._run_split_on_punc(token)) + + output_tokens = whitespace_tokenize(" ".join(split_tokens)) + return output_tokens + + def _run_strip_accents(self, text): + """Strips accents from a piece of text.""" + text = unicodedata.normalize("NFD", text) + output = [] + for char in text: + cat = unicodedata.category(char) + if cat == "Mn": + continue + output.append(char) + return "".join(output) + + def _run_split_on_punc(self, text): + """Splits punctuation on a piece of text.""" + chars = list(text) + i = 0 + start_new_word = True + output = [] + while i < len(chars): + char = chars[i] + if _is_punctuation(char): + output.append([char]) + start_new_word = True + else: + if start_new_word: + output.append([]) + start_new_word = False + output[-1].append(char) + i += 1 + + return ["".join(x) for x in output] + + def _tokenize_chinese_chars(self, text): + """Adds whitespace around any CJK character.""" + output = [] + for char in text: + cp = ord(char) + if self._is_chinese_char(cp): + output.append(" ") + output.append(char) + output.append(" ") + else: + output.append(char) + return "".join(output) + + def _is_chinese_char(self, cp): + """Checks whether CP is the codepoint of a CJK character.""" + # This defines a "chinese character" as anything in the CJK Unicode block: + # https://en.wikipedia.org/wiki/CJK_Unified_Ideographs_(Unicode_block) + # + # Note that the CJK Unicode block is NOT all Japanese and Korean characters, + # despite its name. The modern Korean Hangul alphabet is a different block, + # as is Japanese Hiragana and Katakana. Those alphabets are used to write + # space-separated words, so they are not treated specially and handled + # like the all of the other languages. + if ( + (cp >= 0x4E00 and cp <= 0x9FFF) + or (cp >= 0x3400 and cp <= 0x4DBF) # + or (cp >= 0x20000 and cp <= 0x2A6DF) # + or (cp >= 0x2A700 and cp <= 0x2B73F) # + or (cp >= 0x2B740 and cp <= 0x2B81F) # + or (cp >= 0x2B820 and cp <= 0x2CEAF) # + or (cp >= 0xF900 and cp <= 0xFAFF) + or (cp >= 0x2F800 and cp <= 0x2FA1F) # + ): # + return True + + return False + + def _clean_text(self, text): + """Performs invalid character removal and whitespace cleanup on text.""" + output = [] + for char in text: + cp = ord(char) + if cp == 0 or cp == 0xFFFD or _is_control(char): + continue + if _is_whitespace(char): + output.append(" ") + else: + output.append(char) + return "".join(output) + + +class WordpieceTokenizer(object): + """Runs WordPiece tokenziation.""" + + def __init__(self, vocab, unk_token="[UNK]", max_input_chars_per_word=200): + self.vocab = vocab + self.unk_token = unk_token + self.max_input_chars_per_word = max_input_chars_per_word + + def tokenize(self, text): + """Tokenizes a piece of text into its word pieces. + + This uses a greedy longest-match-first algorithm to perform tokenization + using the given vocabulary. + + For example: + input = "unaffable" + output = ["un", "##aff", "##able"] + + Args: + text: A single token or whitespace separated tokens. This should have + already been passed through `BasicTokenizer. + + Returns: + A list of wordpiece tokens. + """ + + text = convert_to_unicode(text) + + output_tokens = [] + for token in whitespace_tokenize(text): + chars = list(token) + if len(chars) > self.max_input_chars_per_word: + output_tokens.append(self.unk_token) + continue + + is_bad = False + start = 0 + sub_tokens = [] + while start < len(chars): + end = len(chars) + cur_substr = None + while start < end: + substr = "".join(chars[start:end]) + if start > 0: + substr = "##" + substr + if substr in self.vocab: + cur_substr = substr + break + end -= 1 + if cur_substr is None: + is_bad = True + break + sub_tokens.append(cur_substr) + start = end + + if is_bad: + output_tokens.append(self.unk_token) + else: + output_tokens.extend(sub_tokens) + return output_tokens + + +def _is_whitespace(char): + """Checks whether `chars` is a whitespace character.""" + # \t, \n, and \r are technically contorl characters but we treat them + # as whitespace since they are generally considered as such. + if char == " " or char == "\t" or char == "\n" or char == "\r": + return True + cat = unicodedata.category(char) + if cat == "Zs": + return True + return False + + +def _is_control(char): + """Checks whether `chars` is a control character.""" + # These are technically control characters but we count them as whitespace + # characters. + if char == "\t" or char == "\n" or char == "\r": + return False + cat = unicodedata.category(char) + if cat in ("Cc", "Cf"): + return True + return False + + +def _is_punctuation(char): + """Checks whether `chars` is a punctuation character.""" + cp = ord(char) + # We treat all non-letter/number ASCII as punctuation. + # Characters such as "^", "$", and "`" are not in the Unicode + # Punctuation class but we treat them as punctuation anyways, for + # consistency. + if ( + cp == 91 or cp == 93 or cp == 43 + ): # [ and ] are not punctuation since they are used in [xx] and the + + return False + + if ( + (cp >= 33 and cp <= 47) + or (cp >= 58 and cp <= 64) + or (cp >= 91 and cp <= 96) + or (cp >= 123 and cp <= 126) + ): + return True + cat = unicodedata.category(char) + if cat.startswith("P"): + return True + return False diff --git a/arabert/arabert_logo.png b/arabert/arabert_logo.png new file mode 100644 index 0000000000000000000000000000000000000000..a5fb97845f58154e9cc41e4f6ea3f997cc8a00d8 Binary files /dev/null and b/arabert/arabert_logo.png differ diff --git a/arabert/araelectra/.gitignore b/arabert/araelectra/.gitignore new file mode 100644 index 0000000000000000000000000000000000000000..c269baf42bbb3afb8ce9d2ca99e8cf6451cc95d8 --- /dev/null +++ b/arabert/araelectra/.gitignore @@ -0,0 +1,4 @@ +__pycache__ +.vscode/ +data/ +*.bat \ No newline at end of file diff --git a/arabert/araelectra/LICENSE b/arabert/araelectra/LICENSE new file mode 100644 index 0000000000000000000000000000000000000000..e8b40e4ec5aa205c07d295ff949b30e1a4ca1690 --- /dev/null +++ b/arabert/araelectra/LICENSE @@ -0,0 +1,76 @@ +========================================== +SOFTWARE LICENSE AGREEMENT - AraELECTRA +========================================== + +* NAME: AraELECTRA: Pre-Training Text Discriminatorsfor Arabic Language Understanding + +* ACKNOWLEDGMENTS + +This [software] was generated by [American +University of Beirut] (“Owners”). The statements +made herein are solely the responsibility of the author[s]. + + The following software programs and programs have been used in the + generation of [AraELECTRA]: + + + ELECTRA + - Kevin Clark and Minh-Thang Luong and Quoc V. Le and Christopher D. Manning. + "ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators" + https://openreview.net/pdf?id=r1xMH1BtvB, 2020. + - License and link : https://github.com/google-research/electra + + + PyArabic + - T. Zerrouki, Pyarabic, An Arabic language library for Python, + https://pypi.python.org/pypi/pyarabic/, 2010 + - License and link: https://github.com/linuxscout/pyarabic/ + +* LICENSE + +This software and database is being provided to you, the LICENSEE, +by the Owners under the following license. By obtaining, using and/or +copying this software and database, you agree that you have read, +understood, and will comply with these terms and conditions. You +further agree that you have read and you will abide by the license +agreements provided in the above links under “acknowledgements”: +Permission to use, copy, modify and distribute this software and +database and its documentation for any purpose and without fee or +royalty is hereby granted, provided that you agree to comply with the +following copyright notice and statements, including the disclaimer, +and that the same appear on ALL copies of the software, database and +documentation, including modifications that you make for internal use +or for distribution. [AraELECTRA] Copyright 2020 by [American University +of Beirut]. All rights reserved. If you remix, transform, or build +upon the material, you must distribute your contributions under the +same license as this one. You may not apply legal terms or technological +measures that legally restrict others from doing anything this license +permits. THIS SOFTWARE IS PROVIDED "AS IS" AND THE OWNERS MAKE NO +REPRESENTATIONS OR WARRANTIES, EXPRESS OR IMPLIED. BY WAY OF EXAMPLE, +BUT NOT LIMITATION, THE OWNERS MAKE NO REPRESENTATIONS OR WARRANTIES OF +MERCHANT-ABILITY OR FITNESS FOR ANY PARTICULAR PURPOSE OR THAT THE USE OF +THE LICENSED SOFTWARE, DATABASE OR DOCUMENTATION WILL NOT INFRINGE ANY THIRD +PARTY PATENTS, COPYRIGHTS, TRADEMARKS OR OTHER RIGHTS. The name of the +Owners may not be used in advertising or publicity pertaining to +distribution of the software and/or database. Title to copyright in +this software, database and any associated documentation shall at all +times remain with the Owners and LICENSEE agrees to preserve same. + +The use of AraELECTRA should be cited as follows: + +@inproceedings{antoun-etal-2021-araelectra, + title = "{A}ra{ELECTRA}: Pre-Training Text Discriminators for {A}rabic Language Understanding", + author = "Antoun, Wissam and + Baly, Fady and + Hajj, Hazem", + booktitle = "Proceedings of the Sixth Arabic Natural Language Processing Workshop", + month = apr, + year = "2021", + address = "Kyiv, Ukraine (Virtual)", + publisher = "Association for Computational Linguistics", + url = "https://www.aclweb.org/anthology/2021.wanlp-1.20", + pages = "191--195", +} + +[AraELECTRA] Copyright 2020 by [American University of Beirut]. +All rights reserved. +========================================== + diff --git a/arabert/araelectra/README.md b/arabert/araelectra/README.md new file mode 100644 index 0000000000000000000000000000000000000000..d19325d61176ee9b8d8e46cb5d0fd316138ff8ff --- /dev/null +++ b/arabert/araelectra/README.md @@ -0,0 +1,144 @@ +# ELECTRA + +## Introduction + +**ELECTRA** is a method for self-supervised language representation learning. It can be used to pre-train transformer networks using relatively little compute. ELECTRA models are trained to distinguish "real" input tokens vs "fake" input tokens generated by another neural network, similar to the discriminator of a [GAN](https://arxiv.org/pdf/1406.2661.pdf). AraELECTRA achieves state-of-the-art results on Arabic QA dataset. + +For a detailed description, please refer to the AraELECTRA paper [AraELECTRA: Pre-Training Text Discriminatorsfor Arabic Language Understanding](https://arxiv.org/abs/2012.15516). + +This repository contains code to pre-train ELECTRA. It also supports fine-tuning ELECTRA on downstream tasks including classification tasks (e.g,. [GLUE](https://gluebenchmark.com/)), QA tasks (e.g., [SQuAD](https://rajpurkar.github.io/SQuAD-explorer/)), and sequence tagging tasks (e.g., [text chunking](https://www.clips.uantwerpen.be/conll2000/chunking/)). + + +## Released Models + +We are releasing two pre-trained models: + +| Model | Layers | Hidden Size | Attention Heads | Params | HuggingFace Model Name | +| --- | --- | --- | --- | --- | --- | +| AraELECTRA-base-discriminator | 12 | 12 | 768 | 136M | [araelectra-base-discriminator](https://huggingface.co/aubmindlab/araelectra-base-discriminator) | +| AraELECTRA-base-generator | 12 |4 | 256 | 60M | [araelectra-base-generator](https://huggingface.co/aubmindlab/araelectra-base-generator) + +## Results + +Model | TyDiQA (EM - F1 ) | ARCD (EM - F1 ) | +|:----|:----:|:----:| +AraBERTv0.1| 68.51 - 82.86 | 31.62 - 67.45 | +AraBERTv1| 61.11 - 79.36 | 31.7 - 67.8 | +AraBERTv0.2-base| 73.07 - 85.41| 32.76 - 66.53| +AraBERTv2-base| 61.67 - 81.66| 31.34 - 67.23 | +AraBERTv0.2-large| 73.72 - 86.03| 36.89 - **71.32** | +AraBERTv2-large| 64.49 - 82.51 | 34.19 - 68.12 | +ArabicBERT-base| 67.42 - 81.24| 30.48 - 62.24 | +ArabicBERT-large| 70.03 - 84.12| 33.33 - 67.27 | +Arabic-ALBERT-base| 67.10 - 80.98| 30.91 - 61.33 | +Arabic-ALBERT-large| 68.07 - 81.59| 34.19 - 65.41 | +Arabic-ALBERT-xlarge| 71.12 - 84.59| **37.75** - 68.03 | +AraELECTRA| **74.91 - 86.68**| 37.03 - 71.22 | + +## Requirements +* Python 3 +* [TensorFlow](https://www.tensorflow.org/) 1.15 (although we hope to support TensorFlow 2.0 at a future date) +* [NumPy](https://numpy.org/) +* [scikit-learn](https://scikit-learn.org/stable/) and [SciPy](https://www.scipy.org/) (for computing some evaluation metrics). + +## Pre-training +Use `build_pretraining_dataset.py` or `build_arabert_pretraining_data.py` to create a pre-training dataset from a dump of raw text. It has the following arguments: + +* `--corpus-dir`: A directory containing raw text files to turn into ELECTRA examples. A text file can contain multiple documents with empty lines separating them. +* `--vocab-file`: File defining the wordpiece vocabulary. +* `--output-dir`: Where to write out ELECTRA examples. +* `--max-seq-length`: The number of tokens per example (128 by default). +* `--num-processes`: If >1 parallelize across multiple processes (1 by default). +* `--blanks-separate-docs`: Whether blank lines indicate document boundaries (True by default). +* `--do-lower-case/--no-lower-case`: Whether to lower case the input text (True by default). + +Use `run_pretraining.py` to pre-train an ELECTRA model. It has the following arguments: + +* `--data-dir`: a directory where pre-training data, model weights, etc. are stored. By default, the training loads examples from `/pretrain_tfrecords` and a vocabulary from `/vocab.txt`. +* `--model-name`: a name for the model being trained. Model weights will be saved in `/models/` by default. +* `--hparams` (optional): a JSON dict or path to a JSON file containing model hyperparameters, data paths, etc. See `configure_pretraining.py` for the supported hyperparameters. + +If training is halted, re-running the `run_pretraining.py` with the same arguments will continue the training where it left off. + +You can continue pre-training from the released ELECTRA checkpoints by +1. Setting the model-name to point to a downloaded model (e.g., `--model-name electra_small` if you downloaded weights to `$DATA_DIR/electra_small`). +2. Setting `num_train_steps` by (for example) adding `"num_train_steps": 4010000` to the `--hparams`. This will continue training the small model for 10000 more steps (it has already been trained for 4e6 steps). +3. Increase the learning rate to account for the linear learning rate decay. For example, to start with a learning rate of 2e-4 you should set the `learning_rate` hparam to 2e-4 * (4e6 + 10000) / 10000. +4. For ELECTRA-Small, you also need to specifiy `"generator_hidden_size": 1.0` in the `hparams` because we did not use a small generator for that model. + +#### Evaluating the pre-trained model. + +To evaluate the model on a downstream task, see the below finetuning instructions. To evaluate the generator/discriminator on the openwebtext data run `python3 run_pretraining.py --data-dir $DATA_DIR --model-name electra_small_owt --hparams '{"do_train": false, "do_eval": true}'`. This will print out eval metrics such as the accuracy of the generator and discriminator, and also writing the metrics out to `data-dir/model-name/results`. + +## Fine-tuning + +Use `run_finetuning.py` to fine-tune and evaluate an ELECTRA model on a downstream NLP task. It expects three arguments: + +* `--data-dir`: a directory where data, model weights, etc. are stored. By default, the script loads finetuning data from `/finetuning_data/` and a vocabulary from `/vocab.txt`. +* `--model-name`: a name of the pre-trained model: the pre-trained weights should exist in `data-dir/models/model-name`. +* `--hparams`: a JSON dict containing model hyperparameters, data paths, etc. (e.g., `--hparams '{"task_names": ["rte"], "model_size": "base", "learning_rate": 1e-4, ...}'`). See `configure_pretraining.py` for the supported hyperparameters. Instead of a dict, this can also be a path to a `.json` file containing the hyperparameters. You must specify the `"task_names"` and `"model_size"` (see examples below). + +Eval metrics will be saved in `data-dir/model-name/results` and model weights will be saved in `data-dir/model-name/finetuning_models` by default. Evaluation is done on the dev set by default. To customize the training, add `--hparams '{"hparam1": value1, "hparam2": value2, ...}'` to the run command. Some particularly useful options: + +* `"debug": true` fine-tunes a tiny ELECTRA model for a few steps. +* `"task_names": ["task_name"]`: specifies the tasks to train on. A list because the codebase nominally supports multi-task learning, (although be warned this has not been thoroughly tested). +* `"model_size": one of "small", "base", or "large"`: determines the size of the model; you must set this to the same size as the pre-trained model. +* `"do_train" and "do_eval"`: train and/or evaluate a model (both are set to true by default). For using `"do_eval": true` with `"do_train": false`, you need to specify the `init_checkpoint`, e.g., `python3 run_finetuning.py --data-dir $DATA_DIR --model-name electra_base --hparams '{"model_size": "base", "task_names": ["mnli"], "do_train": false, "do_eval": true, "init_checkpoint": "/models/electra_base/finetuning_models/mnli_model_1"}'` +* `"num_trials": n`: If >1, does multiple fine-tuning/evaluation runs with different random seeds. +* `"learning_rate": lr, "train_batch_size": n`, etc. can be used to change training hyperparameters. +* `"model_hparam_overrides": {"hidden_size": n, "num_hidden_layers": m}`, etc. can be used to changed the hyperparameters for the underlying transformer (the `"model_size"` flag sets the default values). + +### Setup +Get a pre-trained ELECTRA model either by training your own (see pre-training instructions above), or downloading the release ELECTRA weights and unziping them under `$DATA_DIR/models` (e.g., you should have a directory`$DATA_DIR/models/electra_large` if you are using the large model). + + +### Finetune ELECTRA on question answering + +The code supports [SQuAD](https://rajpurkar.github.io/SQuAD-explorer/) 1.1 and 2.0, as well as datasets in [the 2019 MRQA shared task](https://github.com/mrqa/MRQA-Shared-Task-2019) + +* **ARCD**: Download the train/dev datasets from `https://github.com/husseinmozannar/SOQAL` move them under `$DATA_DIR/finetuning_data/squadv1/(train|dev).json` + +Then run (for example) +``` +python3 run_finetuning.py --data-dir $DATA_DIR --model-name electra_base --hparams '{"model_size": "base", "task_names": ["squad"]}' +``` + +This repository uses the official evaluation code released by the [SQuAD](https://rajpurkar.github.io/SQuAD-explorer/) authors + +or you can use the `transformers` library as shown in the notebook `ARCD_pytorch.ipynb` of `Tydiqa_ar_pytorch.ipynb` from the examples folder + +### Finetune ELECTRA on sequence tagging + +Download the CoNLL-2000 text chunking dataset from [here](https://www.clips.uantwerpen.be/conll2000/chunking/) and put it under `$DATA_DIR/finetuning_data/chunk/(train|dev).txt`. Then run +``` +python3 run_finetuning.py --data-dir $DATA_DIR --model-name electra_base --hparams '{"model_size": "base", "task_names": ["chunk"]}' +``` + +### Adding a new task +The easiest way to run on a new task is to implement a new `finetune.task.Task`, add it to `finetune.task_builder.py`, and then use `run_finetuning.py` as normal. For classification/qa/sequence tagging, you can inherit from a `finetune.classification.classification_tasks.ClassificationTask`, `finetune.qa.qa_tasks.QATask`, or `finetune.tagging.tagging_tasks.TaggingTask`. +For preprocessing data, we use the same tokenizer as [BERT](https://github.com/google-research/bert). + + + + +## Citation + +## If you used this model please cite us as: +``` +@inproceedings{antoun-etal-2021-araelectra, + title = "{A}ra{ELECTRA}: Pre-Training Text Discriminators for {A}rabic Language Understanding", + author = "Antoun, Wissam and + Baly, Fady and + Hajj, Hazem", + booktitle = "Proceedings of the Sixth Arabic Natural Language Processing Workshop", + month = apr, + year = "2021", + address = "Kyiv, Ukraine (Virtual)", + publisher = "Association for Computational Linguistics", + url = "https://www.aclweb.org/anthology/2021.wanlp-1.20", + pages = "191--195", +} +``` + + + diff --git a/arabert/araelectra/__init__.py b/arabert/araelectra/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..9bad5790a5799b96f2e164d825c0b1f8ec0c2dfb --- /dev/null +++ b/arabert/araelectra/__init__.py @@ -0,0 +1 @@ +# coding=utf-8 diff --git a/arabert/araelectra/build_openwebtext_pretraining_dataset.py b/arabert/araelectra/build_openwebtext_pretraining_dataset.py new file mode 100644 index 0000000000000000000000000000000000000000..c50f3c30a7d7d0b7ef9e11b5dddd7d142f87c740 --- /dev/null +++ b/arabert/araelectra/build_openwebtext_pretraining_dataset.py @@ -0,0 +1,103 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Preprocessess the Open WebText corpus for ELECTRA pre-training.""" + +import argparse +import multiprocessing +import os +import random +import tarfile +import time +import tensorflow as tf + +import build_pretraining_dataset +from util import utils + + +def write_examples(job_id, args): + """A single process creating and writing out pre-processed examples.""" + job_tmp_dir = os.path.join(args.data_dir, "tmp", "job_" + str(job_id)) + owt_dir = os.path.join(args.data_dir, "openwebtext") + + def log(*args): + msg = " ".join(map(str, args)) + print("Job {}:".format(job_id), msg) + + log("Creating example writer") + example_writer = build_pretraining_dataset.ExampleWriter( + job_id=job_id, + vocab_file=os.path.join(args.data_dir, "vocab.txt"), + output_dir=os.path.join(args.data_dir, "pretrain_tfrecords"), + max_seq_length=args.max_seq_length, + num_jobs=args.num_processes, + blanks_separate_docs=False, + do_lower_case=args.do_lower_case + ) + log("Writing tf examples") + fnames = sorted(tf.io.gfile.listdir(owt_dir)) + fnames = [f for (i, f) in enumerate(fnames) + if i % args.num_processes == job_id] + random.shuffle(fnames) + start_time = time.time() + for file_no, fname in enumerate(fnames): + if file_no > 0 and file_no % 10 == 0: + elapsed = time.time() - start_time + log("processed {:}/{:} files ({:.1f}%), ELAPSED: {:}s, ETA: {:}s, " + "{:} examples written".format( + file_no, len(fnames), 100.0 * file_no / len(fnames), int(elapsed), + int((len(fnames) - file_no) / (file_no / elapsed)), + example_writer.n_written)) + utils.rmkdir(job_tmp_dir) + with tarfile.open(os.path.join(owt_dir, fname)) as f: + f.extractall(job_tmp_dir) + extracted_files = tf.io.gfile.listdir(job_tmp_dir) + random.shuffle(extracted_files) + for txt_fname in extracted_files: + example_writer.write_examples(os.path.join(job_tmp_dir, txt_fname)) + example_writer.finish() + log("Done!") + + +def main(): + parser = argparse.ArgumentParser(description=__doc__) + parser.add_argument("--data-dir", required=True, + help="Location of data (vocab file, corpus, etc).") + parser.add_argument("--max-seq-length", default=128, type=int, + help="Number of tokens per example.") + parser.add_argument("--num-processes", default=1, type=int, + help="Parallelize across multiple processes.") + parser.add_argument("--do-lower-case", dest='do_lower_case', + action='store_true', help="Lower case input text.") + parser.add_argument("--no-lower-case", dest='do_lower_case', + action='store_false', help="Don't lower case input text.") + parser.set_defaults(do_lower_case=True) + args = parser.parse_args() + + utils.rmkdir(os.path.join(args.data_dir, "pretrain_tfrecords")) + if args.num_processes == 1: + write_examples(0, args) + else: + jobs = [] + for i in range(args.num_processes): + job = multiprocessing.Process(target=write_examples, args=(i, args)) + jobs.append(job) + job.start() + for job in jobs: + job.join() + + +if __name__ == "__main__": + main() diff --git a/arabert/araelectra/build_pretraining_dataset.py b/arabert/araelectra/build_pretraining_dataset.py new file mode 100644 index 0000000000000000000000000000000000000000..4489c1af2f2343a4718ba0531e5d23443575a61f --- /dev/null +++ b/arabert/araelectra/build_pretraining_dataset.py @@ -0,0 +1,230 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Writes out text data as tfrecords that ELECTRA can be pre-trained on.""" + +import argparse +import multiprocessing +import os +import random +import time +import tensorflow as tf + +from model import tokenization +from util import utils + + +def create_int_feature(values): + feature = tf.train.Feature(int64_list=tf.train.Int64List(value=list(values))) + return feature + + +class ExampleBuilder(object): + """Given a stream of input text, creates pretraining examples.""" + + def __init__(self, tokenizer, max_length): + self._tokenizer = tokenizer + self._current_sentences = [] + self._current_length = 0 + self._max_length = max_length + self._target_length = max_length + + def add_line(self, line): + """Adds a line of text to the current example being built.""" + line = line.strip().replace("\n", " ") + if (not line) and self._current_length != 0: # empty lines separate docs + return self._create_example() + bert_tokens = self._tokenizer.tokenize(line) + bert_tokids = self._tokenizer.convert_tokens_to_ids(bert_tokens) + self._current_sentences.append(bert_tokids) + self._current_length += len(bert_tokids) + if self._current_length >= self._target_length: + return self._create_example() + return None + + def _create_example(self): + """Creates a pre-training example from the current list of sentences.""" + # small chance to only have one segment as in classification tasks + if random.random() < 0.1: + first_segment_target_length = 100000 + else: + # -3 due to not yet having [CLS]/[SEP] tokens in the input text + first_segment_target_length = (self._target_length - 3) // 2 + + first_segment = [] + second_segment = [] + for sentence in self._current_sentences: + # the sentence goes to the first segment if (1) the first segment is + # empty, (2) the sentence doesn't put the first segment over length or + # (3) 50% of the time when it does put the first segment over length + if (len(first_segment) == 0 or + len(first_segment) + len(sentence) < first_segment_target_length or + (len(second_segment) == 0 and + len(first_segment) < first_segment_target_length and + random.random() < 0.5)): + first_segment += sentence + else: + second_segment += sentence + + # trim to max_length while accounting for not-yet-added [CLS]/[SEP] tokens + first_segment = first_segment[:self._max_length - 2] + second_segment = second_segment[:max(0, self._max_length - + len(first_segment) - 3)] + + # prepare to start building the next example + self._current_sentences = [] + self._current_length = 0 + # small chance for random-length instead of max_length-length example + if random.random() < 0.05: + self._target_length = random.randint(5, self._max_length) + else: + self._target_length = self._max_length + + return self._make_tf_example(first_segment, second_segment) + + def _make_tf_example(self, first_segment, second_segment): + """Converts two "segments" of text into a tf.train.Example.""" + vocab = self._tokenizer.vocab + input_ids = [vocab["[CLS]"]] + first_segment + [vocab["[SEP]"]] + segment_ids = [0] * len(input_ids) + if second_segment: + input_ids += second_segment + [vocab["[SEP]"]] + segment_ids += [1] * (len(second_segment) + 1) + input_mask = [1] * len(input_ids) + input_ids += [0] * (self._max_length - len(input_ids)) + input_mask += [0] * (self._max_length - len(input_mask)) + segment_ids += [0] * (self._max_length - len(segment_ids)) + tf_example = tf.train.Example(features=tf.train.Features(feature={ + "input_ids": create_int_feature(input_ids), + "input_mask": create_int_feature(input_mask), + "segment_ids": create_int_feature(segment_ids) + })) + return tf_example + + +class ExampleWriter(object): + """Writes pre-training examples to disk.""" + + def __init__(self, job_id, vocab_file, output_dir, max_seq_length, + num_jobs, blanks_separate_docs, do_lower_case, + num_out_files=1000): + self._blanks_separate_docs = blanks_separate_docs + tokenizer = tokenization.FullTokenizer( + vocab_file=vocab_file, + do_lower_case=do_lower_case) + self._example_builder = ExampleBuilder(tokenizer, max_seq_length) + self._writers = [] + for i in range(num_out_files): + if i % num_jobs == job_id: + output_fname = os.path.join( + output_dir, "pretrain_data.tfrecord-{:}-of-{:}".format( + i, num_out_files)) + self._writers.append(tf.io.TFRecordWriter(output_fname)) + self.n_written = 0 + + def write_examples(self, input_file): + """Writes out examples from the provided input file.""" + with tf.io.gfile.GFile(input_file) as f: + for line in f: + line = line.strip() + if line or self._blanks_separate_docs: + example = self._example_builder.add_line(line) + if example: + self._writers[self.n_written % len(self._writers)].write( + example.SerializeToString()) + self.n_written += 1 + example = self._example_builder.add_line("") + if example: + self._writers[self.n_written % len(self._writers)].write( + example.SerializeToString()) + self.n_written += 1 + + def finish(self): + for writer in self._writers: + writer.close() + + +def write_examples(job_id, args): + """A single process creating and writing out pre-processed examples.""" + + def log(*args): + msg = " ".join(map(str, args)) + print("Job {}:".format(job_id), msg) + + log("Creating example writer") + example_writer = ExampleWriter( + job_id=job_id, + vocab_file=args.vocab_file, + output_dir=args.output_dir, + max_seq_length=args.max_seq_length, + num_jobs=args.num_processes, + blanks_separate_docs=args.blanks_separate_docs, + do_lower_case=args.do_lower_case + ) + log("Writing tf examples") + fnames = sorted(tf.io.gfile.listdir(args.corpus_dir)) + fnames = [f for (i, f) in enumerate(fnames) + if i % args.num_processes == job_id] + random.shuffle(fnames) + start_time = time.time() + for file_no, fname in enumerate(fnames): + if file_no > 0: + elapsed = time.time() - start_time + log("processed {:}/{:} files ({:.1f}%), ELAPSED: {:}s, ETA: {:}s, " + "{:} examples written".format( + file_no, len(fnames), 100.0 * file_no / len(fnames), int(elapsed), + int((len(fnames) - file_no) / (file_no / elapsed)), + example_writer.n_written)) + example_writer.write_examples(os.path.join(args.corpus_dir, fname)) + example_writer.finish() + log("Done!") + + +def main(): + parser = argparse.ArgumentParser(description=__doc__) + parser.add_argument("--corpus-dir", required=True, + help="Location of pre-training text files.") + parser.add_argument("--vocab-file", required=True, + help="Location of vocabulary file.") + parser.add_argument("--output-dir", required=True, + help="Where to write out the tfrecords.") + parser.add_argument("--max-seq-length", default=128, type=int, + help="Number of tokens per example.") + parser.add_argument("--num-processes", default=1, type=int, + help="Parallelize across multiple processes.") + parser.add_argument("--blanks-separate-docs", default=True, type=bool, + help="Whether blank lines indicate document boundaries.") + parser.add_argument("--do-lower-case", dest='do_lower_case', + action='store_true', help="Lower case input text.") + parser.add_argument("--no-lower-case", dest='do_lower_case', + action='store_false', help="Don't lower case input text.") + parser.set_defaults(do_lower_case=True) + args = parser.parse_args() + + utils.rmkdir(args.output_dir) + if args.num_processes == 1: + write_examples(0, args) + else: + jobs = [] + for i in range(args.num_processes): + job = multiprocessing.Process(target=write_examples, args=(i, args)) + jobs.append(job) + job.start() + for job in jobs: + job.join() + + +if __name__ == "__main__": + main() diff --git a/arabert/araelectra/build_pretraining_dataset_single_file.py b/arabert/araelectra/build_pretraining_dataset_single_file.py new file mode 100644 index 0000000000000000000000000000000000000000..8ad4d30491609d2ba9c9caf109ab5e04e29a681d --- /dev/null +++ b/arabert/araelectra/build_pretraining_dataset_single_file.py @@ -0,0 +1,90 @@ +# coding=utf-8 + +import argparse +import os +import tensorflow as tf + +import build_pretraining_dataset +from model import tokenization + +class ExampleWriter(object): + """Writes pre-training examples to disk.""" + + def __init__(self, input_fname, vocab_file, output_dir, max_seq_length, + blanks_separate_docs, do_lower_case): + self._blanks_separate_docs = blanks_separate_docs + tokenizer = tokenization.FullTokenizer( + vocab_file=vocab_file, + do_lower_case=do_lower_case) + self._example_builder = build_pretraining_dataset.ExampleBuilder(tokenizer, max_seq_length) + output_fname = os.path.join(output_dir, "{}.tfrecord".format(input_fname.split("/")[-1])) + self._writer = tf.io.TFRecordWriter(output_fname) + self.n_written = 0 + + def write_examples(self, input_file): + """Writes out examples from the provided input file.""" + with tf.io.gfile.GFile(input_file) as f: + for line in f: + line = line.strip() + if line or self._blanks_separate_docs: + example = self._example_builder.add_line(line) + if example: + self._writer.write(example.SerializeToString()) + self.n_written += 1 + example = self._example_builder.add_line("") + if example: + self._writer.write(example.SerializeToString()) + self.n_written += 1 + + def finish(self): + self._writer.close() + +def write_examples(args): + """A single process creating and writing out pre-processed examples.""" + + def log(*args): + msg = " ".join(map(str, args)) + print(msg) + + log("Creating example writer") + example_writer = ExampleWriter( + input_fname=args.input_file, + vocab_file=args.vocab_file, + output_dir=args.output_dir, + max_seq_length=args.max_seq_length, + blanks_separate_docs=args.blanks_separate_docs, + do_lower_case=args.do_lower_case + ) + log("Writing tf example") + + example_writer.write_examples(args.input_file) + example_writer.finish() + log("Done!") + return + + +def main(): + parser = argparse.ArgumentParser(description=__doc__) + parser.add_argument("--input-file", required=True, + help="Location of pre-training text files.") + parser.add_argument("--vocab-file", required=True, + help="Location of vocabulary file.") + parser.add_argument("--output-dir", required=True, + help="Where to write out the tfrecords.") + parser.add_argument("--max-seq-length", default=128, type=int, + help="Number of tokens per example.") + parser.add_argument("--blanks-separate-docs", default=True, type=bool, + help="Whether blank lines indicate document boundaries.") + parser.add_argument("--do-lower-case", dest='do_lower_case', + action='store_true', help="Lower case input text.") + parser.add_argument("--no-lower-case", dest='do_lower_case', + action='store_false', help="Don't lower case input text.") + parser.set_defaults(do_lower_case=True) + args = parser.parse_args() + + write_examples(args) + + + +if __name__ == "__main__": + main() \ No newline at end of file diff --git a/arabert/araelectra/configure_finetuning.py b/arabert/araelectra/configure_finetuning.py new file mode 100644 index 0000000000000000000000000000000000000000..e895fb9c05d79b590f8d64370d343e36830090e7 --- /dev/null +++ b/arabert/araelectra/configure_finetuning.py @@ -0,0 +1,172 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Config controlling hyperparameters for fine-tuning ELECTRA.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import os + +import tensorflow as tf + + +class FinetuningConfig(object): + """Fine-tuning hyperparameters.""" + + def __init__(self, model_name, data_dir, **kwargs): + # general + self.model_name = model_name + self.debug = False # debug mode for quickly running things + self.log_examples = False # print out some train examples for debugging + self.num_trials = 1 # how many train+eval runs to perform + self.do_train = True # train a model + self.do_eval = True # evaluate the model + self.keep_all_models = True # if False, only keep the last trial's ckpt + + # model + self.model_size = "base" # one of "small", "base", or "large" + self.task_names = ["chunk"] # which tasks to learn + # override the default transformer hparams for the provided model size; see + # modeling.BertConfig for the possible hparams and util.training_utils for + # the defaults + self.model_hparam_overrides = ( + kwargs["model_hparam_overrides"] + if "model_hparam_overrides" in kwargs else {}) + self.embedding_size = None # bert hidden size by default + self.vocab_size = 64000 # number of tokens in the vocabulary + self.do_lower_case = True + + # training + self.learning_rate = 1e-4 + self.weight_decay_rate = 0.01 + self.layerwise_lr_decay = 0.8 # if > 0, the learning rate for a layer is + # lr * lr_decay^(depth - max_depth) i.e., + # shallower layers have lower learning rates + self.num_train_epochs = 3.0 # passes over the dataset during training + self.warmup_proportion = 0.1 # how much of training to warm up the LR for + self.save_checkpoints_steps = 1000000 + self.iterations_per_loop = 1000 + self.use_tfrecords_if_existing = True # don't make tfrecords and write them + # to disc if existing ones are found + + # writing model outputs to disc + self.write_test_outputs = False # whether to write test set outputs, + # currently supported for GLUE + SQuAD 2.0 + self.n_writes_test = 5 # write test set predictions for the first n trials + + # sizing + self.max_seq_length = 128 + self.train_batch_size = 32 + self.eval_batch_size = 32 + self.predict_batch_size = 32 + self.double_unordered = True # for tasks like paraphrase where sentence + # order doesn't matter, train the model on + # on both sentence orderings for each example + # for qa tasks + self.max_query_length = 64 # max tokens in q as opposed to context + self.doc_stride = 128 # stride when splitting doc into multiple examples + self.n_best_size = 20 # number of predictions per example to save + self.max_answer_length = 30 # filter out answers longer than this length + self.answerable_classifier = True # answerable classifier for SQuAD 2.0 + self.answerable_uses_start_logits = True # more advanced answerable + # classifier using predicted start + self.answerable_weight = 0.5 # weight for answerability loss + self.joint_prediction = True # jointly predict the start and end positions + # of the answer span + self.beam_size = 20 # beam size when doing joint predictions + self.qa_na_threshold = -2.75 # threshold for "no answer" when writing SQuAD + # 2.0 test outputs + + # TPU settings + self.use_tpu = False + self.num_tpu_cores = 1 + self.tpu_job_name = None + self.tpu_name = None # cloud TPU to use for training + self.tpu_zone = None # GCE zone where the Cloud TPU is located in + self.gcp_project = None # project name for the Cloud TPU-enabled project + + # default locations of data files + self.data_dir = data_dir + pretrained_model_dir = os.path.join(data_dir, "models", model_name) + self.raw_data_dir = os.path.join(data_dir, "finetuning_data", "{:}").format + self.vocab_file = os.path.join(pretrained_model_dir, "vocab.txt") + if not tf.io.gfile.exists(self.vocab_file): + self.vocab_file = os.path.join(self.data_dir, "vocab.txt") + task_names_str = ",".join( + kwargs["task_names"] if "task_names" in kwargs else self.task_names) + self.init_checkpoint = None if self.debug else pretrained_model_dir + self.model_dir = os.path.join(pretrained_model_dir, "finetuning_models", + task_names_str + "_model") + results_dir = os.path.join(pretrained_model_dir, "results") + self.results_txt = os.path.join(results_dir, + task_names_str + "_results.txt") + self.results_pkl = os.path.join(results_dir, + task_names_str + "_results.pkl") + qa_topdir = os.path.join(results_dir, task_names_str + "_qa") + self.qa_eval_file = os.path.join(qa_topdir, "{:}_eval.json").format + self.qa_preds_file = os.path.join(qa_topdir, "{:}_preds.json").format + self.qa_na_file = os.path.join(qa_topdir, "{:}_null_odds.json").format + self.preprocessed_data_dir = os.path.join( + pretrained_model_dir, "finetuning_tfrecords", + task_names_str + "_tfrecords" + ("-debug" if self.debug else "")) + self.test_predictions = os.path.join( + pretrained_model_dir, "test_predictions", + "{:}_{:}_{:}_predictions.pkl").format + + # update defaults with passed-in hyperparameters + self.update(kwargs) + + # default hyperparameters for single-task models + if len(self.task_names) == 1: + task_name = self.task_names[0] + if task_name == "rte" or task_name == "sts": + self.num_train_epochs = 10.0 + elif "squad" in task_name or "qa" in task_name: + self.max_seq_length = 512 + self.num_train_epochs = 2.0 + self.write_distill_outputs = False + self.write_test_outputs = False + elif task_name == "chunk": + self.max_seq_length = 256 + else: + self.num_train_epochs = 3.0 + + # default hyperparameters for different model sizes + if self.model_size == "large": + self.learning_rate = 5e-5 + self.layerwise_lr_decay = 0.9 + elif self.model_size == "small": + self.embedding_size = 128 + + # debug-mode settings + if self.debug: + self.save_checkpoints_steps = 1000000 + self.use_tfrecords_if_existing = False + self.num_trials = 1 + self.iterations_per_loop = 1 + self.train_batch_size = 32 + self.num_train_epochs = 3.0 + self.log_examples = True + + # passed-in-arguments override (for example) debug-mode defaults + self.update(kwargs) + + def update(self, kwargs): + for k, v in kwargs.items(): + if k not in self.__dict__: + raise ValueError("Unknown hparam " + k) + self.__dict__[k] = v diff --git a/arabert/araelectra/configure_pretraining.py b/arabert/araelectra/configure_pretraining.py new file mode 100644 index 0000000000000000000000000000000000000000..857ca0268cff221658399b2565588ea56b544275 --- /dev/null +++ b/arabert/araelectra/configure_pretraining.py @@ -0,0 +1,143 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Config controlling hyperparameters for pre-training ELECTRA.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import os + + +class PretrainingConfig(object): + """Defines pre-training hyperparameters.""" + + def __init__(self, model_name, data_dir, **kwargs): + self.model_name = model_name + self.debug = False # debug mode for quickly running things + self.do_train = True # pre-train ELECTRA + self.do_eval = False # evaluate generator/discriminator on unlabeled data + + # loss functions + # train ELECTRA or Electric? if both are false, trains a masked LM like BERT + self.electra_objective = True + self.electric_objective = False + self.gen_weight = 1.0 # masked language modeling / generator loss + self.disc_weight = 50.0 # discriminator loss + self.mask_prob = 0.15 # percent of input tokens to mask out / replace + + # optimization + self.learning_rate = 2e-4 + self.lr_decay_power = 1.0 # linear weight decay by default + self.weight_decay_rate = 0.01 + self.num_warmup_steps = 10000 + + # training settings + self.iterations_per_loop = 5000 + self.save_checkpoints_steps = 25000 + self.num_train_steps = 2000000 + self.num_eval_steps = 10000 + self.keep_checkpoint_max = 0 # maximum number of recent checkpoint files to keep; + # change to 0 or None to keep all checkpoints + + # model settings + self.model_size = "base" # one of "small", "base", or "large" + # override the default transformer hparams for the provided model size; see + # modeling.BertConfig for the possible hparams and util.training_utils for + # the defaults + self.model_hparam_overrides = ( + kwargs["model_hparam_overrides"] + if "model_hparam_overrides" in kwargs else {}) + self.embedding_size = None # bert hidden size by default + self.vocab_size = 64000 # number of tokens in the vocabulary + self.do_lower_case = False # lowercase the input? + + # generator settings + self.uniform_generator = False # generator is uniform at random + self.two_tower_generator = False # generator is a two-tower cloze model + self.untied_generator_embeddings = False # tie generator/discriminator + # token embeddings? + self.untied_generator = True # tie all generator/discriminator weights? + self.generator_layers = 1.0 # frac of discriminator layers for generator + self.generator_hidden_size = 0.25 # frac of discrim hidden size for gen + self.disallow_correct = False # force the generator to sample incorrect + # tokens (so 15% of tokens are always + # fake) + self.temperature = 1.0 # temperature for sampling from generator + + # batch sizes + self.max_seq_length = 512 + self.train_batch_size = 256 + self.eval_batch_size = 256 + + # TPU settings + self.use_tpu = True + self.num_tpu_cores = 8 + self.tpu_job_name = None + self.tpu_name = "" # cloud TPU to use for training + self.tpu_zone = "" # GCE zone where the Cloud TPU is located in + self.gcp_project = "" # project name for the Cloud TPU-enabled project + + # default locations of data files + self.pretrain_tfrecords = os.path.join( + data_dir, "pretraining_data/512/*") + self.vocab_file = os.path.join(data_dir, "bertvocab_final.txt") + self.model_dir = os.path.join(data_dir, "models", model_name) + results_dir = os.path.join(self.model_dir, "results") + self.results_txt = os.path.join(results_dir, "unsup_results.txt") + self.results_pkl = os.path.join(results_dir, "unsup_results.pkl") + + # update defaults with passed-in hyperparameters + self.update(kwargs) + + self.max_predictions_per_seq = int((self.mask_prob + 0.005) * + self.max_seq_length) + + # debug-mode settings + if self.debug: + self.train_batch_size = 8 + self.num_train_steps = 20 + self.eval_batch_size = 4 + self.iterations_per_loop = 1 + self.num_eval_steps = 2 + + # defaults for different-sized model + if self.model_size == "small": + self.embedding_size = 128 + # Here are the hyperparameters we used for larger models; see Table 6 in the + # paper for the full hyperparameters + else: + self.max_seq_length = 512 + self.learning_rate = 2e-4 + if self.model_size == "base": + self.embedding_size = 768 + self.generator_hidden_size = 0.33333 + self.train_batch_size = 256 + else: + self.embedding_size = 1024 + self.mask_prob = 0.25 + self.train_batch_size = 2048 + if self.electric_objective: + self.two_tower_generator = True # electric requires a two-tower generator + + # passed-in-arguments override (for example) debug-mode defaults + self.update(kwargs) + + def update(self, kwargs): + for k, v in kwargs.items(): + if k not in self.__dict__: + raise ValueError("Unknown hparam " + k) + self.__dict__[k] = v diff --git a/arabert/araelectra/finetune/__init__.py b/arabert/araelectra/finetune/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..4241467eddcc96d95c06850ff13fbaa2e3739acb --- /dev/null +++ b/arabert/araelectra/finetune/__init__.py @@ -0,0 +1,14 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. \ No newline at end of file diff --git a/arabert/araelectra/finetune/classification/classification_metrics.py b/arabert/araelectra/finetune/classification/classification_metrics.py new file mode 100644 index 0000000000000000000000000000000000000000..fdb764a28df4b13351c83a811586d006d3a23133 --- /dev/null +++ b/arabert/araelectra/finetune/classification/classification_metrics.py @@ -0,0 +1,116 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Evaluation metrics for classification tasks.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import abc +import numpy as np +import scipy +import sklearn + +from finetune import scorer + + +class SentenceLevelScorer(scorer.Scorer): + """Abstract scorer for classification/regression tasks.""" + + __metaclass__ = abc.ABCMeta + + def __init__(self): + super(SentenceLevelScorer, self).__init__() + self._total_loss = 0 + self._true_labels = [] + self._preds = [] + + def update(self, results): + super(SentenceLevelScorer, self).update(results) + self._total_loss += results['loss'] + self._true_labels.append(results['label_ids'] if 'label_ids' in results + else results['targets']) + self._preds.append(results['predictions']) + + def get_loss(self): + return self._total_loss / len(self._true_labels) + + +class AccuracyScorer(SentenceLevelScorer): + + def _get_results(self): + correct, count = 0, 0 + for y_true, pred in zip(self._true_labels, self._preds): + count += 1 + correct += (1 if y_true == pred else 0) + return [ + ('accuracy', 100.0 * correct / count), + ('loss', self.get_loss()), + ] + + +class F1Scorer(SentenceLevelScorer): + """Computes F1 for classification tasks.""" + + def __init__(self): + super(F1Scorer, self).__init__() + self._positive_label = 1 + + def _get_results(self): + n_correct, n_predicted, n_gold = 0, 0, 0 + for y_true, pred in zip(self._true_labels, self._preds): + if pred == self._positive_label: + n_gold += 1 + if pred == self._positive_label: + n_predicted += 1 + if pred == y_true: + n_correct += 1 + if n_correct == 0: + p, r, f1 = 0, 0, 0 + else: + p = 100.0 * n_correct / n_predicted + r = 100.0 * n_correct / n_gold + f1 = 2 * p * r / (p + r) + return [ + ('precision', p), + ('recall', r), + ('f1', f1), + ('loss', self.get_loss()), + ] + + +class MCCScorer(SentenceLevelScorer): + + def _get_results(self): + return [ + ('mcc', 100 * sklearn.metrics.matthews_corrcoef( + self._true_labels, self._preds)), + ('loss', self.get_loss()), + ] + + +class RegressionScorer(SentenceLevelScorer): + + def _get_results(self): + preds = np.array(self._preds).flatten() + return [ + ('pearson', 100.0 * scipy.stats.pearsonr( + self._true_labels, preds)[0]), + ('spearman', 100.0 * scipy.stats.spearmanr( + self._true_labels, preds)[0]), + ('mse', np.mean(np.square(np.array(self._true_labels) - self._preds))), + ('loss', self.get_loss()), + ] diff --git a/arabert/araelectra/finetune/classification/classification_tasks.py b/arabert/araelectra/finetune/classification/classification_tasks.py new file mode 100644 index 0000000000000000000000000000000000000000..595e5dc594bbe8fb174f6d4cc037b6160551bff5 --- /dev/null +++ b/arabert/araelectra/finetune/classification/classification_tasks.py @@ -0,0 +1,439 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Text classification and regression tasks.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import abc +import csv +import os +import tensorflow as tf + +import configure_finetuning +from finetune import feature_spec +from finetune import task +from finetune.classification import classification_metrics +from model import tokenization +from util import utils + + +class InputExample(task.Example): + """A single training/test example for simple sequence classification.""" + + def __init__(self, eid, task_name, text_a, text_b=None, label=None): + super(InputExample, self).__init__(task_name) + self.eid = eid + self.text_a = text_a + self.text_b = text_b + self.label = label + + +class SingleOutputTask(task.Task): + """Task with a single prediction per example (e.g., text classification).""" + + __metaclass__ = abc.ABCMeta + + def __init__(self, config: configure_finetuning.FinetuningConfig, name, + tokenizer): + super(SingleOutputTask, self).__init__(config, name) + self._tokenizer = tokenizer + + def get_examples(self, split): + return self._create_examples(read_tsv( + os.path.join(self.config.raw_data_dir(self.name), split + ".tsv"), + max_lines=100 if self.config.debug else None), split) + + @abc.abstractmethod + def _create_examples(self, lines, split): + pass + + def featurize(self, example: InputExample, is_training, log=False): + """Turn an InputExample into a dict of features.""" + tokens_a = self._tokenizer.tokenize(example.text_a) + tokens_b = None + if example.text_b: + tokens_b = self._tokenizer.tokenize(example.text_b) + + if tokens_b: + # Modifies `tokens_a` and `tokens_b` in place so that the total + # length is less than the specified length. + # Account for [CLS], [SEP], [SEP] with "- 3" + _truncate_seq_pair(tokens_a, tokens_b, self.config.max_seq_length - 3) + else: + # Account for [CLS] and [SEP] with "- 2" + if len(tokens_a) > self.config.max_seq_length - 2: + tokens_a = tokens_a[0:(self.config.max_seq_length - 2)] + + # The convention in BERT is: + # (a) For sequence pairs: + # tokens: [CLS] is this jack ##son ##ville ? [SEP] no it is not . [SEP] + # type_ids: 0 0 0 0 0 0 0 0 1 1 1 1 1 1 + # (b) For single sequences: + # tokens: [CLS] the dog is hairy . [SEP] + # type_ids: 0 0 0 0 0 0 0 + # + # Where "type_ids" are used to indicate whether this is the first + # sequence or the second sequence. The embedding vectors for `type=0` and + # `type=1` were learned during pre-training and are added to the wordpiece + # embedding vector (and position vector). This is not *strictly* necessary + # since the [SEP] token unambiguously separates the sequences, but it + # makes it easier for the model to learn the concept of sequences. + # + # For classification tasks, the first vector (corresponding to [CLS]) is + # used as the "sentence vector". Note that this only makes sense because + # the entire model is fine-tuned. + tokens = [] + segment_ids = [] + tokens.append("[CLS]") + segment_ids.append(0) + for token in tokens_a: + tokens.append(token) + segment_ids.append(0) + tokens.append("[SEP]") + segment_ids.append(0) + + if tokens_b: + for token in tokens_b: + tokens.append(token) + segment_ids.append(1) + tokens.append("[SEP]") + segment_ids.append(1) + + input_ids = self._tokenizer.convert_tokens_to_ids(tokens) + + # The mask has 1 for real tokens and 0 for padding tokens. Only real + # tokens are attended to. + input_mask = [1] * len(input_ids) + + # Zero-pad up to the sequence length. + while len(input_ids) < self.config.max_seq_length: + input_ids.append(0) + input_mask.append(0) + segment_ids.append(0) + + assert len(input_ids) == self.config.max_seq_length + assert len(input_mask) == self.config.max_seq_length + assert len(segment_ids) == self.config.max_seq_length + + if log: + utils.log(" Example {:}".format(example.eid)) + utils.log(" tokens: {:}".format(" ".join( + [tokenization.printable_text(x) for x in tokens]))) + utils.log(" input_ids: {:}".format(" ".join(map(str, input_ids)))) + utils.log(" input_mask: {:}".format(" ".join(map(str, input_mask)))) + utils.log(" segment_ids: {:}".format(" ".join(map(str, segment_ids)))) + + eid = example.eid + features = { + "input_ids": input_ids, + "input_mask": input_mask, + "segment_ids": segment_ids, + "task_id": self.config.task_names.index(self.name), + self.name + "_eid": eid, + } + self._add_features(features, example, log) + return features + + def _load_glue(self, lines, split, text_a_loc, text_b_loc, label_loc, + skip_first_line=False, eid_offset=0, swap=False): + examples = [] + for (i, line) in enumerate(lines): + try: + if i == 0 and skip_first_line: + continue + eid = i - (1 if skip_first_line else 0) + eid_offset + text_a = tokenization.convert_to_unicode(line[text_a_loc]) + if text_b_loc is None: + text_b = None + else: + text_b = tokenization.convert_to_unicode(line[text_b_loc]) + if "test" in split or "diagnostic" in split: + label = self._get_dummy_label() + else: + label = tokenization.convert_to_unicode(line[label_loc]) + if swap: + text_a, text_b = text_b, text_a + examples.append(InputExample(eid=eid, task_name=self.name, + text_a=text_a, text_b=text_b, label=label)) + except Exception as ex: + utils.log("Error constructing example from line", i, + "for task", self.name + ":", ex) + utils.log("Input causing the error:", line) + return examples + + @abc.abstractmethod + def _get_dummy_label(self): + pass + + @abc.abstractmethod + def _add_features(self, features, example, log): + pass + + +class RegressionTask(SingleOutputTask): + """Task where the output is a real-valued score for the input text.""" + + __metaclass__ = abc.ABCMeta + + def __init__(self, config: configure_finetuning.FinetuningConfig, name, + tokenizer, min_value, max_value): + super(RegressionTask, self).__init__(config, name, tokenizer) + self._tokenizer = tokenizer + self._min_value = min_value + self._max_value = max_value + + def _get_dummy_label(self): + return 0.0 + + def get_feature_specs(self): + feature_specs = [feature_spec.FeatureSpec(self.name + "_eid", []), + feature_spec.FeatureSpec(self.name + "_targets", [], + is_int_feature=False)] + return feature_specs + + def _add_features(self, features, example, log): + label = float(example.label) + assert self._min_value <= label <= self._max_value + # simple normalization of the label + label = (label - self._min_value) / self._max_value + if log: + utils.log(" label: {:}".format(label)) + features[example.task_name + "_targets"] = label + + def get_prediction_module(self, bert_model, features, is_training, + percent_done): + reprs = bert_model.get_pooled_output() + if is_training: + reprs = tf.nn.dropout(reprs, keep_prob=0.9) + + predictions = tf.layers.dense(reprs, 1) + predictions = tf.squeeze(predictions, -1) + + targets = features[self.name + "_targets"] + losses = tf.square(predictions - targets) + outputs = dict( + loss=losses, + predictions=predictions, + targets=features[self.name + "_targets"], + eid=features[self.name + "_eid"] + ) + return losses, outputs + + def get_scorer(self): + return classification_metrics.RegressionScorer() + + +class ClassificationTask(SingleOutputTask): + """Task where the output is a single categorical label for the input text.""" + __metaclass__ = abc.ABCMeta + + def __init__(self, config: configure_finetuning.FinetuningConfig, name, + tokenizer, label_list): + super(ClassificationTask, self).__init__(config, name, tokenizer) + self._tokenizer = tokenizer + self._label_list = label_list + + def _get_dummy_label(self): + return self._label_list[0] + + def get_feature_specs(self): + return [feature_spec.FeatureSpec(self.name + "_eid", []), + feature_spec.FeatureSpec(self.name + "_label_ids", [])] + + def _add_features(self, features, example, log): + label_map = {} + for (i, label) in enumerate(self._label_list): + label_map[label] = i + label_id = label_map[example.label] + if log: + utils.log(" label: {:} (id = {:})".format(example.label, label_id)) + features[example.task_name + "_label_ids"] = label_id + + def get_prediction_module(self, bert_model, features, is_training, + percent_done): + num_labels = len(self._label_list) + reprs = bert_model.get_pooled_output() + + if is_training: + reprs = tf.nn.dropout(reprs, keep_prob=0.9) + + logits = tf.layers.dense(reprs, num_labels) + log_probs = tf.nn.log_softmax(logits, axis=-1) + + label_ids = features[self.name + "_label_ids"] + labels = tf.one_hot(label_ids, depth=num_labels, dtype=tf.float32) + + losses = -tf.reduce_sum(labels * log_probs, axis=-1) + + outputs = dict( + loss=losses, + logits=logits, + predictions=tf.argmax(logits, axis=-1), + label_ids=label_ids, + eid=features[self.name + "_eid"], + ) + return losses, outputs + + def get_scorer(self): + return classification_metrics.AccuracyScorer() + + +def _truncate_seq_pair(tokens_a, tokens_b, max_length): + """Truncates a sequence pair in place to the maximum length.""" + + # This is a simple heuristic which will always truncate the longer sequence + # one token at a time. This makes more sense than truncating an equal percent + # of tokens from each, since if one sequence is very short then each token + # that's truncated likely contains more information than a longer sequence. + while True: + total_length = len(tokens_a) + len(tokens_b) + if total_length <= max_length: + break + if len(tokens_a) > len(tokens_b): + tokens_a.pop() + else: + tokens_b.pop() + + +def read_tsv(input_file, quotechar=None, max_lines=None): + """Reads a tab separated value file.""" + with tf.io.gfile.GFile(input_file, "r") as f: + reader = csv.reader(f, delimiter="\t", quotechar=quotechar) + lines = [] + for i, line in enumerate(reader): + if max_lines and i >= max_lines: + break + lines.append(line) + return lines + + +class MNLI(ClassificationTask): + """Multi-NLI.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(MNLI, self).__init__(config, "mnli", tokenizer, + ["contradiction", "entailment", "neutral"]) + + def get_examples(self, split): + if split == "dev": + split += "_matched" + return self._create_examples(read_tsv( + os.path.join(self.config.raw_data_dir(self.name), split + ".tsv"), + max_lines=100 if self.config.debug else None), split) + + def _create_examples(self, lines, split): + if split == "diagnostic": + return self._load_glue(lines, split, 1, 2, None, True) + else: + return self._load_glue(lines, split, 8, 9, -1, True) + + def get_test_splits(self): + return ["test_matched", "test_mismatched", "diagnostic"] + + +class MRPC(ClassificationTask): + """Microsoft Research Paraphrase Corpus.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(MRPC, self).__init__(config, "mrpc", tokenizer, ["0", "1"]) + + def _create_examples(self, lines, split): + examples = [] + examples += self._load_glue(lines, split, 3, 4, 0, True) + if self.config.double_unordered and split == "train": + examples += self._load_glue( + lines, split, 3, 4, 0, True, len(examples), True) + return examples + + +class CoLA(ClassificationTask): + """Corpus of Linguistic Acceptability.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(CoLA, self).__init__(config, "cola", tokenizer, ["0", "1"]) + + def _create_examples(self, lines, split): + return self._load_glue(lines, split, 1 if split == "test" else 3, + None, 1, split == "test") + + def get_scorer(self): + return classification_metrics.MCCScorer() + + +class SST(ClassificationTask): + """Stanford Sentiment Treebank.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(SST, self).__init__(config, "sst", tokenizer, ["0", "1"]) + + def _create_examples(self, lines, split): + if "test" in split: + return self._load_glue(lines, split, 1, None, None, True) + else: + return self._load_glue(lines, split, 0, None, 1, True) + + +class QQP(ClassificationTask): + """Quora Question Pair.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(QQP, self).__init__(config, "qqp", tokenizer, ["0", "1"]) + + def _create_examples(self, lines, split): + return self._load_glue(lines, split, 1 if split == "test" else 3, + 2 if split == "test" else 4, 5, True) + + +class RTE(ClassificationTask): + """Recognizing Textual Entailment.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(RTE, self).__init__(config, "rte", tokenizer, + ["entailment", "not_entailment"]) + + def _create_examples(self, lines, split): + return self._load_glue(lines, split, 1, 2, 3, True) + + +class QNLI(ClassificationTask): + """Question NLI.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(QNLI, self).__init__(config, "qnli", tokenizer, + ["entailment", "not_entailment"]) + + def _create_examples(self, lines, split): + return self._load_glue(lines, split, 1, 2, 3, True) + + +class STS(RegressionTask): + """Semantic Textual Similarity.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(STS, self).__init__(config, "sts", tokenizer, 0.0, 5.0) + + def _create_examples(self, lines, split): + examples = [] + if split == "test": + examples += self._load_glue(lines, split, -2, -1, None, True) + else: + examples += self._load_glue(lines, split, -3, -2, -1, True) + if self.config.double_unordered and split == "train": + examples += self._load_glue( + lines, split, -3, -2, -1, True, len(examples), True) + return examples diff --git a/arabert/araelectra/finetune/feature_spec.py b/arabert/araelectra/finetune/feature_spec.py new file mode 100644 index 0000000000000000000000000000000000000000..1fa87ea16d0bb67baa88fe6a729c2267294be17f --- /dev/null +++ b/arabert/araelectra/finetune/feature_spec.py @@ -0,0 +1,56 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Defines the inputs used when fine-tuning a model.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import numpy as np +import tensorflow as tf + +import configure_finetuning + + +def get_shared_feature_specs(config: configure_finetuning.FinetuningConfig): + """Non-task-specific model inputs.""" + return [ + FeatureSpec("input_ids", [config.max_seq_length]), + FeatureSpec("input_mask", [config.max_seq_length]), + FeatureSpec("segment_ids", [config.max_seq_length]), + FeatureSpec("task_id", []), + ] + + +class FeatureSpec(object): + """Defines a feature passed as input to the model.""" + + def __init__(self, name, shape, default_value_fn=None, is_int_feature=True): + self.name = name + self.shape = shape + self.default_value_fn = default_value_fn + self.is_int_feature = is_int_feature + + def get_parsing_spec(self): + return tf.io.FixedLenFeature( + self.shape, tf.int64 if self.is_int_feature else tf.float32) + + def get_default_values(self): + if self.default_value_fn: + return self.default_value_fn(self.shape) + else: + return np.zeros( + self.shape, np.int64 if self.is_int_feature else np.float32) diff --git a/arabert/araelectra/finetune/preprocessing.py b/arabert/araelectra/finetune/preprocessing.py new file mode 100644 index 0000000000000000000000000000000000000000..a1daa1eba457dae9c1e8f5b0718274cb7050bf2a --- /dev/null +++ b/arabert/araelectra/finetune/preprocessing.py @@ -0,0 +1,173 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Code for serializing raw fine-tuning data into tfrecords""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections +import os +import random +import numpy as np +import tensorflow as tf + +import configure_finetuning +from finetune import feature_spec +from util import utils + + +class Preprocessor(object): + """Class for loading, preprocessing, and serializing fine-tuning datasets.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tasks): + self._config = config + self._tasks = tasks + self._name_to_task = {task.name: task for task in tasks} + + self._feature_specs = feature_spec.get_shared_feature_specs(config) + for task in tasks: + self._feature_specs += task.get_feature_specs() + self._name_to_feature_config = { + spec.name: spec.get_parsing_spec() + for spec in self._feature_specs + } + assert len(self._name_to_feature_config) == len(self._feature_specs) + + def prepare_train(self): + return self._serialize_dataset(self._tasks, True, "train") + + def prepare_predict(self, tasks, split): + return self._serialize_dataset(tasks, False, split) + + def _serialize_dataset(self, tasks, is_training, split): + """Write out the dataset as tfrecords.""" + dataset_name = "_".join(sorted([task.name for task in tasks])) + dataset_name += "_" + split + dataset_prefix = os.path.join( + self._config.preprocessed_data_dir, dataset_name) + tfrecords_path = dataset_prefix + ".tfrecord" + metadata_path = dataset_prefix + ".metadata" + batch_size = (self._config.train_batch_size if is_training else + self._config.eval_batch_size) + + utils.log("Loading dataset", dataset_name) + n_examples = None + if (self._config.use_tfrecords_if_existing and + tf.io.gfile.exists(metadata_path)): + n_examples = utils.load_json(metadata_path)["n_examples"] + + if n_examples is None: + utils.log("Existing tfrecords not found so creating") + examples = [] + for task in tasks: + task_examples = task.get_examples(split) + examples += task_examples + if is_training: + random.shuffle(examples) + utils.mkdir(tfrecords_path.rsplit("/", 1)[0]) + n_examples = self.serialize_examples( + examples, is_training, tfrecords_path, batch_size) + utils.write_json({"n_examples": n_examples}, metadata_path) + + input_fn = self._input_fn_builder(tfrecords_path, is_training) + if is_training: + steps = int(n_examples // batch_size * self._config.num_train_epochs) + else: + steps = n_examples // batch_size + + return input_fn, steps + + def serialize_examples(self, examples, is_training, output_file, batch_size): + """Convert a set of `InputExample`s to a TFRecord file.""" + n_examples = 0 + with tf.io.TFRecordWriter(output_file) as writer: + for (ex_index, example) in enumerate(examples): + if ex_index % 2000 == 0: + utils.log("Writing example {:} of {:}".format( + ex_index, len(examples))) + for tf_example in self._example_to_tf_example( + example, is_training, + log=self._config.log_examples and ex_index < 1): + writer.write(tf_example.SerializeToString()) + n_examples += 1 + # add padding so the dataset is a multiple of batch_size + while n_examples % batch_size != 0: + writer.write(self._make_tf_example(task_id=len(self._config.task_names)) + .SerializeToString()) + n_examples += 1 + return n_examples + + def _example_to_tf_example(self, example, is_training, log=False): + examples = self._name_to_task[example.task_name].featurize( + example, is_training, log) + if not isinstance(examples, list): + examples = [examples] + for example in examples: + yield self._make_tf_example(**example) + + def _make_tf_example(self, **kwargs): + """Make a tf.train.Example from the provided features.""" + for k in kwargs: + if k not in self._name_to_feature_config: + raise ValueError("Unknown feature", k) + features = collections.OrderedDict() + for spec in self._feature_specs: + if spec.name in kwargs: + values = kwargs[spec.name] + else: + values = spec.get_default_values() + if (isinstance(values, int) or isinstance(values, bool) or + isinstance(values, float) or isinstance(values, np.float32) or + (isinstance(values, np.ndarray) and values.size == 1)): + values = [values] + if spec.is_int_feature: + feature = tf.train.Feature(int64_list=tf.train.Int64List( + value=list(values))) + else: + feature = tf.train.Feature(float_list=tf.train.FloatList( + value=list(values))) + features[spec.name] = feature + return tf.train.Example(features=tf.train.Features(feature=features)) + + def _input_fn_builder(self, input_file, is_training): + """Creates an `input_fn` closure to be passed to TPUEstimator.""" + + def input_fn(params): + """The actual input function.""" + d = tf.data.TFRecordDataset(input_file) + if is_training: + d = d.repeat() + d = d.shuffle(buffer_size=100) + return d.apply( + tf.data.experimental.map_and_batch( + self._decode_tfrecord, + batch_size=params["batch_size"], + drop_remainder=True)) + + return input_fn + + def _decode_tfrecord(self, record): + """Decodes a record to a TensorFlow example.""" + example = tf.io.parse_single_example(record, self._name_to_feature_config) + # tf.Example only supports tf.int64, but the TPU only supports tf.int32. + # So cast all int64 to int32. + for name, tensor in example.items(): + if tensor.dtype == tf.int64: + example[name] = tf.cast(tensor, tf.int32) + else: + example[name] = tensor + return example diff --git a/arabert/araelectra/finetune/qa/mrqa_official_eval.py b/arabert/araelectra/finetune/qa/mrqa_official_eval.py new file mode 100644 index 0000000000000000000000000000000000000000..91896bbd54b1ee8151b4526aabf0798ac378f0ff --- /dev/null +++ b/arabert/araelectra/finetune/qa/mrqa_official_eval.py @@ -0,0 +1,120 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Official evaluation script for the MRQA Workshop Shared Task. +Adapted fromt the SQuAD v1.1 official evaluation script. +Modified slightly for the ELECTRA codebase. +""" +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import os +import string +import re +import json +import tensorflow as tf +from collections import Counter + +import configure_finetuning + + +def normalize_answer(s): + """Lower text and remove punctuation, articles and extra whitespace.""" + def remove_articles(text): + return re.sub(r'\b(a|an|the)\b', ' ', text) + + def white_space_fix(text): + return ' '.join(text.split()) + + def remove_punc(text): + exclude = set(string.punctuation) + return ''.join(ch for ch in text if ch not in exclude) + + def lower(text): + return text.lower() + + return white_space_fix(remove_articles(remove_punc(lower(s)))) + + +def f1_score(prediction, ground_truth): + prediction_tokens = normalize_answer(prediction).split() + ground_truth_tokens = normalize_answer(ground_truth).split() + common = Counter(prediction_tokens) & Counter(ground_truth_tokens) + num_same = sum(common.values()) + if num_same == 0: + return 0 + precision = 1.0 * num_same / len(prediction_tokens) + recall = 1.0 * num_same / len(ground_truth_tokens) + f1 = (2 * precision * recall) / (precision + recall) + return f1 + + +def exact_match_score(prediction, ground_truth): + return (normalize_answer(prediction) == normalize_answer(ground_truth)) + + +def metric_max_over_ground_truths(metric_fn, prediction, ground_truths): + scores_for_ground_truths = [] + for ground_truth in ground_truths: + score = metric_fn(prediction, ground_truth) + scores_for_ground_truths.append(score) + return max(scores_for_ground_truths) + + +def read_predictions(prediction_file): + with tf.io.gfile.GFile(prediction_file) as f: + predictions = json.load(f) + return predictions + + +def read_answers(gold_file): + answers = {} + with tf.io.gfile.GFile(gold_file, 'r') as f: + for i, line in enumerate(f): + example = json.loads(line) + if i == 0 and 'header' in example: + continue + for qa in example['qas']: + answers[qa['qid']] = qa['answers'] + return answers + + +def evaluate(answers, predictions, skip_no_answer=False): + f1 = exact_match = total = 0 + for qid, ground_truths in answers.items(): + if qid not in predictions: + if not skip_no_answer: + message = 'Unanswered question %s will receive score 0.' % qid + print(message) + total += 1 + continue + total += 1 + prediction = predictions[qid] + exact_match += metric_max_over_ground_truths( + exact_match_score, prediction, ground_truths) + f1 += metric_max_over_ground_truths( + f1_score, prediction, ground_truths) + + exact_match = 100.0 * exact_match / total + f1 = 100.0 * f1 / total + + return {'exact_match': exact_match, 'f1': f1} + + +def main(config: configure_finetuning.FinetuningConfig, split, task_name): + answers = read_answers(os.path.join(config.raw_data_dir(task_name), split + ".jsonl")) + predictions = read_predictions(config.qa_preds_file(task_name)) + return evaluate(answers, predictions, True) diff --git a/arabert/araelectra/finetune/qa/qa_metrics.py b/arabert/araelectra/finetune/qa/qa_metrics.py new file mode 100644 index 0000000000000000000000000000000000000000..6545fb2ee439020bcc8f4cc9c396890ed5528884 --- /dev/null +++ b/arabert/araelectra/finetune/qa/qa_metrics.py @@ -0,0 +1,401 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Evaluation metrics for question-answering tasks.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections +import numpy as np +import six + +import configure_finetuning +from finetune import scorer +from finetune.qa import mrqa_official_eval +from finetune.qa import squad_official_eval +from finetune.qa import squad_official_eval_v1 +from model import tokenization +from util import utils + + +RawResult = collections.namedtuple("RawResult", [ + "unique_id", "start_logits", "end_logits", "answerable_logit", + "start_top_log_probs", "start_top_index", "end_top_log_probs", + "end_top_index" +]) + + +class SpanBasedQAScorer(scorer.Scorer): + """Runs evaluation for SQuAD 1.1, SQuAD 2.0, and MRQA tasks.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, task, split, + v2): + super(SpanBasedQAScorer, self).__init__() + self._config = config + self._task = task + self._name = task.name + self._split = split + self._v2 = v2 + self._all_results = [] + self._total_loss = 0 + self._split = split + self._eval_examples = task.get_examples(split) + + def update(self, results): + super(SpanBasedQAScorer, self).update(results) + self._all_results.append( + RawResult( + unique_id=results["eid"], + start_logits=results["start_logits"], + end_logits=results["end_logits"], + answerable_logit=results["answerable_logit"], + start_top_log_probs=results["start_top_log_probs"], + start_top_index=results["start_top_index"], + end_top_log_probs=results["end_top_log_probs"], + end_top_index=results["end_top_index"], + )) + self._total_loss += results["loss"] + + def get_loss(self): + return self._total_loss / len(self._all_results) + + def _get_results(self): + self.write_predictions() + if self._name == "squad": + squad_official_eval.set_opts(self._config, self._split) + squad_official_eval.main() + return sorted(utils.load_json( + self._config.qa_eval_file(self._name)).items()) + elif self._name == "squadv1": + return sorted(squad_official_eval_v1.main( + self._config, self._split).items()) + else: + return sorted(mrqa_official_eval.main( + self._config, self._split, self._name).items()) + + def write_predictions(self): + """Write final predictions to the json file.""" + unique_id_to_result = {} + for result in self._all_results: + unique_id_to_result[result.unique_id] = result + + _PrelimPrediction = collections.namedtuple( # pylint: disable=invalid-name + "PrelimPrediction", + ["feature_index", "start_index", "end_index", "start_logit", + "end_logit"]) + + all_predictions = collections.OrderedDict() + all_nbest_json = collections.OrderedDict() + scores_diff_json = collections.OrderedDict() + + for example in self._eval_examples: + example_id = example.qas_id if "squad" in self._name else example.qid + features = self._task.featurize(example, False, for_eval=True) + + prelim_predictions = [] + # keep track of the minimum score of null start+end of position 0 + score_null = 1000000 # large and positive + for (feature_index, feature) in enumerate(features): + result = unique_id_to_result[feature[self._name + "_eid"]] + if self._config.joint_prediction: + start_indexes = result.start_top_index + end_indexes = result.end_top_index + else: + start_indexes = _get_best_indexes(result.start_logits, + self._config.n_best_size) + end_indexes = _get_best_indexes(result.end_logits, + self._config.n_best_size) + # if we could have irrelevant answers, get the min score of irrelevant + if self._v2: + if self._config.answerable_classifier: + feature_null_score = result.answerable_logit + else: + feature_null_score = result.start_logits[0] + result.end_logits[0] + if feature_null_score < score_null: + score_null = feature_null_score + for i, start_index in enumerate(start_indexes): + for j, end_index in enumerate( + end_indexes[i] if self._config.joint_prediction else end_indexes): + # We could hypothetically create invalid predictions, e.g., predict + # that the start of the span is in the question. We throw out all + # invalid predictions. + if start_index >= len(feature[self._name + "_tokens"]): + continue + if end_index >= len(feature[self._name + "_tokens"]): + continue + if start_index == 0: + continue + if start_index not in feature[self._name + "_token_to_orig_map"]: + continue + if end_index not in feature[self._name + "_token_to_orig_map"]: + continue + if not feature[self._name + "_token_is_max_context"].get( + start_index, False): + continue + if end_index < start_index: + continue + length = end_index - start_index + 1 + if length > self._config.max_answer_length: + continue + start_logit = (result.start_top_log_probs[i] if + self._config.joint_prediction else + result.start_logits[start_index]) + end_logit = (result.end_top_log_probs[i, j] if + self._config.joint_prediction else + result.end_logits[end_index]) + prelim_predictions.append( + _PrelimPrediction( + feature_index=feature_index, + start_index=start_index, + end_index=end_index, + start_logit=start_logit, + end_logit=end_logit)) + + if self._v2: + if len(prelim_predictions) == 0 and self._config.debug: + tokid = sorted(feature[self._name + "_token_to_orig_map"].keys())[0] + prelim_predictions.append(_PrelimPrediction( + feature_index=0, + start_index=tokid, + end_index=tokid + 1, + start_logit=1.0, + end_logit=1.0)) + prelim_predictions = sorted( + prelim_predictions, + key=lambda x: (x.start_logit + x.end_logit), + reverse=True) + + _NbestPrediction = collections.namedtuple( # pylint: disable=invalid-name + "NbestPrediction", ["text", "start_logit", "end_logit"]) + + seen_predictions = {} + nbest = [] + for pred in prelim_predictions: + if len(nbest) >= self._config.n_best_size: + break + feature = features[pred.feature_index] + tok_tokens = feature[self._name + "_tokens"][ + pred.start_index:(pred.end_index + 1)] + orig_doc_start = feature[ + self._name + "_token_to_orig_map"][pred.start_index] + orig_doc_end = feature[ + self._name + "_token_to_orig_map"][pred.end_index] + orig_tokens = example.doc_tokens[orig_doc_start:(orig_doc_end + 1)] + tok_text = " ".join(tok_tokens) + + # De-tokenize WordPieces that have been split off. + tok_text = tok_text.replace(" ##", "") + tok_text = tok_text.replace("##", "") + + # Clean whitespace + tok_text = tok_text.strip() + tok_text = " ".join(tok_text.split()) + orig_text = " ".join(orig_tokens) + + final_text = get_final_text(self._config, tok_text, orig_text) + if final_text in seen_predictions: + continue + + seen_predictions[final_text] = True + + nbest.append( + _NbestPrediction( + text=final_text, + start_logit=pred.start_logit, + end_logit=pred.end_logit)) + + # In very rare edge cases we could have no valid predictions. So we + # just create a nonce prediction in this case to avoid failure. + if not nbest: + nbest.append( + _NbestPrediction(text="empty", start_logit=0.0, end_logit=0.0)) + + assert len(nbest) >= 1 + + total_scores = [] + best_non_null_entry = None + for entry in nbest: + total_scores.append(entry.start_logit + entry.end_logit) + if not best_non_null_entry: + if entry.text: + best_non_null_entry = entry + + probs = _compute_softmax(total_scores) + + nbest_json = [] + for (i, entry) in enumerate(nbest): + output = collections.OrderedDict() + output["text"] = entry.text + output["probability"] = probs[i] + output["start_logit"] = entry.start_logit + output["end_logit"] = entry.end_logit + nbest_json.append(dict(output)) + + assert len(nbest_json) >= 1 + + if not self._v2: + all_predictions[example_id] = nbest_json[0]["text"] + else: + # predict "" iff the null score - the score of best non-null > threshold + if self._config.answerable_classifier: + score_diff = score_null + else: + score_diff = score_null - best_non_null_entry.start_logit - ( + best_non_null_entry.end_logit) + scores_diff_json[example_id] = score_diff + all_predictions[example_id] = best_non_null_entry.text + + all_nbest_json[example_id] = nbest_json + + utils.write_json(dict(all_predictions), + self._config.qa_preds_file(self._name)) + if self._v2: + utils.write_json({ + k: float(v) for k, v in six.iteritems(scores_diff_json)}, + self._config.qa_na_file(self._name)) + + +def _get_best_indexes(logits, n_best_size): + """Get the n-best logits from a list.""" + index_and_score = sorted(enumerate(logits), key=lambda x: x[1], reverse=True) + + best_indexes = [] + for i in range(len(index_and_score)): + if i >= n_best_size: + break + best_indexes.append(index_and_score[i][0]) + return best_indexes + + +def _compute_softmax(scores): + """Compute softmax probability over raw logits.""" + if not scores: + return [] + + max_score = None + for score in scores: + if max_score is None or score > max_score: + max_score = score + + exp_scores = [] + total_sum = 0.0 + for score in scores: + x = np.exp(score - max_score) + exp_scores.append(x) + total_sum += x + + probs = [] + for score in exp_scores: + probs.append(score / total_sum) + return probs + + +def get_final_text(config: configure_finetuning.FinetuningConfig, pred_text, + orig_text): + """Project the tokenized prediction back to the original text.""" + + # When we created the data, we kept track of the alignment between original + # (whitespace tokenized) tokens and our WordPiece tokenized tokens. So + # now `orig_text` contains the span of our original text corresponding to the + # span that we predicted. + # + # However, `orig_text` may contain extra characters that we don't want in + # our prediction. + # + # For example, let's say: + # pred_text = steve smith + # orig_text = Steve Smith's + # + # We don't want to return `orig_text` because it contains the extra "'s". + # + # We don't want to return `pred_text` because it's already been normalized + # (the SQuAD eval script also does punctuation stripping/lower casing but + # our tokenizer does additional normalization like stripping accent + # characters). + # + # What we really want to return is "Steve Smith". + # + # Therefore, we have to apply a semi-complicated alignment heruistic between + # `pred_text` and `orig_text` to get a character-to-charcter alignment. This + # can fail in certain cases in which case we just return `orig_text`. + + def _strip_spaces(text): + ns_chars = [] + ns_to_s_map = collections.OrderedDict() + for i, c in enumerate(text): + if c == " ": + continue + ns_to_s_map[len(ns_chars)] = i + ns_chars.append(c) + ns_text = "".join(ns_chars) + return ns_text, dict(ns_to_s_map) + + # We first tokenize `orig_text`, strip whitespace from the result + # and `pred_text`, and check if they are the same length. If they are + # NOT the same length, the heuristic has failed. If they are the same + # length, we assume the characters are one-to-one aligned. + tokenizer = tokenization.BasicTokenizer(do_lower_case=config.do_lower_case) + + tok_text = " ".join(tokenizer.tokenize(orig_text)) + + start_position = tok_text.find(pred_text) + if start_position == -1: + if config.debug: + utils.log( + "Unable to find text: '%s' in '%s'" % (pred_text, orig_text)) + return orig_text + end_position = start_position + len(pred_text) - 1 + + (orig_ns_text, orig_ns_to_s_map) = _strip_spaces(orig_text) + (tok_ns_text, tok_ns_to_s_map) = _strip_spaces(tok_text) + + if len(orig_ns_text) != len(tok_ns_text): + if config.debug: + utils.log("Length not equal after stripping spaces: '%s' vs '%s'", + orig_ns_text, tok_ns_text) + return orig_text + + # We then project the characters in `pred_text` back to `orig_text` using + # the character-to-character alignment. + tok_s_to_ns_map = {} + for (i, tok_index) in six.iteritems(tok_ns_to_s_map): + tok_s_to_ns_map[tok_index] = i + + orig_start_position = None + if start_position in tok_s_to_ns_map: + ns_start_position = tok_s_to_ns_map[start_position] + if ns_start_position in orig_ns_to_s_map: + orig_start_position = orig_ns_to_s_map[ns_start_position] + + if orig_start_position is None: + if config.debug: + utils.log("Couldn't map start position") + return orig_text + + orig_end_position = None + if end_position in tok_s_to_ns_map: + ns_end_position = tok_s_to_ns_map[end_position] + if ns_end_position in orig_ns_to_s_map: + orig_end_position = orig_ns_to_s_map[ns_end_position] + + if orig_end_position is None: + if config.debug: + utils.log("Couldn't map end position") + return orig_text + + output_text = orig_text[orig_start_position:(orig_end_position + 1)] + return output_text diff --git a/arabert/araelectra/finetune/qa/qa_tasks.py b/arabert/araelectra/finetune/qa/qa_tasks.py new file mode 100644 index 0000000000000000000000000000000000000000..754ffedcb590906ad9b667a4aa0d1cbbd0150256 --- /dev/null +++ b/arabert/araelectra/finetune/qa/qa_tasks.py @@ -0,0 +1,628 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Question answering tasks. SQuAD 1.1/2.0 and 2019 MRQA tasks are supported.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import abc +import collections +import json +import os +import six +import tensorflow as tf + +import configure_finetuning +from finetune import feature_spec +from finetune import task +from finetune.qa import qa_metrics +from model import modeling +from model import tokenization +from util import utils + + +class QAExample(task.Example): + """Question-answering example.""" + + def __init__(self, + task_name, + eid, + qas_id, + qid, + question_text, + doc_tokens, + orig_answer_text=None, + start_position=None, + end_position=None, + is_impossible=False): + super(QAExample, self).__init__(task_name) + self.eid = eid + self.qas_id = qas_id + self.qid = qid + self.question_text = question_text + self.doc_tokens = doc_tokens + self.orig_answer_text = orig_answer_text + self.start_position = start_position + self.end_position = end_position + self.is_impossible = is_impossible + + def __str__(self): + return self.__repr__() + + def __repr__(self): + s = "" + s += "qas_id: %s" % (tokenization.printable_text(self.qas_id)) + s += ", question_text: %s" % ( + tokenization.printable_text(self.question_text)) + s += ", doc_tokens: [%s]" % (" ".join(self.doc_tokens)) + if self.start_position: + s += ", start_position: %d" % self.start_position + if self.start_position: + s += ", end_position: %d" % self.end_position + if self.start_position: + s += ", is_impossible: %r" % self.is_impossible + return s + + +def _check_is_max_context(doc_spans, cur_span_index, position): + """Check if this is the 'max context' doc span for the token.""" + + # Because of the sliding window approach taken to scoring documents, a single + # token can appear in multiple documents. E.g. + # Doc: the man went to the store and bought a gallon of milk + # Span A: the man went to the + # Span B: to the store and bought + # Span C: and bought a gallon of + # ... + # + # Now the word 'bought' will have two scores from spans B and C. We only + # want to consider the score with "maximum context", which we define as + # the *minimum* of its left and right context (the *sum* of left and + # right context will always be the same, of course). + # + # In the example the maximum context for 'bought' would be span C since + # it has 1 left context and 3 right context, while span B has 4 left context + # and 0 right context. + best_score = None + best_span_index = None + for (span_index, doc_span) in enumerate(doc_spans): + end = doc_span.start + doc_span.length - 1 + if position < doc_span.start: + continue + if position > end: + continue + num_left_context = position - doc_span.start + num_right_context = end - position + score = min(num_left_context, num_right_context) + 0.01 * doc_span.length + if best_score is None or score > best_score: + best_score = score + best_span_index = span_index + + return cur_span_index == best_span_index + + +def _improve_answer_span(doc_tokens, input_start, input_end, tokenizer, + orig_answer_text): + """Returns tokenized answer spans that better match the annotated answer.""" + + # The SQuAD annotations are character based. We first project them to + # whitespace-tokenized words. But then after WordPiece tokenization, we can + # often find a "better match". For example: + # + # Question: What year was John Smith born? + # Context: The leader was John Smith (1895-1943). + # Answer: 1895 + # + # The original whitespace-tokenized answer will be "(1895-1943).". However + # after tokenization, our tokens will be "( 1895 - 1943 ) .". So we can match + # the exact answer, 1895. + # + # However, this is not always possible. Consider the following: + # + # Question: What country is the top exporter of electornics? + # Context: The Japanese electronics industry is the lagest in the world. + # Answer: Japan + # + # In this case, the annotator chose "Japan" as a character sub-span of + # the word "Japanese". Since our WordPiece tokenizer does not split + # "Japanese", we just use "Japanese" as the annotation. This is fairly rare + # in SQuAD, but does happen. + tok_answer_text = " ".join(tokenizer.tokenize(orig_answer_text)) + + for new_start in range(input_start, input_end + 1): + for new_end in range(input_end, new_start - 1, -1): + text_span = " ".join(doc_tokens[new_start:(new_end + 1)]) + if text_span == tok_answer_text: + return new_start, new_end + + return input_start, input_end + + +def is_whitespace(c): + return c == " " or c == "\t" or c == "\r" or c == "\n" or ord(c) == 0x202F + + +class QATask(task.Task): + """A span-based question answering tasks (e.g., SQuAD).""" + + __metaclass__ = abc.ABCMeta + + def __init__(self, config: configure_finetuning.FinetuningConfig, name, + tokenizer, v2=False): + super(QATask, self).__init__(config, name) + self._tokenizer = tokenizer + self._examples = {} + self.v2 = v2 + + def _add_examples(self, examples, example_failures, paragraph, split): + paragraph_text = paragraph["context"] + doc_tokens = [] + char_to_word_offset = [] + prev_is_whitespace = True + for c in paragraph_text: + if is_whitespace(c): + prev_is_whitespace = True + else: + if prev_is_whitespace: + doc_tokens.append(c) + else: + doc_tokens[-1] += c + prev_is_whitespace = False + char_to_word_offset.append(len(doc_tokens) - 1) + + for qa in paragraph["qas"]: + qas_id = qa["id"] if "id" in qa else None + qid = qa["qid"] if "qid" in qa else None + question_text = qa["question"] + start_position = None + end_position = None + orig_answer_text = None + is_impossible = False + if split == "train": + if self.v2: + is_impossible = qa["is_impossible"] + if not is_impossible: + if "detected_answers" in qa: # MRQA format + answer = qa["detected_answers"][0] + answer_offset = answer["char_spans"][0][0] + else: # SQuAD format + answer = qa["answers"][0] + answer_offset = answer["answer_start"] + orig_answer_text = answer["text"] + answer_length = len(orig_answer_text) + start_position = char_to_word_offset[answer_offset] + if answer_offset + answer_length - 1 >= len(char_to_word_offset): + utils.log("End position is out of document!") + example_failures[0] += 1 + continue + end_position = char_to_word_offset[answer_offset + answer_length - 1] + + # Only add answers where the text can be exactly recovered from the + # document. If this CAN'T happen it's likely due to weird Unicode + # stuff so we will just skip the example. + # + # Note that this means for training mode, every example is NOT + # guaranteed to be preserved. + actual_text = " ".join( + doc_tokens[start_position:(end_position + 1)]) + cleaned_answer_text = " ".join( + tokenization.whitespace_tokenize(orig_answer_text)) + actual_text = actual_text.lower() + cleaned_answer_text = cleaned_answer_text.lower() + if actual_text.find(cleaned_answer_text) == -1: + utils.log("Could not find answer: '{:}' in doc vs. " + "'{:}' in provided answer".format( + tokenization.printable_text(actual_text), + tokenization.printable_text(cleaned_answer_text))) + example_failures[0] += 1 + continue + else: + start_position = -1 + end_position = -1 + orig_answer_text = "" + + example = QAExample( + task_name=self.name, + eid=len(examples), + qas_id=qas_id, + qid=qid, + question_text=question_text, + doc_tokens=doc_tokens, + orig_answer_text=orig_answer_text, + start_position=start_position, + end_position=end_position, + is_impossible=is_impossible) + examples.append(example) + + def get_feature_specs(self): + return [ + feature_spec.FeatureSpec(self.name + "_eid", []), + feature_spec.FeatureSpec(self.name + "_start_positions", []), + feature_spec.FeatureSpec(self.name + "_end_positions", []), + feature_spec.FeatureSpec(self.name + "_is_impossible", []), + ] + + def featurize(self, example: QAExample, is_training, log=False, + for_eval=False): + all_features = [] + query_tokens = self._tokenizer.tokenize(example.question_text) + + if len(query_tokens) > self.config.max_query_length: + query_tokens = query_tokens[0:self.config.max_query_length] + + tok_to_orig_index = [] + orig_to_tok_index = [] + all_doc_tokens = [] + for (i, token) in enumerate(example.doc_tokens): + orig_to_tok_index.append(len(all_doc_tokens)) + sub_tokens = self._tokenizer.tokenize(token) + for sub_token in sub_tokens: + tok_to_orig_index.append(i) + all_doc_tokens.append(sub_token) + + tok_start_position = None + tok_end_position = None + if is_training and example.is_impossible: + tok_start_position = -1 + tok_end_position = -1 + if is_training and not example.is_impossible: + tok_start_position = orig_to_tok_index[example.start_position] + if example.end_position < len(example.doc_tokens) - 1: + tok_end_position = orig_to_tok_index[example.end_position + 1] - 1 + else: + tok_end_position = len(all_doc_tokens) - 1 + (tok_start_position, tok_end_position) = _improve_answer_span( + all_doc_tokens, tok_start_position, tok_end_position, self._tokenizer, + example.orig_answer_text) + + # The -3 accounts for [CLS], [SEP] and [SEP] + max_tokens_for_doc = self.config.max_seq_length - len(query_tokens) - 3 + + # We can have documents that are longer than the maximum sequence length. + # To deal with this we do a sliding window approach, where we take chunks + # of the up to our max length with a stride of `doc_stride`. + _DocSpan = collections.namedtuple( # pylint: disable=invalid-name + "DocSpan", ["start", "length"]) + doc_spans = [] + start_offset = 0 + while start_offset < len(all_doc_tokens): + length = len(all_doc_tokens) - start_offset + if length > max_tokens_for_doc: + length = max_tokens_for_doc + doc_spans.append(_DocSpan(start=start_offset, length=length)) + if start_offset + length == len(all_doc_tokens): + break + start_offset += min(length, self.config.doc_stride) + + for (doc_span_index, doc_span) in enumerate(doc_spans): + tokens = [] + token_to_orig_map = {} + token_is_max_context = {} + segment_ids = [] + tokens.append("[CLS]") + segment_ids.append(0) + for token in query_tokens: + tokens.append(token) + segment_ids.append(0) + tokens.append("[SEP]") + segment_ids.append(0) + + for i in range(doc_span.length): + split_token_index = doc_span.start + i + token_to_orig_map[len(tokens)] = tok_to_orig_index[split_token_index] + + is_max_context = _check_is_max_context(doc_spans, doc_span_index, + split_token_index) + token_is_max_context[len(tokens)] = is_max_context + tokens.append(all_doc_tokens[split_token_index]) + segment_ids.append(1) + tokens.append("[SEP]") + segment_ids.append(1) + + input_ids = self._tokenizer.convert_tokens_to_ids(tokens) + + # The mask has 1 for real tokens and 0 for padding tokens. Only real + # tokens are attended to. + input_mask = [1] * len(input_ids) + + # Zero-pad up to the sequence length. + while len(input_ids) < self.config.max_seq_length: + input_ids.append(0) + input_mask.append(0) + segment_ids.append(0) + + assert len(input_ids) == self.config.max_seq_length + assert len(input_mask) == self.config.max_seq_length + assert len(segment_ids) == self.config.max_seq_length + + start_position = None + end_position = None + if is_training and not example.is_impossible: + # For training, if our document chunk does not contain an annotation + # we throw it out, since there is nothing to predict. + doc_start = doc_span.start + doc_end = doc_span.start + doc_span.length - 1 + out_of_span = False + if not (tok_start_position >= doc_start and + tok_end_position <= doc_end): + out_of_span = True + if out_of_span: + start_position = 0 + end_position = 0 + else: + doc_offset = len(query_tokens) + 2 + start_position = tok_start_position - doc_start + doc_offset + end_position = tok_end_position - doc_start + doc_offset + + if is_training and example.is_impossible: + start_position = 0 + end_position = 0 + + if log: + utils.log("*** Example ***") + utils.log("doc_span_index: %s" % doc_span_index) + utils.log("tokens: %s" % " ".join( + [tokenization.printable_text(x) for x in tokens])) + utils.log("token_to_orig_map: %s" % " ".join( + ["%d:%d" % (x, y) for (x, y) in six.iteritems(token_to_orig_map)])) + utils.log("token_is_max_context: %s" % " ".join([ + "%d:%s" % (x, y) for (x, y) in six.iteritems(token_is_max_context) + ])) + utils.log("input_ids: %s" % " ".join([str(x) for x in input_ids])) + utils.log("input_mask: %s" % " ".join([str(x) for x in input_mask])) + utils.log("segment_ids: %s" % " ".join([str(x) for x in segment_ids])) + if is_training and example.is_impossible: + utils.log("impossible example") + if is_training and not example.is_impossible: + answer_text = " ".join(tokens[start_position:(end_position + 1)]) + utils.log("start_position: %d" % start_position) + utils.log("end_position: %d" % end_position) + utils.log("answer: %s" % (tokenization.printable_text(answer_text))) + + features = { + "task_id": self.config.task_names.index(self.name), + self.name + "_eid": (1000 * example.eid) + doc_span_index, + "input_ids": input_ids, + "input_mask": input_mask, + "segment_ids": segment_ids, + } + if for_eval: + features.update({ + self.name + "_doc_span_index": doc_span_index, + self.name + "_tokens": tokens, + self.name + "_token_to_orig_map": token_to_orig_map, + self.name + "_token_is_max_context": token_is_max_context, + }) + if is_training: + features.update({ + self.name + "_start_positions": start_position, + self.name + "_end_positions": end_position, + self.name + "_is_impossible": example.is_impossible + }) + all_features.append(features) + return all_features + + def get_prediction_module(self, bert_model, features, is_training, + percent_done): + final_hidden = bert_model.get_sequence_output() + + final_hidden_shape = modeling.get_shape_list(final_hidden, expected_rank=3) + batch_size = final_hidden_shape[0] + seq_length = final_hidden_shape[1] + + answer_mask = tf.cast(features["input_mask"], tf.float32) + answer_mask *= tf.cast(features["segment_ids"], tf.float32) + answer_mask += tf.one_hot(0, seq_length) + + start_logits = tf.squeeze(tf.layers.dense(final_hidden, 1), -1) + + start_top_log_probs = tf.zeros([batch_size, self.config.beam_size]) + start_top_index = tf.zeros([batch_size, self.config.beam_size], tf.int32) + end_top_log_probs = tf.zeros([batch_size, self.config.beam_size, + self.config.beam_size]) + end_top_index = tf.zeros([batch_size, self.config.beam_size, + self.config.beam_size], tf.int32) + if self.config.joint_prediction: + start_logits += 1000.0 * (answer_mask - 1) + start_log_probs = tf.nn.log_softmax(start_logits) + start_top_log_probs, start_top_index = tf.nn.top_k( + start_log_probs, k=self.config.beam_size) + + if not is_training: + # batch, beam, length, hidden + end_features = tf.tile(tf.expand_dims(final_hidden, 1), + [1, self.config.beam_size, 1, 1]) + # batch, beam, length + start_index = tf.one_hot(start_top_index, + depth=seq_length, axis=-1, dtype=tf.float32) + # batch, beam, hidden + start_features = tf.reduce_sum( + tf.expand_dims(final_hidden, 1) * + tf.expand_dims(start_index, -1), axis=-2) + # batch, beam, length, hidden + start_features = tf.tile(tf.expand_dims(start_features, 2), + [1, 1, seq_length, 1]) + else: + start_index = tf.one_hot( + features[self.name + "_start_positions"], depth=seq_length, + axis=-1, dtype=tf.float32) + start_features = tf.reduce_sum(tf.expand_dims(start_index, -1) * + final_hidden, axis=1) + start_features = tf.tile(tf.expand_dims(start_features, 1), + [1, seq_length, 1]) + end_features = final_hidden + + final_repr = tf.concat([start_features, end_features], -1) + final_repr = tf.layers.dense(final_repr, 512, activation=modeling.gelu, + name="qa_hidden") + # batch, beam, length (batch, length when training) + end_logits = tf.squeeze(tf.layers.dense(final_repr, 1), -1, + name="qa_logits") + if is_training: + end_logits += 1000.0 * (answer_mask - 1) + else: + end_logits += tf.expand_dims(1000.0 * (answer_mask - 1), 1) + + if not is_training: + end_log_probs = tf.nn.log_softmax(end_logits) + end_top_log_probs, end_top_index = tf.nn.top_k( + end_log_probs, k=self.config.beam_size) + end_logits = tf.zeros([batch_size, seq_length]) + else: + end_logits = tf.squeeze(tf.layers.dense(final_hidden, 1), -1) + start_logits += 1000.0 * (answer_mask - 1) + end_logits += 1000.0 * (answer_mask - 1) + + def compute_loss(logits, positions): + one_hot_positions = tf.one_hot( + positions, depth=seq_length, dtype=tf.float32) + log_probs = tf.nn.log_softmax(logits, axis=-1) + loss = -tf.reduce_sum(one_hot_positions * log_probs, axis=-1) + return loss + + start_positions = features[self.name + "_start_positions"] + end_positions = features[self.name + "_end_positions"] + + start_loss = compute_loss(start_logits, start_positions) + end_loss = compute_loss(end_logits, end_positions) + + losses = (start_loss + end_loss) / 2.0 + + answerable_logit = tf.zeros([batch_size]) + if self.config.answerable_classifier: + final_repr = final_hidden[:, 0] + if self.config.answerable_uses_start_logits: + start_p = tf.nn.softmax(start_logits) + start_feature = tf.reduce_sum(tf.expand_dims(start_p, -1) * + final_hidden, axis=1) + final_repr = tf.concat([final_repr, start_feature], -1) + final_repr = tf.layers.dense(final_repr, 512, + activation=modeling.gelu) + answerable_logit = tf.squeeze(tf.layers.dense(final_repr, 1), -1) + answerable_loss = tf.nn.sigmoid_cross_entropy_with_logits( + labels=tf.cast(features[self.name + "_is_impossible"], tf.float32), + logits=answerable_logit) + losses += answerable_loss * self.config.answerable_weight + + return losses, dict( + loss=losses, + start_logits=start_logits, + end_logits=end_logits, + answerable_logit=answerable_logit, + start_positions=features[self.name + "_start_positions"], + end_positions=features[self.name + "_end_positions"], + start_top_log_probs=start_top_log_probs, + start_top_index=start_top_index, + end_top_log_probs=end_top_log_probs, + end_top_index=end_top_index, + eid=features[self.name + "_eid"], + ) + + def get_scorer(self, split="dev"): + return qa_metrics.SpanBasedQAScorer(self.config, self, split, self.v2) + + +class MRQATask(QATask): + """Class for finetuning tasks from the 2019 MRQA shared task.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, name, + tokenizer): + super(MRQATask, self).__init__(config, name, tokenizer) + + def get_examples(self, split): + if split in self._examples: + utils.log("N EXAMPLES", split, len(self._examples[split])) + return self._examples[split] + + examples = [] + example_failures = [0] + with tf.io.gfile.GFile(os.path.join( + self.config.raw_data_dir(self.name), split + ".jsonl"), "r") as f: + for i, line in enumerate(f): + if self.config.debug and i > 10: + break + paragraph = json.loads(line.strip()) + if "header" in paragraph: + continue + self._add_examples(examples, example_failures, paragraph, split) + self._examples[split] = examples + utils.log("{:} examples created, {:} failures".format( + len(examples), example_failures[0])) + return examples + + def get_scorer(self, split="dev"): + return qa_metrics.SpanBasedQAScorer(self.config, self, split, self.v2) + + +class SQuADTask(QATask): + """Class for finetuning on SQuAD 2.0 or 1.1.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, name, + tokenizer, v2=False): + super(SQuADTask, self).__init__(config, name, tokenizer, v2=v2) + + def get_examples(self, split): + if split in self._examples: + return self._examples[split] + + with tf.io.gfile.GFile(os.path.join( + self.config.raw_data_dir(self.name), + split + ("-debug" if self.config.debug else "") + ".json"), "r") as f: + input_data = json.load(f)["data"] + + examples = [] + example_failures = [0] + for entry in input_data: + for paragraph in entry["paragraphs"]: + self._add_examples(examples, example_failures, paragraph, split) + self._examples[split] = examples + utils.log("{:} examples created, {:} failures".format( + len(examples), example_failures[0])) + return examples + + def get_scorer(self, split="dev"): + return qa_metrics.SpanBasedQAScorer(self.config, self, split, self.v2) + + +class SQuAD(SQuADTask): + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(SQuAD, self).__init__(config, "squad", tokenizer, v2=True) + + +class SQuADv1(SQuADTask): + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(SQuADv1, self).__init__(config, "squadv1", tokenizer) + + +class NewsQA(MRQATask): + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(NewsQA, self).__init__(config, "newsqa", tokenizer) + + +class NaturalQuestions(MRQATask): + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(NaturalQuestions, self).__init__(config, "naturalqs", tokenizer) + + +class SearchQA(MRQATask): + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(SearchQA, self).__init__(config, "searchqa", tokenizer) + + +class TriviaQA(MRQATask): + def __init__(self, config: configure_finetuning.FinetuningConfig, tokenizer): + super(TriviaQA, self).__init__(config, "triviaqa", tokenizer) diff --git a/arabert/araelectra/finetune/qa/squad_official_eval.py b/arabert/araelectra/finetune/qa/squad_official_eval.py new file mode 100644 index 0000000000000000000000000000000000000000..437c3717dadb523cae35a2d22eae43d650abfc4f --- /dev/null +++ b/arabert/araelectra/finetune/qa/squad_official_eval.py @@ -0,0 +1,317 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Official evaluation script for SQuAD version 2.0. + +In addition to basic functionality, we also compute additional statistics and +plot precision-recall curves if an additional na_prob.json file is provided. +This file is expected to map question ID's to the model's predicted probability +that a question is unanswerable. + +Modified slightly for the ELECTRA codebase. +""" +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import argparse +import collections +import json +import numpy as np +import os +import re +import string +import sys +import tensorflow as tf + +import configure_finetuning + +OPTS = None + +def parse_args(): + parser = argparse.ArgumentParser('Official evaluation script for SQuAD version 2.0.') + parser.add_argument('data_file', metavar='data.json', help='Input data JSON file.') + parser.add_argument('pred_file', metavar='pred.json', help='Model predictions.') + parser.add_argument('--out-file', '-o', metavar='eval.json', + help='Write accuracy metrics to file (default is stdout).') + parser.add_argument('--na-prob-file', '-n', metavar='na_prob.json', + help='Model estimates of probability of no answer.') + parser.add_argument('--na-prob-thresh', '-t', type=float, default=1.0, + help='Predict "" if no-answer probability exceeds this (default = 1.0).') + parser.add_argument('--out-image-dir', '-p', metavar='out_images', default=None, + help='Save precision-recall curves to directory.') + parser.add_argument('--verbose', '-v', action='store_true') + if len(sys.argv) == 1: + parser.print_help() + sys.exit(1) + return parser.parse_args() + +def set_opts(config: configure_finetuning.FinetuningConfig, split): + global OPTS + Options = collections.namedtuple("Options", [ + "data_file", "pred_file", "out_file", "na_prob_file", "na_prob_thresh", + "out_image_dir", "verbose"]) + OPTS = Options( + data_file=os.path.join( + config.raw_data_dir("squad"), + split + ("-debug" if config.debug else "") + ".json"), + pred_file=config.qa_preds_file("squad"), + out_file=config.qa_eval_file("squad"), + na_prob_file=config.qa_na_file("squad"), + na_prob_thresh=config.qa_na_threshold, + out_image_dir=None, + verbose=False + ) + +def make_qid_to_has_ans(dataset): + qid_to_has_ans = {} + for article in dataset: + for p in article['paragraphs']: + for qa in p['qas']: + qid_to_has_ans[qa['id']] = bool(qa['answers']) + return qid_to_has_ans + +def normalize_answer(s): + """Lower text and remove punctuation, articles and extra whitespace.""" + def remove_articles(text): + regex = re.compile(r'\b(a|an|the)\b', re.UNICODE) + return re.sub(regex, ' ', text) + def white_space_fix(text): + return ' '.join(text.split()) + def remove_punc(text): + exclude = set(string.punctuation) + return ''.join(ch for ch in text if ch not in exclude) + def lower(text): + return text.lower() + return white_space_fix(remove_articles(remove_punc(lower(s)))) + +def get_tokens(s): + if not s: return [] + return normalize_answer(s).split() + +def compute_exact(a_gold, a_pred): + return int(normalize_answer(a_gold) == normalize_answer(a_pred)) + +def compute_f1(a_gold, a_pred): + gold_toks = get_tokens(a_gold) + pred_toks = get_tokens(a_pred) + common = collections.Counter(gold_toks) & collections.Counter(pred_toks) + num_same = sum(common.values()) + if len(gold_toks) == 0 or len(pred_toks) == 0: + # If either is no-answer, then F1 is 1 if they agree, 0 otherwise + return int(gold_toks == pred_toks) + if num_same == 0: + return 0 + precision = 1.0 * num_same / len(pred_toks) + recall = 1.0 * num_same / len(gold_toks) + f1 = (2 * precision * recall) / (precision + recall) + return f1 + +def get_raw_scores(dataset, preds): + exact_scores = {} + f1_scores = {} + for article in dataset: + for p in article['paragraphs']: + for qa in p['qas']: + qid = qa['id'] + gold_answers = [a['text'] for a in qa['answers'] + if normalize_answer(a['text'])] + if not gold_answers: + # For unanswerable questions, only correct answer is empty string + gold_answers = [''] + if qid not in preds: + print('Missing prediction for %s' % qid) + continue + a_pred = preds[qid] + # Take max over all gold answers + exact_scores[qid] = max(compute_exact(a, a_pred) for a in gold_answers) + f1_scores[qid] = max(compute_f1(a, a_pred) for a in gold_answers) + return exact_scores, f1_scores + +def apply_no_ans_threshold(scores, na_probs, qid_to_has_ans, na_prob_thresh): + new_scores = {} + for qid, s in scores.items(): + pred_na = na_probs[qid] > na_prob_thresh + if pred_na: + new_scores[qid] = float(not qid_to_has_ans[qid]) + else: + new_scores[qid] = s + return new_scores + +def make_eval_dict(exact_scores, f1_scores, qid_list=None): + if not qid_list: + total = len(exact_scores) + return collections.OrderedDict([ + ('exact', 100.0 * sum(exact_scores.values()) / total), + ('f1', 100.0 * sum(f1_scores.values()) / total), + ('total', total), + ]) + else: + total = len(qid_list) + return collections.OrderedDict([ + ('exact', 100.0 * sum(exact_scores[k] for k in qid_list) / total), + ('f1', 100.0 * sum(f1_scores[k] for k in qid_list) / total), + ('total', total), + ]) + +def merge_eval(main_eval, new_eval, prefix): + for k in new_eval: + main_eval['%s_%s' % (prefix, k)] = new_eval[k] + +def plot_pr_curve(precisions, recalls, out_image, title): + plt.step(recalls, precisions, color='b', alpha=0.2, where='post') + plt.fill_between(recalls, precisions, step='post', alpha=0.2, color='b') + plt.xlabel('Recall') + plt.ylabel('Precision') + plt.xlim([0.0, 1.05]) + plt.ylim([0.0, 1.05]) + plt.title(title) + plt.savefig(out_image) + plt.clf() + +def make_precision_recall_eval(scores, na_probs, num_true_pos, qid_to_has_ans, + out_image=None, title=None): + qid_list = sorted(na_probs, key=lambda k: na_probs[k]) + true_pos = 0.0 + cur_p = 1.0 + cur_r = 0.0 + precisions = [1.0] + recalls = [0.0] + avg_prec = 0.0 + for i, qid in enumerate(qid_list): + if qid_to_has_ans[qid]: + true_pos += scores[qid] + cur_p = true_pos / float(i+1) + cur_r = true_pos / float(num_true_pos) + if i == len(qid_list) - 1 or na_probs[qid] != na_probs[qid_list[i+1]]: + # i.e., if we can put a threshold after this point + avg_prec += cur_p * (cur_r - recalls[-1]) + precisions.append(cur_p) + recalls.append(cur_r) + if out_image: + plot_pr_curve(precisions, recalls, out_image, title) + return {'ap': 100.0 * avg_prec} + +def run_precision_recall_analysis(main_eval, exact_raw, f1_raw, na_probs, + qid_to_has_ans, out_image_dir): + if out_image_dir and not os.path.exists(out_image_dir): + os.makedirs(out_image_dir) + num_true_pos = sum(1 for v in qid_to_has_ans.values() if v) + if num_true_pos == 0: + return + pr_exact = make_precision_recall_eval( + exact_raw, na_probs, num_true_pos, qid_to_has_ans, + out_image=os.path.join(out_image_dir, 'pr_exact.png'), + title='Precision-Recall curve for Exact Match score') + pr_f1 = make_precision_recall_eval( + f1_raw, na_probs, num_true_pos, qid_to_has_ans, + out_image=os.path.join(out_image_dir, 'pr_f1.png'), + title='Precision-Recall curve for F1 score') + oracle_scores = {k: float(v) for k, v in qid_to_has_ans.items()} + pr_oracle = make_precision_recall_eval( + oracle_scores, na_probs, num_true_pos, qid_to_has_ans, + out_image=os.path.join(out_image_dir, 'pr_oracle.png'), + title='Oracle Precision-Recall curve (binary task of HasAns vs. NoAns)') + merge_eval(main_eval, pr_exact, 'pr_exact') + merge_eval(main_eval, pr_f1, 'pr_f1') + merge_eval(main_eval, pr_oracle, 'pr_oracle') + +def histogram_na_prob(na_probs, qid_list, image_dir, name): + if not qid_list: + return + x = [na_probs[k] for k in qid_list] + weights = np.ones_like(x) / float(len(x)) + plt.hist(x, weights=weights, bins=20, range=(0.0, 1.0)) + plt.xlabel('Model probability of no-answer') + plt.ylabel('Proportion of dataset') + plt.title('Histogram of no-answer probability: %s' % name) + plt.savefig(os.path.join(image_dir, 'na_prob_hist_%s.png' % name)) + plt.clf() + +def find_best_thresh(preds, scores, na_probs, qid_to_has_ans): + num_no_ans = sum(1 for k in qid_to_has_ans if not qid_to_has_ans[k]) + cur_score = num_no_ans + best_score = cur_score + best_thresh = 0.0 + qid_list = sorted(na_probs, key=lambda k: na_probs[k]) + for i, qid in enumerate(qid_list): + if qid not in scores: continue + if qid_to_has_ans[qid]: + diff = scores[qid] + else: + if preds[qid]: + diff = -1 + else: + diff = 0 + cur_score += diff + if cur_score > best_score: + best_score = cur_score + best_thresh = na_probs[qid] + return 100.0 * best_score / len(scores), best_thresh + +def find_all_best_thresh(main_eval, preds, exact_raw, f1_raw, na_probs, qid_to_has_ans): + best_exact, exact_thresh = find_best_thresh(preds, exact_raw, na_probs, qid_to_has_ans) + best_f1, f1_thresh = find_best_thresh(preds, f1_raw, na_probs, qid_to_has_ans) + main_eval['best_exact'] = best_exact + main_eval['best_exact_thresh'] = exact_thresh + main_eval['best_f1'] = best_f1 + main_eval['best_f1_thresh'] = f1_thresh + +def main(): + with tf.io.gfile.GFile(OPTS.data_file) as f: + dataset_json = json.load(f) + dataset = dataset_json['data'] + with tf.io.gfile.GFile(OPTS.pred_file) as f: + preds = json.load(f) + if OPTS.na_prob_file: + with tf.io.gfile.GFile(OPTS.na_prob_file) as f: + na_probs = json.load(f) + else: + na_probs = {k: 0.0 for k in preds} + qid_to_has_ans = make_qid_to_has_ans(dataset) # maps qid to True/False + has_ans_qids = [k for k, v in qid_to_has_ans.items() if v] + no_ans_qids = [k for k, v in qid_to_has_ans.items() if not v] + exact_raw, f1_raw = get_raw_scores(dataset, preds) + exact_thresh = apply_no_ans_threshold(exact_raw, na_probs, qid_to_has_ans, + OPTS.na_prob_thresh) + f1_thresh = apply_no_ans_threshold(f1_raw, na_probs, qid_to_has_ans, + OPTS.na_prob_thresh) + out_eval = make_eval_dict(exact_thresh, f1_thresh) + if has_ans_qids: + has_ans_eval = make_eval_dict(exact_thresh, f1_thresh, qid_list=has_ans_qids) + merge_eval(out_eval, has_ans_eval, 'HasAns') + if no_ans_qids: + no_ans_eval = make_eval_dict(exact_thresh, f1_thresh, qid_list=no_ans_qids) + merge_eval(out_eval, no_ans_eval, 'NoAns') + if OPTS.na_prob_file: + find_all_best_thresh(out_eval, preds, exact_raw, f1_raw, na_probs, qid_to_has_ans) + if OPTS.na_prob_file and OPTS.out_image_dir: + run_precision_recall_analysis(out_eval, exact_raw, f1_raw, na_probs, + qid_to_has_ans, OPTS.out_image_dir) + histogram_na_prob(na_probs, has_ans_qids, OPTS.out_image_dir, 'hasAns') + histogram_na_prob(na_probs, no_ans_qids, OPTS.out_image_dir, 'noAns') + if OPTS.out_file: + with tf.io.gfile.GFile(OPTS.out_file, 'w') as f: + json.dump(out_eval, f) + else: + print(json.dumps(out_eval, indent=2)) + +if __name__ == '__main__': + OPTS = parse_args() + if OPTS.out_image_dir: + import matplotlib + matplotlib.use('Agg') + import matplotlib.pyplot as plt + main() diff --git a/arabert/araelectra/finetune/qa/squad_official_eval_v1.py b/arabert/araelectra/finetune/qa/squad_official_eval_v1.py new file mode 100644 index 0000000000000000000000000000000000000000..76dc7f70871f32e45079233280c9cfb01c686175 --- /dev/null +++ b/arabert/araelectra/finetune/qa/squad_official_eval_v1.py @@ -0,0 +1,126 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +""" +Official evaluation script for v1.1 of the SQuAD dataset. +Modified slightly for the ELECTRA codebase. +""" +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function +from collections import Counter +import string +import re +import json +import sys +import os +import collections +import tensorflow as tf + +import configure_finetuning + + +def normalize_answer(s): + """Lower text and remove punctuation, articles and extra whitespace.""" + def remove_articles(text): + return re.sub(r'\b(a|an|the)\b', ' ', text) + + def white_space_fix(text): + return ' '.join(text.split()) + + def remove_punc(text): + exclude = set(string.punctuation) + return ''.join(ch for ch in text if ch not in exclude) + + def lower(text): + return text.lower() + + return white_space_fix(remove_articles(remove_punc(lower(s)))) + + +def f1_score(prediction, ground_truth): + prediction_tokens = normalize_answer(prediction).split() + ground_truth_tokens = normalize_answer(ground_truth).split() + common = Counter(prediction_tokens) & Counter(ground_truth_tokens) + num_same = sum(common.values()) + if num_same == 0: + return 0 + precision = 1.0 * num_same / len(prediction_tokens) + recall = 1.0 * num_same / len(ground_truth_tokens) + f1 = (2 * precision * recall) / (precision + recall) + return f1 + + +def exact_match_score(prediction, ground_truth): + return (normalize_answer(prediction) == normalize_answer(ground_truth)) + + +def metric_max_over_ground_truths(metric_fn, prediction, ground_truths): + scores_for_ground_truths = [] + for ground_truth in ground_truths: + score = metric_fn(prediction, ground_truth) + scores_for_ground_truths.append(score) + return max(scores_for_ground_truths) + + +def evaluate(dataset, predictions): + f1 = exact_match = total = 0 + for article in dataset: + for paragraph in article['paragraphs']: + for qa in paragraph['qas']: + total += 1 + if qa['id'] not in predictions: + message = 'Unanswered question ' + qa['id'] + \ + ' will receive score 0.' + print(message, file=sys.stderr) + continue + ground_truths = list(map(lambda x: x['text'], qa['answers'])) + prediction = predictions[qa['id']] + exact_match += metric_max_over_ground_truths( + exact_match_score, prediction, ground_truths) + f1 += metric_max_over_ground_truths( + f1_score, prediction, ground_truths) + + exact_match = 100.0 * exact_match / total + f1 = 100.0 * f1 / total + + return {'exact_match': exact_match, 'f1': f1} + + +def main(config: configure_finetuning.FinetuningConfig, split): + expected_version = '1.1' + # parser = argparse.ArgumentParser( + # description='Evaluation for SQuAD ' + expected_version) + # parser.add_argument('dataset_file', help='Dataset file') + # parser.add_argument('prediction_file', help='Prediction File') + # args = parser.parse_args() + Args = collections.namedtuple("Args", [ + "dataset_file", "prediction_file" + ]) + args = Args(dataset_file=os.path.join( + config.raw_data_dir("squadv1"), + split + ("-debug" if config.debug else "") + ".json"), + prediction_file=config.qa_preds_file("squadv1")) + with tf.io.gfile.GFile(args.dataset_file) as dataset_file: + dataset_json = json.load(dataset_file) + if dataset_json['version'] != expected_version: + print('Evaluation expects v-' + expected_version + + ', but got dataset with v-' + dataset_json['version'], + file=sys.stderr) + dataset = dataset_json['data'] + with tf.io.gfile.GFile(args.prediction_file) as prediction_file: + predictions = json.load(prediction_file) + return evaluate(dataset, predictions) + diff --git a/arabert/araelectra/finetune/scorer.py b/arabert/araelectra/finetune/scorer.py new file mode 100644 index 0000000000000000000000000000000000000000..57358e23ae8d4ca4bbf2fb97eb65fec3305aa861 --- /dev/null +++ b/arabert/araelectra/finetune/scorer.py @@ -0,0 +1,54 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Base class for evaluation metrics.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import abc + + +class Scorer(object): + """Abstract base class for computing evaluation metrics.""" + + __metaclass__ = abc.ABCMeta + + def __init__(self): + self._updated = False + self._cached_results = {} + + @abc.abstractmethod + def update(self, results): + self._updated = True + + @abc.abstractmethod + def get_loss(self): + pass + + @abc.abstractmethod + def _get_results(self): + return [] + + def get_results(self, prefix=""): + results = self._get_results() if self._updated else self._cached_results + self._cached_results = results + self._updated = False + return [(prefix + k, v) for k, v in results] + + def results_str(self): + return " - ".join(["{:}: {:.2f}".format(k, v) + for k, v in self.get_results()]) diff --git a/arabert/araelectra/finetune/tagging/tagging_metrics.py b/arabert/araelectra/finetune/tagging/tagging_metrics.py new file mode 100644 index 0000000000000000000000000000000000000000..c07fee4bf17a15732389199488fb915aa1f39235 --- /dev/null +++ b/arabert/araelectra/finetune/tagging/tagging_metrics.py @@ -0,0 +1,116 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Metrics for sequence tagging tasks.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import abc +import six + +import numpy as np + +from finetune import scorer +from finetune.tagging import tagging_utils + + +class WordLevelScorer(scorer.Scorer): + """Base class for tagging scorers.""" + __metaclass__ = abc.ABCMeta + + def __init__(self): + super(WordLevelScorer, self).__init__() + self._total_loss = 0 + self._total_words = 0 + self._labels = [] + self._preds = [] + + def update(self, results): + super(WordLevelScorer, self).update(results) + self._total_loss += results['loss'] + n_words = int(round(np.sum(results['labels_mask']))) + self._labels.append(results['labels'][:n_words]) + self._preds.append(results['predictions'][:n_words]) + self._total_loss += np.sum(results['loss']) + self._total_words += n_words + + def get_loss(self): + return self._total_loss / max(1, self._total_words) + + +class AccuracyScorer(WordLevelScorer): + """Computes accuracy scores.""" + + def __init__(self, auto_fail_label=None): + super(AccuracyScorer, self).__init__() + self._auto_fail_label = auto_fail_label + + def _get_results(self): + correct, count = 0, 0 + for labels, preds in zip(self._labels, self._preds): + for y_true, y_pred in zip(labels, preds): + count += 1 + correct += (1 if y_pred == y_true and y_true != self._auto_fail_label + else 0) + return [ + ('accuracy', 100.0 * correct / count), + ('loss', self.get_loss()) + ] + + +class F1Scorer(WordLevelScorer): + """Computes F1 scores.""" + + __metaclass__ = abc.ABCMeta + + def __init__(self): + super(F1Scorer, self).__init__() + self._n_correct, self._n_predicted, self._n_gold = 0, 0, 0 + + def _get_results(self): + if self._n_correct == 0: + p, r, f1 = 0, 0, 0 + else: + p = 100.0 * self._n_correct / self._n_predicted + r = 100.0 * self._n_correct / self._n_gold + f1 = 2 * p * r / (p + r) + return [ + ('precision', p), + ('recall', r), + ('f1', f1), + ('loss', self.get_loss()), + ] + + +class EntityLevelF1Scorer(F1Scorer): + """Computes F1 score for entity-level tasks such as NER.""" + + def __init__(self, label_mapping): + super(EntityLevelF1Scorer, self).__init__() + self._inv_label_mapping = {v: k for k, v in six.iteritems(label_mapping)} + + def _get_results(self): + self._n_correct, self._n_predicted, self._n_gold = 0, 0, 0 + for labels, preds in zip(self._labels, self._preds): + sent_spans = set(tagging_utils.get_span_labels( + labels, self._inv_label_mapping)) + span_preds = set(tagging_utils.get_span_labels( + preds, self._inv_label_mapping)) + self._n_correct += len(sent_spans & span_preds) + self._n_gold += len(sent_spans) + self._n_predicted += len(span_preds) + return super(EntityLevelF1Scorer, self)._get_results() diff --git a/arabert/araelectra/finetune/tagging/tagging_tasks.py b/arabert/araelectra/finetune/tagging/tagging_tasks.py new file mode 100644 index 0000000000000000000000000000000000000000..37fd32a3bbd2cd4dad7db6a613b998155f19d3dc --- /dev/null +++ b/arabert/araelectra/finetune/tagging/tagging_tasks.py @@ -0,0 +1,253 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Sequence tagging tasks.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import abc +import collections +import os +import tensorflow as tf + +import configure_finetuning +from finetune import feature_spec +from finetune import task +from finetune.tagging import tagging_metrics +from finetune.tagging import tagging_utils +from model import tokenization +from pretrain import pretrain_helpers +from util import utils + + +LABEL_ENCODING = "BIOES" + + +class TaggingExample(task.Example): + """A single tagged input sequence.""" + + def __init__(self, eid, task_name, words, tags, is_token_level, + label_mapping): + super(TaggingExample, self).__init__(task_name) + self.eid = eid + self.words = words + if is_token_level: + labels = tags + else: + span_labels = tagging_utils.get_span_labels(tags) + labels = tagging_utils.get_tags( + span_labels, len(words), LABEL_ENCODING) + self.labels = [label_mapping[l] for l in labels] + + +class TaggingTask(task.Task): + """Defines a sequence tagging task (e.g., part-of-speech tagging).""" + + __metaclass__ = abc.ABCMeta + + def __init__(self, config: configure_finetuning.FinetuningConfig, name, + tokenizer, is_token_level): + super(TaggingTask, self).__init__(config, name) + self._tokenizer = tokenizer + self._label_mapping_path = os.path.join( + self.config.preprocessed_data_dir, + ("debug_" if self.config.debug else "") + self.name + + "_label_mapping.pkl") + self._is_token_level = is_token_level + self._label_mapping = None + + def get_examples(self, split): + sentences = self._get_labeled_sentences(split) + examples = [] + label_mapping = self._get_label_mapping(split, sentences) + for i, (words, tags) in enumerate(sentences): + examples.append(TaggingExample( + i, self.name, words, tags, self._is_token_level, label_mapping + )) + return examples + + def _get_label_mapping(self, provided_split=None, provided_sentences=None): + if self._label_mapping is not None: + return self._label_mapping + if tf.io.gfile.exists(self._label_mapping_path): + self._label_mapping = utils.load_pickle(self._label_mapping_path) + return self._label_mapping + utils.log("Writing label mapping for task", self.name) + tag_counts = collections.Counter() + train_tags = set() + for split in ["train", "dev", "test"]: + if not tf.io.gfile.exists(os.path.join( + self.config.raw_data_dir(self.name), split + ".txt")): + continue + if split == provided_split: + split_sentences = provided_sentences + else: + split_sentences = self._get_labeled_sentences(split) + for _, tags in split_sentences: + if not self._is_token_level: + span_labels = tagging_utils.get_span_labels(tags) + tags = tagging_utils.get_tags(span_labels, len(tags), LABEL_ENCODING) + for tag in tags: + tag_counts[tag] += 1 + if provided_split == "train": + train_tags.add(tag) + if self.name == "ccg": + infrequent_tags = [] + for tag in tag_counts: + if tag not in train_tags: + infrequent_tags.append(tag) + label_mapping = { + label: i for i, label in enumerate(sorted(filter( + lambda t: t not in infrequent_tags, tag_counts.keys()))) + } + n = len(label_mapping) + for tag in infrequent_tags: + label_mapping[tag] = n + else: + labels = sorted(tag_counts.keys()) + label_mapping = {label: i for i, label in enumerate(labels)} + utils.write_pickle(label_mapping, self._label_mapping_path) + self._label_mapping = label_mapping + return label_mapping + + def featurize(self, example: TaggingExample, is_training, log=False): + words_to_tokens = tokenize_and_align(self._tokenizer, example.words) + input_ids = [] + tagged_positions = [] + for word_tokens in words_to_tokens: + if len(words_to_tokens) + len(input_ids) + 1 > self.config.max_seq_length: + input_ids.append(self._tokenizer.vocab["[SEP]"]) + break + if "[CLS]" not in word_tokens and "[SEP]" not in word_tokens: + tagged_positions.append(len(input_ids)) + for token in word_tokens: + input_ids.append(self._tokenizer.vocab[token]) + + pad = lambda x: x + [0] * (self.config.max_seq_length - len(x)) + labels = pad(example.labels[:self.config.max_seq_length]) + labeled_positions = pad(tagged_positions) + labels_mask = pad([1.0] * len(tagged_positions)) + segment_ids = pad([1] * len(input_ids)) + input_mask = pad([1] * len(input_ids)) + input_ids = pad(input_ids) + assert len(input_ids) == self.config.max_seq_length + assert len(input_mask) == self.config.max_seq_length + assert len(segment_ids) == self.config.max_seq_length + assert len(labels) == self.config.max_seq_length + assert len(labels_mask) == self.config.max_seq_length + + return { + "input_ids": input_ids, + "input_mask": input_mask, + "segment_ids": segment_ids, + "task_id": self.config.task_names.index(self.name), + self.name + "_eid": example.eid, + self.name + "_labels": labels, + self.name + "_labels_mask": labels_mask, + self.name + "_labeled_positions": labeled_positions + } + + def _get_labeled_sentences(self, split): + sentences = [] + with tf.io.gfile.GFile(os.path.join(self.config.raw_data_dir(self.name), + split + ".txt"), "r") as f: + sentence = [] + for line in f: + line = line.strip().split() + if not line: + if sentence: + words, tags = zip(*sentence) + sentences.append((words, tags)) + sentence = [] + if self.config.debug and len(sentences) > 100: + return sentences + continue + if line[0] == "-DOCSTART-": + continue + word, tag = line[0], line[-1] + sentence.append((word, tag)) + return sentences + + def get_scorer(self): + return tagging_metrics.AccuracyScorer() if self._is_token_level else \ + tagging_metrics.EntityLevelF1Scorer(self._get_label_mapping()) + + def get_feature_specs(self): + return [ + feature_spec.FeatureSpec(self.name + "_eid", []), + feature_spec.FeatureSpec(self.name + "_labels", + [self.config.max_seq_length]), + feature_spec.FeatureSpec(self.name + "_labels_mask", + [self.config.max_seq_length], + is_int_feature=False), + feature_spec.FeatureSpec(self.name + "_labeled_positions", + [self.config.max_seq_length]), + ] + + def get_prediction_module( + self, bert_model, features, is_training, percent_done): + n_classes = len(self._get_label_mapping()) + reprs = bert_model.get_sequence_output() + reprs = pretrain_helpers.gather_positions( + reprs, features[self.name + "_labeled_positions"]) + logits = tf.layers.dense(reprs, n_classes) + losses = tf.nn.softmax_cross_entropy_with_logits( + labels=tf.one_hot(features[self.name + "_labels"], n_classes), + logits=logits) + losses *= features[self.name + "_labels_mask"] + losses = tf.reduce_sum(losses, axis=-1) + return losses, dict( + loss=losses, + logits=logits, + predictions=tf.argmax(logits, axis=-1), + labels=features[self.name + "_labels"], + labels_mask=features[self.name + "_labels_mask"], + eid=features[self.name + "_eid"], + ) + + def _create_examples(self, lines, split): + pass + + +def tokenize_and_align(tokenizer, words, cased=False): + """Splits up words into subword-level tokens.""" + words = ["[CLS]"] + list(words) + ["[SEP]"] + basic_tokenizer = tokenizer.basic_tokenizer + tokenized_words = [] + for word in words: + word = tokenization.convert_to_unicode(word) + word = basic_tokenizer._clean_text(word) + if word == "[CLS]" or word == "[SEP]": + word_toks = [word] + else: + if not cased: + word = word.lower() + word = basic_tokenizer._run_strip_accents(word) + word_toks = basic_tokenizer._run_split_on_punc(word) + tokenized_word = [] + for word_tok in word_toks: + tokenized_word += tokenizer.wordpiece_tokenizer.tokenize(word_tok) + tokenized_words.append(tokenized_word) + assert len(tokenized_words) == len(words) + return tokenized_words + + +class Chunking(TaggingTask): + """Text chunking.""" + + def __init__(self, config, tokenizer): + super(Chunking, self).__init__(config, "chunk", tokenizer, False) diff --git a/arabert/araelectra/finetune/tagging/tagging_utils.py b/arabert/araelectra/finetune/tagging/tagging_utils.py new file mode 100644 index 0000000000000000000000000000000000000000..101852e980ac0a380e766a31b97ee862083deba1 --- /dev/null +++ b/arabert/araelectra/finetune/tagging/tagging_utils.py @@ -0,0 +1,58 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Utilities for sequence tagging tasks.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + + +def get_span_labels(sentence_tags, inv_label_mapping=None): + """Go from token-level labels to list of entities (start, end, class).""" + if inv_label_mapping: + sentence_tags = [inv_label_mapping[i] for i in sentence_tags] + span_labels = [] + last = 'O' + start = -1 + for i, tag in enumerate(sentence_tags): + pos, _ = (None, 'O') if tag == 'O' else tag.split('-') + if (pos == 'S' or pos == 'B' or tag == 'O') and last != 'O': + span_labels.append((start, i - 1, last.split('-')[-1])) + if pos == 'B' or pos == 'S' or last == 'O': + start = i + last = tag + if sentence_tags[-1] != 'O': + span_labels.append((start, len(sentence_tags) - 1, + sentence_tags[-1].split('-')[-1])) + return span_labels + + +def get_tags(span_labels, length, encoding): + """Converts a list of entities to token-label labels based on the provided + encoding (e.g., BIOES). + """ + + tags = ['O' for _ in range(length)] + for s, e, t in span_labels: + for i in range(s, e + 1): + tags[i] = 'I-' + t + if 'E' in encoding: + tags[e] = 'E-' + t + if 'B' in encoding: + tags[s] = 'B-' + t + if 'S' in encoding and s - e == 0: + tags[s] = 'S-' + t + return tags diff --git a/arabert/araelectra/finetune/task.py b/arabert/araelectra/finetune/task.py new file mode 100644 index 0000000000000000000000000000000000000000..885fc1ed6256d966b2071d9e3ec94afb9c9ab6f1 --- /dev/null +++ b/arabert/araelectra/finetune/task.py @@ -0,0 +1,74 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Defines a supervised NLP task.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import abc +from typing import List, Tuple + +import configure_finetuning +from finetune import feature_spec +from finetune import scorer +from model import modeling + + +class Example(object): + __metaclass__ = abc.ABCMeta + + def __init__(self, task_name): + self.task_name = task_name + + +class Task(object): + """Override this class to add a new fine-tuning task.""" + + __metaclass__ = abc.ABCMeta + + def __init__(self, config: configure_finetuning.FinetuningConfig, name): + self.config = config + self.name = name + + def get_test_splits(self): + return ["test"] + + @abc.abstractmethod + def get_examples(self, split): + pass + + @abc.abstractmethod + def get_scorer(self) -> scorer.Scorer: + pass + + @abc.abstractmethod + def get_feature_specs(self) -> List[feature_spec.FeatureSpec]: + pass + + @abc.abstractmethod + def featurize(self, example: Example, is_training: bool, + log: bool=False): + pass + + @abc.abstractmethod + def get_prediction_module( + self, bert_model: modeling.BertModel, features: dict, is_training: bool, + percent_done: float) -> Tuple: + pass + + def __repr__(self): + return "Task(" + self.name + ")" diff --git a/arabert/araelectra/finetune/task_builder.py b/arabert/araelectra/finetune/task_builder.py new file mode 100644 index 0000000000000000000000000000000000000000..978b270f2c5eee7eee34ac7d1d9138fcf5c1a973 --- /dev/null +++ b/arabert/araelectra/finetune/task_builder.py @@ -0,0 +1,70 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Returns task instances given the task name.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import configure_finetuning +from finetune.classification import classification_tasks +from finetune.qa import qa_tasks +from finetune.tagging import tagging_tasks +from model import tokenization + + +def get_tasks(config: configure_finetuning.FinetuningConfig): + tokenizer = tokenization.FullTokenizer(vocab_file=config.vocab_file, + do_lower_case=config.do_lower_case) + return [get_task(config, task_name, tokenizer) + for task_name in config.task_names] + + +def get_task(config: configure_finetuning.FinetuningConfig, task_name, + tokenizer): + """Get an instance of a task based on its name.""" + if task_name == "cola": + return classification_tasks.CoLA(config, tokenizer) + elif task_name == "mrpc": + return classification_tasks.MRPC(config, tokenizer) + elif task_name == "mnli": + return classification_tasks.MNLI(config, tokenizer) + elif task_name == "sst": + return classification_tasks.SST(config, tokenizer) + elif task_name == "rte": + return classification_tasks.RTE(config, tokenizer) + elif task_name == "qnli": + return classification_tasks.QNLI(config, tokenizer) + elif task_name == "qqp": + return classification_tasks.QQP(config, tokenizer) + elif task_name == "sts": + return classification_tasks.STS(config, tokenizer) + elif task_name == "squad": + return qa_tasks.SQuAD(config, tokenizer) + elif task_name == "squadv1": + return qa_tasks.SQuADv1(config, tokenizer) + elif task_name == "newsqa": + return qa_tasks.NewsQA(config, tokenizer) + elif task_name == "naturalqs": + return qa_tasks.NaturalQuestions(config, tokenizer) + elif task_name == "triviaqa": + return qa_tasks.TriviaQA(config, tokenizer) + elif task_name == "searchqa": + return qa_tasks.SearchQA(config, tokenizer) + elif task_name == "chunk": + return tagging_tasks.Chunking(config, tokenizer) + else: + raise ValueError("Unknown task " + task_name) diff --git a/arabert/araelectra/flops_computation.py b/arabert/araelectra/flops_computation.py new file mode 100644 index 0000000000000000000000000000000000000000..3256ff2eb085f66fd31c0dc7fcebcb920f10989a --- /dev/null +++ b/arabert/araelectra/flops_computation.py @@ -0,0 +1,215 @@ +"""Computes the flops needed for training/running transformer networks.""" + +import collections + +# We checked this code with TensorFlow"s FLOPs counting, although we had to +# correct for this issue: https://github.com/tensorflow/tensorflow/issues/22071 +# Assumptions going into the FLOPs counting +# - An "operation" is a mathematical operation, not a machine instruction. So +# an "exp" takes one opp like and add, even though in practice an exp +# might be slower. This is not too bad an assumption because +# matrix-multiplies dominate the compute for most models, so minor details +# about activation functions don"t matter too much. Similarly, we count +# matrix-multiplies as 2*m*n flops instead of m*n, as one might if +# if considering fused multiply-add ops. +# - Backward pass takes the same number of FLOPs as forward pass. No exactly +# right (e.g., for softmax cross entropy loss the backward pass is faster). +# Importantly, it really is the same for matrix-multiplies, which is most of +# the compute anyway. +# - We assume "dense" embedding lookups (i.e., multiplication by a one-hot +# vector). On some hardware accelerators, these dense operations are +# actually faster than sparse lookups. +# Please open a github issue if you spot a problem with this code! + +# I am not sure if the below constants are 100% right, but they are only applied +# to O(hidden_size) activations, which is generally a lot less compute than the +# matrix-multiplies, which are O(hidden_size^2), so they don't affect the total +# number of FLOPs much. + +# random number, >=, multiply activations by dropout mask, multiply activations +# by correction (1 / (1 - dropout_rate)) +DROPOUT_FLOPS = 4 + +# compute mean activation (sum), computate variance of activation +# (square and sum), bias (add), scale (multiply) +LAYER_NORM_FLOPS = 5 + +# GELU: 0.5 * x * (1 + tanh(sqrt(2 / np.pi) * (x + 0.044715 * pow(x, 3)))) +ACTIVATION_FLOPS = 8 + +# max/substract (for stability), exp, sum, divide +SOFTMAX_FLOPS = 5 + + +class TransformerHparams(object): + """Computes the train/inference FLOPs for transformers.""" + + def __init__(self, h, l, s=512, v=30522, e=None, i=None, heads=None, + head_size=None, output_frac=0.15625, sparse_embed_lookup=False, + decoder=False): + self.h = h # hidden size + self.l = l # number of layers + self.s = s # sequence length + self.v = v # vocab size + self.e = h if e is None else e # embedding size + self.i = h * 4 if i is None else i # intermediate size + self.kqv = h if head_size is None else head_size * heads # attn proj sizes + self.heads = max(h // 64, 1) if heads is None else heads # attention heads + self.output_frac = output_frac # percent of tokens using an output softmax + self.sparse_embed_lookup = sparse_embed_lookup # sparse embedding lookups + self.decoder = decoder # decoder has extra attn to encoder states + + def get_block_flops(self): + """Get the forward-pass FLOPs for a single transformer block.""" + attn_mul = 2 if self.decoder else 1 + block_flops = dict( + kqv=3 * 2 * self.h * self.kqv * attn_mul, + kqv_bias=3 * self.kqv * attn_mul, + attention_scores=2 * self.kqv * self.s * attn_mul, + attn_softmax=SOFTMAX_FLOPS * self.s * self.heads * attn_mul, + attention_dropout=DROPOUT_FLOPS * self.s * self.heads * attn_mul, + attention_scale=self.s * self.heads * attn_mul, + attention_weighted_avg_values=2 * self.h * self.s * attn_mul, + attn_output=2 * self.h * self.h * attn_mul, + attn_output_bias=self.h * attn_mul, + attn_output_dropout=DROPOUT_FLOPS * self.h * attn_mul, + attn_output_residual=self.h * attn_mul, + attn_output_layer_norm=LAYER_NORM_FLOPS * attn_mul, + intermediate=2 * self.h * self.i, + intermediate_act=ACTIVATION_FLOPS * self.i, + intermediate_bias=self.i, + output=2 * self.h * self.i, + output_bias=self.h, + output_dropout=DROPOUT_FLOPS * self.h, + output_residual=self.h, + output_layer_norm=LAYER_NORM_FLOPS * self.h, + ) + return sum(block_flops.values()) * self.s + + def get_embedding_flops(self, output=False): + """Get the forward-pass FLOPs the transformer inputs or output softmax.""" + embedding_flops = {} + if output or (not self.sparse_embed_lookup): + embedding_flops["main_multiply"] = 2 * self.e * self.v + # input embedding post-processing + if not output: + embedding_flops.update(dict( + tok_type_and_position=2 * self.e * (self.s + 2), + add_tok_type_and_position=2 * self.e, + emb_layer_norm=LAYER_NORM_FLOPS * self.e, + emb_dropout=DROPOUT_FLOPS * self.e + )) + # projection layer if e != h + if self.e != self.h or output: + embedding_flops.update(dict( + hidden_kernel=2 * self.h * self.e, + hidden_bias=self.e if output else self.h + )) + # extra hidden layer and output softmax + if output: + embedding_flops.update(dict( + hidden_activation=ACTIVATION_FLOPS * self.e, + hidden_layernorm=LAYER_NORM_FLOPS * self.e, + output_softmax=SOFTMAX_FLOPS * self.v, + output_target_word=2 * self.v + )) + return self.output_frac * sum(embedding_flops.values()) * self.s + return sum(embedding_flops.values()) * self.s + + def get_binary_classification_flops(self): + classification_flops = dict( + hidden=2 * self.h * self.h, + hidden_bias=self.h, + hidden_act=ACTIVATION_FLOPS * self.h, + logits=2 * self.h + ) + return sum(classification_flops.values()) * self.s + + def get_train_flops(self, batch_size, train_steps, discriminator=False): + """Get the FLOPs for pre-training the transformer.""" + # 2* for forward/backward pass + return 2 * batch_size * train_steps * ( + (self.l * self.get_block_flops()) + + self.get_embedding_flops(output=False) + + (self.get_binary_classification_flops() if discriminator else + self.get_embedding_flops(output=True)) + ) + + def get_infer_flops(self): + """Get the FLOPs for running inference with the transformer on a + classification task.""" + return ((self.l * self.get_block_flops()) + + self.get_embedding_flops(output=False) + + self.get_binary_classification_flops()) + + +def get_electra_train_flops( + h_d, l_d, h_g, l_g, batch_size, train_steps, tied_embeddings, + e=None, s=512, output_frac=0.15625): + """Get the FLOPs needed for pre-training ELECTRA.""" + if e is None: + e = h_d + disc = TransformerHparams( + h_d, l_d, s=s, e=e, + output_frac=output_frac).get_train_flops(batch_size, train_steps, True) + gen = TransformerHparams( + h_g, l_g, s=s, e=e if tied_embeddings else None, + output_frac=output_frac).get_train_flops(batch_size, train_steps) + return disc + gen + + +MODEL_FLOPS = collections.OrderedDict([ + # These runtimes were computed with tensorflow FLOPs counting instead of the + # script, as the neural architectures are quite different. + # 768648884 words in LM1b benchmark, 10 epochs with batch size 20, + # seq length 128, 568093262680 FLOPs per example. + ("elmo", 2 * 10 * 768648884 * 568093262680 / (20.0 * 128)), + # 15064773691518 is FLOPs for forward pass on 32 examples. + # Therefore 2 * steps * batch_size * 15064773691518 / 32 is XLNet compute + ("xlnet", 2 * 500000 * 8192 * 15064773691518 / 32.0), + + # Runtimes computed with the script + ("gpt", TransformerHparams(768, 12, v=40000, output_frac=1.0).get_train_flops( + 128, 960800)), + ("bert_small", TransformerHparams(256, 12, e=128, s=128).get_train_flops(128, 1.45e6)), + ("bert_base", TransformerHparams(768, 12).get_train_flops(256, 1e6)), + ("bert_large", TransformerHparams(1024, 24).get_train_flops(256, 1e6)), + ("electra_small", get_electra_train_flops(256, 12, 64, 12, 128, 1e6, True, s=128, e=128)), + ("electra_base", get_electra_train_flops(768, 12, 256, 12, 256, 766000, True)), + ("electra_400k", get_electra_train_flops(1024, 24, 256, 24, 2048, 400000, True)), + ("electra_1.75M", get_electra_train_flops(1024, 24, 256, 24, 2048, 1750000, True)), + + # RoBERTa, ALBERT, and T5 have minor architectural differences from + # BERT/ELECTRA, but I believe they don't significantly effect the runtime, + # so we use this script for those models as well. + ("roberta", TransformerHparams(1024, 24, v=50265).get_train_flops(8000, 500000)), + ("albert", TransformerHparams(4096, 12, v=30000, e=128).get_train_flops( + 4096, 1.5e6)), + ("t5_11b", TransformerHparams( + 1024, # hidden size + 24, # layers + v=32000, # vocab size + i=65536, # ff intermediate hidden size + heads=128, head_size=128, # heads/head size + output_frac=0.0 # encoder has no output softmax + ).get_train_flops(2048, 1e6) + # 1M steps with batch size 2048 + TransformerHparams( + 1024, + 24, + v=32000, + i=65536, + heads=128, head_size=128, + output_frac=1.0, # decoder has output softmax for all positions + decoder=True + ).get_train_flops(2048, 1e6)) +]) + + +def main(): + for k, v in MODEL_FLOPS.items(): + print(k, v) + + +if __name__ == "__main__": + main() + diff --git a/arabert/araelectra/model/__init__.py b/arabert/araelectra/model/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..4241467eddcc96d95c06850ff13fbaa2e3739acb --- /dev/null +++ b/arabert/araelectra/model/__init__.py @@ -0,0 +1,14 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. \ No newline at end of file diff --git a/arabert/araelectra/model/modeling.py b/arabert/araelectra/model/modeling.py new file mode 100644 index 0000000000000000000000000000000000000000..a3afbb480dc1b5cb3557c4b62d8ffeb948ceb112 --- /dev/null +++ b/arabert/araelectra/model/modeling.py @@ -0,0 +1,1029 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""The transformer encoder used by ELECTRA. Essentially BERT's with a few +additional functionalities added. +""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections +import copy +import json +import math +import re + +import numpy as np +import six +import tensorflow as tf +from tensorflow.contrib import layers as contrib_layers + + +class BertConfig(object): + """Configuration for `BertModel` (ELECTRA uses the same model as BERT).""" + + def __init__(self, + vocab_size, + hidden_size=768, + num_hidden_layers=12, + num_attention_heads=12, + intermediate_size=3072, + hidden_act="gelu", + hidden_dropout_prob=0.1, + attention_probs_dropout_prob=0.1, + max_position_embeddings=512, + type_vocab_size=2, + initializer_range=0.02): + """Constructs BertConfig. + + Args: + vocab_size: Vocabulary size of `inputs_ids` in `BertModel`. + hidden_size: Size of the encoder layers and the pooler layer. + num_hidden_layers: Number of hidden layers in the Transformer encoder. + num_attention_heads: Number of attention heads for each attention layer in + the Transformer encoder. + intermediate_size: The size of the "intermediate" (i.e., feed-forward) + layer in the Transformer encoder. + hidden_act: The non-linear activation function (function or string) in the + encoder and pooler. + hidden_dropout_prob: The dropout probability for all fully connected + layers in the embeddings, encoder, and pooler. + attention_probs_dropout_prob: The dropout ratio for the attention + probabilities. + max_position_embeddings: The maximum sequence length that this model might + ever be used with. Typically set this to something large just in case + (e.g., 512 or 1024 or 2048). + type_vocab_size: The vocabulary size of the `token_type_ids` passed into + `BertModel`. + initializer_range: The stdev of the truncated_normal_initializer for + initializing all weight matrices. + """ + self.vocab_size = vocab_size + self.hidden_size = hidden_size + self.num_hidden_layers = num_hidden_layers + self.num_attention_heads = num_attention_heads + self.hidden_act = hidden_act + self.intermediate_size = intermediate_size + self.hidden_dropout_prob = hidden_dropout_prob + self.attention_probs_dropout_prob = attention_probs_dropout_prob + self.max_position_embeddings = max_position_embeddings + self.type_vocab_size = type_vocab_size + self.initializer_range = initializer_range + + @classmethod + def from_dict(cls, json_object): + """Constructs a `BertConfig` from a Python dictionary of parameters.""" + config = BertConfig(vocab_size=None) + for (key, value) in six.iteritems(json_object): + config.__dict__[key] = value + return config + + @classmethod + def from_json_file(cls, json_file): + """Constructs a `BertConfig` from a json file of parameters.""" + with tf.io.gfile.GFile(json_file, "r") as reader: + text = reader.read() + return cls.from_dict(json.loads(text)) + + def to_dict(self): + """Serializes this instance to a Python dictionary.""" + output = copy.deepcopy(self.__dict__) + return output + + def to_json_string(self): + """Serializes this instance to a JSON string.""" + return json.dumps(self.to_dict(), indent=2, sort_keys=True) + "\n" + + +class BertModel(object): + """BERT model. Although the training algorithm is different, the transformer + model for ELECTRA is the same as BERT's. + + Example usage: + + ```python + # Already been converted into WordPiece token ids + input_ids = tf.constant([[31, 51, 99], [15, 5, 0]]) + input_mask = tf.constant([[1, 1, 1], [1, 1, 0]]) + token_type_ids = tf.constant([[0, 0, 1], [0, 2, 0]]) + + config = modeling.BertConfig(vocab_size=32000, hidden_size=512, + num_hidden_layers=8, num_attention_heads=6, intermediate_size=1024) + + model = modeling.BertModel(config=config, is_training=True, + input_ids=input_ids, input_mask=input_mask, token_type_ids=token_type_ids) + + label_embeddings = tf.get_variable(...) + pooled_output = model.get_pooled_output() + logits = tf.matmul(pooled_output, label_embeddings) + ... + ``` + """ + + def __init__(self, + bert_config, + is_training, + input_ids, + input_mask=None, + token_type_ids=None, + use_one_hot_embeddings=True, + scope=None, + embedding_size=None, + input_embeddings=None, + input_reprs=None, + update_embeddings=True, + untied_embeddings=False, + ltr=False, + rtl=False): + """Constructor for BertModel. + + Args: + bert_config: `BertConfig` instance. + is_training: bool. true for training model, false for eval model. Controls + whether dropout will be applied. + input_ids: int32 Tensor of shape [batch_size, seq_length]. + input_mask: (optional) int32 Tensor of shape [batch_size, seq_length]. + token_type_ids: (optional) int32 Tensor of shape [batch_size, seq_length]. + use_one_hot_embeddings: (optional) bool. Whether to use one-hot word + embeddings or tf.embedding_lookup() for the word embeddings. On the TPU, + it is much faster if this is True, on the CPU or GPU, it is faster if + this is False. + scope: (optional) variable scope. Defaults to "electra". + + Raises: + ValueError: The config is invalid or one of the input tensor shapes + is invalid. + """ + bert_config = copy.deepcopy(bert_config) + if not is_training: + bert_config.hidden_dropout_prob = 0.0 + bert_config.attention_probs_dropout_prob = 0.0 + + input_shape = get_shape_list(token_type_ids, expected_rank=2) + batch_size = input_shape[0] + seq_length = input_shape[1] + + if input_mask is None: + input_mask = tf.ones(shape=[batch_size, seq_length], dtype=tf.int32) + + assert token_type_ids is not None + + if input_reprs is None: + if input_embeddings is None: + with tf.variable_scope( + (scope if untied_embeddings else "electra") + "/embeddings", + reuse=tf.AUTO_REUSE): + # Perform embedding lookup on the word ids + if embedding_size is None: + embedding_size = bert_config.hidden_size + (self.token_embeddings, self.embedding_table) = embedding_lookup( + input_ids=input_ids, + vocab_size=bert_config.vocab_size, + embedding_size=embedding_size, + initializer_range=bert_config.initializer_range, + word_embedding_name="word_embeddings", + use_one_hot_embeddings=use_one_hot_embeddings) + else: + self.token_embeddings = input_embeddings + + with tf.variable_scope( + (scope if untied_embeddings else "electra") + "/embeddings", + reuse=tf.AUTO_REUSE): + # Add positional embeddings and token type embeddings, then layer + # normalize and perform dropout. + self.embedding_output = embedding_postprocessor( + input_tensor=self.token_embeddings, + use_token_type=True, + token_type_ids=token_type_ids, + token_type_vocab_size=bert_config.type_vocab_size, + token_type_embedding_name="token_type_embeddings", + use_position_embeddings=True, + position_embedding_name="position_embeddings", + initializer_range=bert_config.initializer_range, + max_position_embeddings=bert_config.max_position_embeddings, + dropout_prob=bert_config.hidden_dropout_prob) + else: + self.embedding_output = input_reprs + if not update_embeddings: + self.embedding_output = tf.stop_gradient(self.embedding_output) + + with tf.variable_scope(scope, default_name="electra"): + if self.embedding_output.shape[-1] != bert_config.hidden_size: + self.embedding_output = tf.layers.dense( + self.embedding_output, bert_config.hidden_size, + name="embeddings_project") + + with tf.variable_scope("encoder"): + # This converts a 2D mask of shape [batch_size, seq_length] to a 3D + # mask of shape [batch_size, seq_length, seq_length] which is used + # for the attention scores. + attention_mask = create_attention_mask_from_input_mask( + token_type_ids, input_mask) + + # Add causal masking to the attention for running the transformer + # left-to-right or right-to-left + if ltr or rtl: + causal_mask = tf.ones((seq_length, seq_length)) + if ltr: + causal_mask = tf.matrix_band_part(causal_mask, -1, 0) + else: + causal_mask = tf.matrix_band_part(causal_mask, 0, -1) + attention_mask *= tf.expand_dims(causal_mask, 0) + + # Run the stacked transformer. Output shapes + # sequence_output: [batch_size, seq_length, hidden_size] + # pooled_output: [batch_size, hidden_size] + # all_encoder_layers: [n_layers, batch_size, seq_length, hidden_size]. + # attn_maps: [n_layers, batch_size, n_heads, seq_length, seq_length] + (self.all_layer_outputs, self.attn_maps) = transformer_model( + input_tensor=self.embedding_output, + attention_mask=attention_mask, + hidden_size=bert_config.hidden_size, + num_hidden_layers=bert_config.num_hidden_layers, + num_attention_heads=bert_config.num_attention_heads, + intermediate_size=bert_config.intermediate_size, + intermediate_act_fn=get_activation(bert_config.hidden_act), + hidden_dropout_prob=bert_config.hidden_dropout_prob, + attention_probs_dropout_prob= + bert_config.attention_probs_dropout_prob, + initializer_range=bert_config.initializer_range, + do_return_all_layers=True) + self.sequence_output = self.all_layer_outputs[-1] + self.pooled_output = self.sequence_output[:, 0] + + def get_pooled_output(self): + return self.pooled_output + + def get_sequence_output(self): + """Gets final hidden layer of encoder. + + Returns: + float Tensor of shape [batch_size, seq_length, hidden_size] corresponding + to the final hidden of the transformer encoder. + """ + return self.sequence_output + + def get_all_encoder_layers(self): + return self.all_layer_outputs + + def get_embedding_output(self): + """Gets output of the embedding lookup (i.e., input to the transformer). + + Returns: + float Tensor of shape [batch_size, seq_length, hidden_size] corresponding + to the output of the embedding layer, after summing the word + embeddings with the positional embeddings and the token type embeddings, + then performing layer normalization. This is the input to the transformer. + """ + return self.embedding_output + + def get_embedding_table(self): + return self.embedding_table + + +def gelu(input_tensor): + """Gaussian Error Linear Unit. + + This is a smoother version of the RELU. + Original paper: https://arxiv.org/abs/1606.08415 + + Args: + input_tensor: float Tensor to perform activation. + + Returns: + `input_tensor` with the GELU activation applied. + """ + cdf = 0.5 * (1.0 + tf.math.erf(input_tensor / tf.sqrt(2.0))) + return input_tensor * cdf + + +def get_activation(activation_string): + """Maps a string to a Python function, e.g., "relu" => `tf.nn.relu`. + + Args: + activation_string: String name of the activation function. + + Returns: + A Python function corresponding to the activation function. If + `activation_string` is None, empty, or "linear", this will return None. + If `activation_string` is not a string, it will return `activation_string`. + + Raises: + ValueError: The `activation_string` does not correspond to a known + activation. + """ + + # We assume that anything that"s not a string is already an activation + # function, so we just return it. + if not isinstance(activation_string, six.string_types): + return activation_string + + if not activation_string: + return None + + act = activation_string.lower() + if act == "linear": + return None + elif act == "relu": + return tf.nn.relu + elif act == "gelu": + return gelu + elif act == "tanh": + return tf.tanh + else: + raise ValueError("Unsupported activation: %s" % act) + + +def get_assignment_map_from_checkpoint(tvars, init_checkpoint, prefix=""): + """Compute the union of the current variables and checkpoint variables.""" + name_to_variable = collections.OrderedDict() + for var in tvars: + name = var.name + m = re.match("^(.*):\\d+$", name) + if m is not None: + name = m.group(1) + name_to_variable[name] = var + + initialized_variable_names = {} + assignment_map = collections.OrderedDict() + for x in tf.train.list_variables(init_checkpoint): + (name, var) = (x[0], x[1]) + if prefix + name not in name_to_variable: + continue + assignment_map[name] = prefix + name + initialized_variable_names[name] = 1 + initialized_variable_names[name + ":0"] = 1 + + return assignment_map, initialized_variable_names + + +def dropout(input_tensor, dropout_prob): + """Perform dropout. + + Args: + input_tensor: float Tensor. + dropout_prob: Python float. The probability of dropping out a value (NOT of + *keeping* a dimension as in `tf.nn.dropout`). + + Returns: + A version of `input_tensor` with dropout applied. + """ + if dropout_prob is None or dropout_prob == 0.0: + return input_tensor + + output = tf.nn.dropout(input_tensor, 1.0 - dropout_prob) + return output + + +def layer_norm(input_tensor, name=None): + """Run layer normalization on the last dimension of the tensor.""" + return contrib_layers.layer_norm( + inputs=input_tensor, begin_norm_axis=-1, begin_params_axis=-1, scope=name) + + +def layer_norm_and_dropout(input_tensor, dropout_prob, name=None): + """Runs layer normalization followed by dropout.""" + output_tensor = layer_norm(input_tensor, name) + output_tensor = dropout(output_tensor, dropout_prob) + return output_tensor + + +def create_initializer(initializer_range=0.02): + """Creates a `truncated_normal_initializer` with the given range.""" + return tf.truncated_normal_initializer(stddev=initializer_range) + + +def embedding_lookup(input_ids, + vocab_size, + embedding_size=128, + initializer_range=0.02, + word_embedding_name="word_embeddings", + use_one_hot_embeddings=False): + """Looks up words embeddings for id tensor. + + Args: + input_ids: int32 Tensor of shape [batch_size, seq_length] containing word + ids. + vocab_size: int. Size of the embedding vocabulary. + embedding_size: int. Width of the word embeddings. + initializer_range: float. Embedding initialization range. + word_embedding_name: string. Name of the embedding table. + use_one_hot_embeddings: bool. If True, use one-hot method for word + embeddings. If False, use `tf.nn.embedding_lookup()`. One hot is better + for TPUs. + + Returns: + float Tensor of shape [batch_size, seq_length, embedding_size]. + """ + # This function assumes that the input is of shape [batch_size, seq_length, + # num_inputs]. + # + # If the input is a 2D tensor of shape [batch_size, seq_length], we + # reshape to [batch_size, seq_length, 1]. + original_dims = input_ids.shape.ndims + if original_dims == 2: + input_ids = tf.expand_dims(input_ids, axis=[-1]) + + embedding_table = tf.get_variable( + name=word_embedding_name, + shape=[vocab_size, embedding_size], + initializer=create_initializer(initializer_range)) + + if original_dims == 3: + input_shape = get_shape_list(input_ids) + tf.reshape(input_ids, [-1, input_shape[-1]]) + output = tf.matmul(input_ids, embedding_table) + output = tf.reshape(output, + [input_shape[0], input_shape[1], embedding_size]) + else: + if use_one_hot_embeddings: + flat_input_ids = tf.reshape(input_ids, [-1]) + one_hot_input_ids = tf.one_hot(flat_input_ids, depth=vocab_size) + output = tf.matmul(one_hot_input_ids, embedding_table) + else: + output = tf.nn.embedding_lookup(embedding_table, input_ids) + + input_shape = get_shape_list(input_ids) + + output = tf.reshape(output, + input_shape[0:-1] + [input_shape[-1] * embedding_size]) + return output, embedding_table + + +def embedding_postprocessor(input_tensor, + use_token_type=False, + token_type_ids=None, + token_type_vocab_size=16, + token_type_embedding_name="token_type_embeddings", + use_position_embeddings=True, + position_embedding_name="position_embeddings", + initializer_range=0.02, + max_position_embeddings=512, + dropout_prob=0.1): + """Performs various post-processing on a word embedding tensor. + + Args: + input_tensor: float Tensor of shape [batch_size, seq_length, + embedding_size]. + use_token_type: bool. Whether to add embeddings for `token_type_ids`. + token_type_ids: (optional) int32 Tensor of shape [batch_size, seq_length]. + Must be specified if `use_token_type` is True. + token_type_vocab_size: int. The vocabulary size of `token_type_ids`. + token_type_embedding_name: string. The name of the embedding table variable + for token type ids. + use_position_embeddings: bool. Whether to add position embeddings for the + position of each token in the sequence. + position_embedding_name: string. The name of the embedding table variable + for positional embeddings. + initializer_range: float. Range of the weight initialization. + max_position_embeddings: int. Maximum sequence length that might ever be + used with this model. This can be longer than the sequence length of + input_tensor, but cannot be shorter. + dropout_prob: float. Dropout probability applied to the final output tensor. + + Returns: + float tensor with same shape as `input_tensor`. + + Raises: + ValueError: One of the tensor shapes or input values is invalid. + """ + input_shape = get_shape_list(input_tensor, expected_rank=3) + batch_size = input_shape[0] + seq_length = input_shape[1] + width = input_shape[2] + + output = input_tensor + + if use_token_type: + if token_type_ids is None: + raise ValueError("`token_type_ids` must be specified if" + "`use_token_type` is True.") + token_type_table = tf.get_variable( + name=token_type_embedding_name, + shape=[token_type_vocab_size, width], + initializer=create_initializer(initializer_range)) + # This vocab will be small so we always do one-hot here, since it is always + # faster for a small vocabulary. + flat_token_type_ids = tf.reshape(token_type_ids, [-1]) + one_hot_ids = tf.one_hot(flat_token_type_ids, depth=token_type_vocab_size) + token_type_embeddings = tf.matmul(one_hot_ids, token_type_table) + token_type_embeddings = tf.reshape(token_type_embeddings, + [batch_size, seq_length, width]) + output += token_type_embeddings + + if use_position_embeddings: + assert_op = tf.assert_less_equal(seq_length, max_position_embeddings) + with tf.control_dependencies([assert_op]): + full_position_embeddings = tf.get_variable( + name=position_embedding_name, + shape=[max_position_embeddings, width], + initializer=create_initializer(initializer_range)) + # Since the position embedding table is a learned variable, we create it + # using a (long) sequence length `max_position_embeddings`. The actual + # sequence length might be shorter than this, for faster training of + # tasks that do not have long sequences. + # + # So `full_position_embeddings` is effectively an embedding table + # for position [0, 1, 2, ..., max_position_embeddings-1], and the current + # sequence has positions [0, 1, 2, ... seq_length-1], so we can just + # perform a slice. + position_embeddings = tf.slice(full_position_embeddings, [0, 0], + [seq_length, -1]) + num_dims = len(output.shape.as_list()) + + # Only the last two dimensions are relevant (`seq_length` and `width`), so + # we broadcast among the first dimensions, which is typically just + # the batch size. + position_broadcast_shape = [] + for _ in range(num_dims - 2): + position_broadcast_shape.append(1) + position_broadcast_shape.extend([seq_length, width]) + position_embeddings = tf.reshape(position_embeddings, + position_broadcast_shape) + output += position_embeddings + + output = layer_norm_and_dropout(output, dropout_prob) + return output + + +def create_attention_mask_from_input_mask(from_tensor, to_mask): + """Create 3D attention mask from a 2D tensor mask. + + Args: + from_tensor: 2D or 3D Tensor of shape [batch_size, from_seq_length, ...]. + to_mask: int32 Tensor of shape [batch_size, to_seq_length]. + + Returns: + float Tensor of shape [batch_size, from_seq_length, to_seq_length]. + """ + from_shape = get_shape_list(from_tensor, expected_rank=[2, 3]) + batch_size = from_shape[0] + from_seq_length = from_shape[1] + + to_shape = get_shape_list(to_mask, expected_rank=2) + to_seq_length = to_shape[1] + + to_mask = tf.cast( + tf.reshape(to_mask, [batch_size, 1, to_seq_length]), tf.float32) + + # We don't assume that `from_tensor` is a mask (although it could be). We + # don't actually care if we attend *from* padding tokens (only *to* padding) + # tokens so we create a tensor of all ones. + # + # `broadcast_ones` = [batch_size, from_seq_length, 1] + broadcast_ones = tf.ones( + shape=[batch_size, from_seq_length, 1], dtype=tf.float32) + + # Here we broadcast along two dimensions to create the mask. + mask = broadcast_ones * to_mask + + return mask + + +def attention_layer(from_tensor, + to_tensor, + attention_mask=None, + num_attention_heads=1, + size_per_head=512, + query_act=None, + key_act=None, + value_act=None, + attention_probs_dropout_prob=0.0, + initializer_range=0.02, + do_return_2d_tensor=False, + batch_size=None, + from_seq_length=None, + to_seq_length=None): + """Performs multi-headed attention from `from_tensor` to `to_tensor`. + + This is an implementation of multi-headed attention based on "Attention + is all you Need". If `from_tensor` and `to_tensor` are the same, then + this is self-attention. Each timestep in `from_tensor` attends to the + corresponding sequence in `to_tensor`, and returns a fixed-with vector. + + This function first projects `from_tensor` into a "query" tensor and + `to_tensor` into "key" and "value" tensors. These are (effectively) a list + of tensors of length `num_attention_heads`, where each tensor is of shape + [batch_size, seq_length, size_per_head]. + + Then, the query and key tensors are dot-producted and scaled. These are + softmaxed to obtain attention probabilities. The value tensors are then + interpolated by these probabilities, then concatenated back to a single + tensor and returned. + + In practice, the multi-headed attention are done with transposes and + reshapes rather than actual separate tensors. + + Args: + from_tensor: float Tensor of shape [batch_size, from_seq_length, + from_width]. + to_tensor: float Tensor of shape [batch_size, to_seq_length, to_width]. + attention_mask: (optional) int32 Tensor of shape [batch_size, + from_seq_length, to_seq_length]. The values should be 1 or 0. The + attention scores will effectively be set to -infinity for any positions in + the mask that are 0, and will be unchanged for positions that are 1. + num_attention_heads: int. Number of attention heads. + size_per_head: int. Size of each attention head. + query_act: (optional) Activation function for the query transform. + key_act: (optional) Activation function for the key transform. + value_act: (optional) Activation function for the value transform. + attention_probs_dropout_prob: (optional) float. Dropout probability of the + attention probabilities. + initializer_range: float. Range of the weight initializer. + do_return_2d_tensor: bool. If True, the output will be of shape [batch_size + * from_seq_length, num_attention_heads * size_per_head]. If False, the + output will be of shape [batch_size, from_seq_length, num_attention_heads + * size_per_head]. + batch_size: (Optional) int. If the input is 2D, this might be the batch size + of the 3D version of the `from_tensor` and `to_tensor`. + from_seq_length: (Optional) If the input is 2D, this might be the seq length + of the 3D version of the `from_tensor`. + to_seq_length: (Optional) If the input is 2D, this might be the seq length + of the 3D version of the `to_tensor`. + + Returns: + float Tensor of shape [batch_size, from_seq_length, + num_attention_heads * size_per_head]. (If `do_return_2d_tensor` is + true, this will be of shape [batch_size * from_seq_length, + num_attention_heads * size_per_head]). + + Raises: + ValueError: Any of the arguments or tensor shapes are invalid. + """ + + def transpose_for_scores(input_tensor, batch_size, num_attention_heads, + seq_length, width): + output_tensor = tf.reshape( + input_tensor, [batch_size, seq_length, num_attention_heads, width]) + + output_tensor = tf.transpose(output_tensor, [0, 2, 1, 3]) + return output_tensor + + from_shape = get_shape_list(from_tensor, expected_rank=[2, 3]) + to_shape = get_shape_list(to_tensor, expected_rank=[2, 3]) + + if len(from_shape) != len(to_shape): + raise ValueError( + "The rank of `from_tensor` must match the rank of `to_tensor`.") + + if len(from_shape) == 3: + batch_size = from_shape[0] + from_seq_length = from_shape[1] + to_seq_length = to_shape[1] + elif len(from_shape) == 2: + if batch_size is None or from_seq_length is None or to_seq_length is None: + raise ValueError( + "When passing in rank 2 tensors to attention_layer, the values " + "for `batch_size`, `from_seq_length`, and `to_seq_length` " + "must all be specified.") + + # Scalar dimensions referenced here: + # B = batch size (number of sequences) + # F = `from_tensor` sequence length + # T = `to_tensor` sequence length + # N = `num_attention_heads` + # H = `size_per_head` + + from_tensor_2d = reshape_to_matrix(from_tensor) + to_tensor_2d = reshape_to_matrix(to_tensor) + + # `query_layer` = [B*F, N*H] + query_layer = tf.layers.dense( + from_tensor_2d, + num_attention_heads * size_per_head, + activation=query_act, + name="query", + kernel_initializer=create_initializer(initializer_range)) + + # `key_layer` = [B*T, N*H] + key_layer = tf.layers.dense( + to_tensor_2d, + num_attention_heads * size_per_head, + activation=key_act, + name="key", + kernel_initializer=create_initializer(initializer_range)) + + # `value_layer` = [B*T, N*H] + value_layer = tf.layers.dense( + to_tensor_2d, + num_attention_heads * size_per_head, + activation=value_act, + name="value", + kernel_initializer=create_initializer(initializer_range)) + + # `query_layer` = [B, N, F, H] + query_layer = transpose_for_scores(query_layer, batch_size, + num_attention_heads, from_seq_length, + size_per_head) + + # `key_layer` = [B, N, T, H] + key_layer = transpose_for_scores(key_layer, batch_size, num_attention_heads, + to_seq_length, size_per_head) + + # Take the dot product between "query" and "key" to get the raw + # attention scores. + # `attention_scores` = [B, N, F, T] + attention_scores = tf.matmul(query_layer, key_layer, transpose_b=True) + attention_scores = tf.multiply(attention_scores, + 1.0 / math.sqrt(float(size_per_head))) + + if attention_mask is not None: + # `attention_mask` = [B, 1, F, T] + attention_mask = tf.expand_dims(attention_mask, axis=[1]) + + # Since attention_mask is 1.0 for positions we want to attend and 0.0 for + # masked positions, this operation will create a tensor which is 0.0 for + # positions we want to attend and -10000.0 for masked positions. + adder = (1.0 - tf.cast(attention_mask, tf.float32)) * -10000.0 + + # Since we are adding it to the raw scores before the softmax, this is + # effectively the same as removing these entirely. + attention_scores += adder + + # Normalize the attention scores to probabilities. + # `attention_probs` = [B, N, F, T] + attention_probs = tf.nn.softmax(attention_scores) + + # This is actually dropping out entire tokens to attend to, which might + # seem a bit unusual, but is taken from the original Transformer paper. + attention_probs = dropout(attention_probs, attention_probs_dropout_prob) + + # `value_layer` = [B, T, N, H] + value_layer = tf.reshape( + value_layer, + [batch_size, to_seq_length, num_attention_heads, size_per_head]) + + # `value_layer` = [B, N, T, H] + value_layer = tf.transpose(value_layer, [0, 2, 1, 3]) + + # `context_layer` = [B, N, F, H] + context_layer = tf.matmul(attention_probs, value_layer) + + # `context_layer` = [B, F, N, H] + context_layer = tf.transpose(context_layer, [0, 2, 1, 3]) + + if do_return_2d_tensor: + # `context_layer` = [B*F, N*H] + context_layer = tf.reshape( + context_layer, + [batch_size * from_seq_length, num_attention_heads * size_per_head]) + else: + # `context_layer` = [B, F, N*H] + context_layer = tf.reshape( + context_layer, + [batch_size, from_seq_length, num_attention_heads * size_per_head]) + + return context_layer, attention_probs + + +def transformer_model(input_tensor, + attention_mask=None, + hidden_size=768, + num_hidden_layers=12, + num_attention_heads=12, + intermediate_size=3072, + intermediate_act_fn=gelu, + hidden_dropout_prob=0.1, + attention_probs_dropout_prob=0.1, + initializer_range=0.02, + do_return_all_layers=False): + """Multi-headed, multi-layer Transformer from "Attention is All You Need". + + This is almost an exact implementation of the original Transformer encoder. + + See the original paper: + https://arxiv.org/abs/1706.03762 + + Also see: + https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/models/transformer.py + + Args: + input_tensor: float Tensor of shape [batch_size, seq_length, hidden_size]. + attention_mask: (optional) int32 Tensor of shape [batch_size, seq_length, + seq_length], with 1 for positions that can be attended to and 0 in + positions that should not be. + hidden_size: int. Hidden size of the Transformer. + num_hidden_layers: int. Number of layers (blocks) in the Transformer. + num_attention_heads: int. Number of attention heads in the Transformer. + intermediate_size: int. The size of the "intermediate" (a.k.a., feed + forward) layer. + intermediate_act_fn: function. The non-linear activation function to apply + to the output of the intermediate/feed-forward layer. + hidden_dropout_prob: float. Dropout probability for the hidden layers. + attention_probs_dropout_prob: float. Dropout probability of the attention + probabilities. + initializer_range: float. Range of the initializer (stddev of truncated + normal). + do_return_all_layers: Whether to also return all layers or just the final + layer. + + Returns: + float Tensor of shape [batch_size, seq_length, hidden_size], the final + hidden layer of the Transformer. + + Raises: + ValueError: A Tensor shape or parameter is invalid. + """ + if hidden_size % num_attention_heads != 0: + raise ValueError( + "The hidden size (%d) is not a multiple of the number of attention " + "heads (%d)" % (hidden_size, num_attention_heads)) + + attention_head_size = int(hidden_size / num_attention_heads) + input_shape = get_shape_list(input_tensor, expected_rank=3) + batch_size = input_shape[0] + seq_length = input_shape[1] + input_width = input_shape[2] + + # The Transformer performs sum residuals on all layers so the input needs + # to be the same as the hidden size. + if input_width != hidden_size: + raise ValueError("The width of the input tensor (%d) != hidden size (%d)" % + (input_width, hidden_size)) + + # We keep the representation as a 2D tensor to avoid re-shaping it back and + # forth from a 3D tensor to a 2D tensor. Re-shapes are normally free on + # the GPU/CPU but may not be free on the TPU, so we want to minimize them to + # help the optimizer. + prev_output = reshape_to_matrix(input_tensor) + + attn_maps = [] + all_layer_outputs = [] + for layer_idx in range(num_hidden_layers): + with tf.variable_scope("layer_%d" % layer_idx): + with tf.variable_scope("attention"): + attention_heads = [] + with tf.variable_scope("self"): + attention_head, probs = attention_layer( + from_tensor=prev_output, + to_tensor=prev_output, + attention_mask=attention_mask, + num_attention_heads=num_attention_heads, + size_per_head=attention_head_size, + attention_probs_dropout_prob=attention_probs_dropout_prob, + initializer_range=initializer_range, + do_return_2d_tensor=True, + batch_size=batch_size, + from_seq_length=seq_length, + to_seq_length=seq_length) + attention_heads.append(attention_head) + attn_maps.append(probs) + + attention_output = None + if len(attention_heads) == 1: + attention_output = attention_heads[0] + else: + # In the case where we have other sequences, we just concatenate + # them to the self-attention head before the projection. + attention_output = tf.concat(attention_heads, axis=-1) + + # Run a linear projection of `hidden_size` then add a residual + # with `layer_input`. + with tf.variable_scope("output"): + attention_output = tf.layers.dense( + attention_output, + hidden_size, + kernel_initializer=create_initializer(initializer_range)) + attention_output = dropout(attention_output, hidden_dropout_prob) + attention_output = layer_norm(attention_output + prev_output) + + # The activation is only applied to the "intermediate" hidden layer. + with tf.variable_scope("intermediate"): + intermediate_output = tf.layers.dense( + attention_output, + intermediate_size, + activation=intermediate_act_fn, + kernel_initializer=create_initializer(initializer_range)) + + # Down-project back to `hidden_size` then add the residual. + with tf.variable_scope("output"): + prev_output = tf.layers.dense( + intermediate_output, + hidden_size, + kernel_initializer=create_initializer(initializer_range)) + prev_output = dropout(prev_output, hidden_dropout_prob) + prev_output = layer_norm(prev_output + attention_output) + all_layer_outputs.append(prev_output) + + attn_maps = tf.stack(attn_maps, 0) + if do_return_all_layers: + return tf.stack([reshape_from_matrix(layer, input_shape) + for layer in all_layer_outputs], 0), attn_maps + else: + return reshape_from_matrix(prev_output, input_shape), attn_maps + + +def get_shape_list(tensor, expected_rank=None, name=None): + """Returns a list of the shape of tensor, preferring static dimensions. + + Args: + tensor: A tf.Tensor object to find the shape of. + expected_rank: (optional) int. The expected rank of `tensor`. If this is + specified and the `tensor` has a different rank, and exception will be + thrown. + name: Optional name of the tensor for the error message. + + Returns: + A list of dimensions of the shape of tensor. All static dimensions will + be returned as python integers, and dynamic dimensions will be returned + as tf.Tensor scalars. + """ + if isinstance(tensor, np.ndarray) or isinstance(tensor, list): + shape = np.array(tensor).shape + if isinstance(expected_rank, six.integer_types): + assert len(shape) == expected_rank + elif expected_rank is not None: + assert len(shape) in expected_rank + return shape + + if name is None: + name = tensor.name + + if expected_rank is not None: + assert_rank(tensor, expected_rank, name) + + shape = tensor.shape.as_list() + + non_static_indexes = [] + for (index, dim) in enumerate(shape): + if dim is None: + non_static_indexes.append(index) + + if not non_static_indexes: + return shape + + dyn_shape = tf.shape(tensor) + for index in non_static_indexes: + shape[index] = dyn_shape[index] + return shape + + +def reshape_to_matrix(input_tensor): + """Reshapes a >= rank 2 tensor to a rank 2 tensor (i.e., a matrix).""" + ndims = input_tensor.shape.ndims + if ndims < 2: + raise ValueError("Input tensor must have at least rank 2. Shape = %s" % + (input_tensor.shape)) + if ndims == 2: + return input_tensor + + width = input_tensor.shape[-1] + output_tensor = tf.reshape(input_tensor, [-1, width]) + return output_tensor + + +def reshape_from_matrix(output_tensor, orig_shape_list): + """Reshapes a rank 2 tensor back to its original rank >= 2 tensor.""" + if len(orig_shape_list) == 2: + return output_tensor + + output_shape = get_shape_list(output_tensor) + + orig_dims = orig_shape_list[0:-1] + width = output_shape[-1] + + return tf.reshape(output_tensor, orig_dims + [width]) + + +def assert_rank(tensor, expected_rank, name=None): + """Raises an exception if the tensor rank is not of the expected rank. + + Args: + tensor: A tf.Tensor to check the rank of. + expected_rank: Python integer or list of integers, expected rank. + name: Optional name of the tensor for the error message. + + Raises: + ValueError: If the expected shape doesn't match the actual shape. + """ + if name is None: + name = tensor.name + + expected_rank_dict = {} + if isinstance(expected_rank, six.integer_types): + expected_rank_dict[expected_rank] = True + else: + for x in expected_rank: + expected_rank_dict[x] = True + + actual_rank = tensor.shape.ndims + if actual_rank not in expected_rank_dict: + scope_name = tf.get_variable_scope().name + raise ValueError( + "For the tensor `%s` in scope `%s`, the actual rank " + "`%d` (shape = %s) is not equal to the expected rank `%s`" % + (name, scope_name, actual_rank, str(tensor.shape), str(expected_rank))) diff --git a/arabert/araelectra/model/optimization.py b/arabert/araelectra/model/optimization.py new file mode 100644 index 0000000000000000000000000000000000000000..f5c329d087bacd39cef392b712cce3e8c2d069ba --- /dev/null +++ b/arabert/araelectra/model/optimization.py @@ -0,0 +1,193 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Functions and classes related to optimization (weight updates). +Modified from the original BERT code to allow for having separate learning +rates for different layers of the network. +""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections +import re +import tensorflow as tf + + +def create_optimizer( + loss, learning_rate, num_train_steps, weight_decay_rate=0.0, use_tpu=False, + warmup_steps=0, warmup_proportion=0, lr_decay_power=1.0, + layerwise_lr_decay_power=-1, n_transformer_layers=None): + """Creates an optimizer and training op.""" + global_step = tf.train.get_or_create_global_step() + learning_rate = tf.train.polynomial_decay( + learning_rate, + global_step, + num_train_steps, + end_learning_rate=0.0, + power=lr_decay_power, + cycle=False) + warmup_steps = max(num_train_steps * warmup_proportion, warmup_steps) + learning_rate *= tf.minimum( + 1.0, tf.cast(global_step, tf.float32) / tf.cast(warmup_steps, tf.float32)) + + if layerwise_lr_decay_power > 0: + learning_rate = _get_layer_lrs(learning_rate, layerwise_lr_decay_power, + n_transformer_layers) + optimizer = AdamWeightDecayOptimizer( + learning_rate=learning_rate, + weight_decay_rate=weight_decay_rate, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=["LayerNorm", "layer_norm", "bias"]) + if use_tpu: + optimizer = tf.tpu.CrossShardOptimizer(optimizer) + + tvars = tf.trainable_variables() + grads = tf.gradients(loss, tvars) + (grads, _) = tf.clip_by_global_norm(grads, clip_norm=1.0) + train_op = optimizer.apply_gradients( + zip(grads, tvars), global_step=global_step) + new_global_step = global_step + 1 + train_op = tf.group(train_op, [global_step.assign(new_global_step)]) + return train_op + + +class AdamWeightDecayOptimizer(tf.train.Optimizer): + """A basic Adam optimizer that includes "correct" L2 weight decay.""" + + def __init__(self, + learning_rate, + weight_decay_rate=0.0, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=None, + name="AdamWeightDecayOptimizer"): + """Constructs a AdamWeightDecayOptimizer.""" + super(AdamWeightDecayOptimizer, self).__init__(False, name) + + self.learning_rate = learning_rate + self.weight_decay_rate = weight_decay_rate + self.beta_1 = beta_1 + self.beta_2 = beta_2 + self.epsilon = epsilon + self.exclude_from_weight_decay = exclude_from_weight_decay + + def _apply_gradients(self, grads_and_vars, learning_rate): + """See base class.""" + assignments = [] + for (grad, param) in grads_and_vars: + if grad is None or param is None: + continue + + param_name = self._get_variable_name(param.name) + + m = tf.get_variable( + name=param_name + "/adam_m", + shape=param.shape.as_list(), + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer()) + v = tf.get_variable( + name=param_name + "/adam_v", + shape=param.shape.as_list(), + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer()) + + # Standard Adam update. + next_m = ( + tf.multiply(self.beta_1, m) + tf.multiply(1.0 - self.beta_1, grad)) + next_v = ( + tf.multiply(self.beta_2, v) + tf.multiply(1.0 - self.beta_2, + tf.square(grad))) + update = next_m / (tf.sqrt(next_v) + self.epsilon) + + # Just adding the square of the weights to the loss function is *not* + # the correct way of using L2 regularization/weight decay with Adam, + # since that will interact with the m and v parameters in strange ways. + # + # Instead we want ot decay the weights in a manner that doesn't interact + # with the m/v parameters. This is equivalent to adding the square + # of the weights to the loss with plain (non-momentum) SGD. + if self.weight_decay_rate > 0: + if self._do_use_weight_decay(param_name): + update += self.weight_decay_rate * param + + update_with_lr = learning_rate * update + next_param = param - update_with_lr + + assignments.extend( + [param.assign(next_param), + m.assign(next_m), + v.assign(next_v)]) + + return assignments + + def apply_gradients(self, grads_and_vars, global_step=None, name=None): + if isinstance(self.learning_rate, dict): + key_to_grads_and_vars = {} + for grad, var in grads_and_vars: + update_for_var = False + for key in self.learning_rate: + if key in var.name: + update_for_var = True + if key not in key_to_grads_and_vars: + key_to_grads_and_vars[key] = [] + key_to_grads_and_vars[key].append((grad, var)) + if not update_for_var: + raise ValueError("No learning rate specified for variable", var) + assignments = [] + for key, key_grads_and_vars in key_to_grads_and_vars.items(): + assignments += self._apply_gradients(key_grads_and_vars, + self.learning_rate[key]) + else: + assignments = self._apply_gradients(grads_and_vars, self.learning_rate) + return tf.group(*assignments, name=name) + + def _do_use_weight_decay(self, param_name): + """Whether to use L2 weight decay for `param_name`.""" + if not self.weight_decay_rate: + return False + if self.exclude_from_weight_decay: + for r in self.exclude_from_weight_decay: + if re.search(r, param_name) is not None: + return False + return True + + def _get_variable_name(self, param_name): + """Get the variable name from the tensor name.""" + m = re.match("^(.*):\\d+$", param_name) + if m is not None: + param_name = m.group(1) + return param_name + + +def _get_layer_lrs(learning_rate, layer_decay, n_layers): + """Have lower learning rates for layers closer to the input.""" + key_to_depths = collections.OrderedDict({ + "/embeddings/": 0, + "/embeddings_project/": 0, + "task_specific/": n_layers + 2, + }) + for layer in range(n_layers): + key_to_depths["encoder/layer_" + str(layer) + "/"] = layer + 1 + return { + key: learning_rate * (layer_decay ** (n_layers + 2 - depth)) + for key, depth in key_to_depths.items() + } diff --git a/arabert/araelectra/model/tokenization.py b/arabert/araelectra/model/tokenization.py new file mode 100644 index 0000000000000000000000000000000000000000..dc87c3bda628de73bf7e014402d7cb5b780ea09d --- /dev/null +++ b/arabert/araelectra/model/tokenization.py @@ -0,0 +1,355 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Tokenization classes, the same as used for BERT.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections +import unicodedata +import six +import tensorflow as tf + + + +def convert_to_unicode(text): + """Converts `text` to Unicode (if it's not already), assuming utf-8 input.""" + if six.PY3: + if isinstance(text, str): + return text + elif isinstance(text, bytes): + return text.decode("utf-8", "ignore") + else: + raise ValueError("Unsupported string type: %s" % (type(text))) + elif six.PY2: + if isinstance(text, str): + return text.decode("utf-8", "ignore") + elif isinstance(text, unicode): + return text + else: + raise ValueError("Unsupported string type: %s" % (type(text))) + else: + raise ValueError("Not running on Python2 or Python 3?") + + +def printable_text(text): + """Returns text encoded in a way suitable for print or `tf.logging`.""" + + # These functions want `str` for both Python2 and Python3, but in one case + # it's a Unicode string and in the other it's a byte string. + if six.PY3: + if isinstance(text, str): + return text + elif isinstance(text, bytes): + return text.decode("utf-8", "ignore") + else: + raise ValueError("Unsupported string type: %s" % (type(text))) + elif six.PY2: + if isinstance(text, str): + return text + elif isinstance(text, unicode): + return text.encode("utf-8") + else: + raise ValueError("Unsupported string type: %s" % (type(text))) + else: + raise ValueError("Not running on Python2 or Python 3?") + + +def load_vocab(vocab_file): + """Loads a vocabulary file into a dictionary.""" + vocab = collections.OrderedDict() + index = 0 + with tf.io.gfile.GFile(vocab_file, "r") as reader: + while True: + token = convert_to_unicode(reader.readline()) + if not token: + break + token = token.strip() + vocab[token] = index + index += 1 + return vocab + + +def convert_by_vocab(vocab, items): + """Converts a sequence of [tokens|ids] using the vocab.""" + output = [] + for item in items: + output.append(vocab[item]) + return output + + +def convert_tokens_to_ids(vocab, tokens): + return convert_by_vocab(vocab, tokens) + + +def convert_ids_to_tokens(inv_vocab, ids): + return convert_by_vocab(inv_vocab, ids) + + +def whitespace_tokenize(text): + """Runs basic whitespace cleaning and splitting on a piece of text.""" + text = text.strip() + if not text: + return [] + tokens = text.split() + return tokens + + +class FullTokenizer(object): + """Runs end-to-end tokenziation.""" + + def __init__(self, vocab_file, do_lower_case=True): + self.vocab = load_vocab(vocab_file) + self.inv_vocab = {v: k for k, v in self.vocab.items()} + self.basic_tokenizer = BasicTokenizer(do_lower_case=do_lower_case) + self.wordpiece_tokenizer = WordpieceTokenizer(vocab=self.vocab) + + def tokenize(self, text): + split_tokens = [] + for token in self.basic_tokenizer.tokenize(text): + for sub_token in self.wordpiece_tokenizer.tokenize(token): + split_tokens.append(sub_token) + + return split_tokens + + def convert_tokens_to_ids(self, tokens): + return convert_by_vocab(self.vocab, tokens) + + def convert_ids_to_tokens(self, ids): + return convert_by_vocab(self.inv_vocab, ids) + + +class BasicTokenizer(object): + """Runs basic tokenization (punctuation splitting, lower casing, etc.).""" + + def __init__(self, do_lower_case=True): + """Constructs a BasicTokenizer. + + Args: + do_lower_case: Whether to lower case the input. + """ + self.do_lower_case = do_lower_case + + def tokenize(self, text): + """Tokenizes a piece of text.""" + text = convert_to_unicode(text) + text = self._clean_text(text) + + # This was added on November 1st, 2018 for the multilingual and Chinese + # models. This is also applied to the English models now, but it doesn't + # matter since the English models were not trained on any Chinese data + # and generally don't have any Chinese data in them (there are Chinese + # characters in the vocabulary because Wikipedia does have some Chinese + # words in the English Wikipedia.). + text = self._tokenize_chinese_chars(text) + + orig_tokens = whitespace_tokenize(text) + split_tokens = [] + for token in orig_tokens: + if self.do_lower_case: + token = token.lower() + token = self._run_strip_accents(token) + split_tokens.extend(self._run_split_on_punc(token)) + + output_tokens = whitespace_tokenize(" ".join(split_tokens)) + return output_tokens + + def _run_strip_accents(self, text): + """Strips accents from a piece of text.""" + text = unicodedata.normalize("NFD", text) + output = [] + for char in text: + cat = unicodedata.category(char) + if cat == "Mn": + continue + output.append(char) + return "".join(output) + + def _run_split_on_punc(self, text): + """Splits punctuation on a piece of text.""" + chars = list(text) + i = 0 + start_new_word = True + output = [] + while i < len(chars): + char = chars[i] + if _is_punctuation(char): + output.append([char]) + start_new_word = True + else: + if start_new_word: + output.append([]) + start_new_word = False + output[-1].append(char) + i += 1 + + return ["".join(x) for x in output] + + def _tokenize_chinese_chars(self, text): + """Adds whitespace around any CJK character.""" + output = [] + for char in text: + cp = ord(char) + if self._is_chinese_char(cp): + output.append(" ") + output.append(char) + output.append(" ") + else: + output.append(char) + return "".join(output) + + def _is_chinese_char(self, cp): + """Checks whether CP is the codepoint of a CJK character.""" + # This defines a "chinese character" as anything in the CJK Unicode block: + # https://en.wikipedia.org/wiki/CJK_Unified_Ideographs_(Unicode_block) + # + # Note that the CJK Unicode block is NOT all Japanese and Korean characters, + # despite its name. The modern Korean Hangul alphabet is a different block, + # as is Japanese Hiragana and Katakana. Those alphabets are used to write + # space-separated words, so they are not treated specially and handled + # like the all of the other languages. + if ((cp >= 0x4E00 and cp <= 0x9FFF) or # + (cp >= 0x3400 and cp <= 0x4DBF) or # + (cp >= 0x20000 and cp <= 0x2A6DF) or # + (cp >= 0x2A700 and cp <= 0x2B73F) or # + (cp >= 0x2B740 and cp <= 0x2B81F) or # + (cp >= 0x2B820 and cp <= 0x2CEAF) or + (cp >= 0xF900 and cp <= 0xFAFF) or # + (cp >= 0x2F800 and cp <= 0x2FA1F)): # + return True + + return False + + def _clean_text(self, text): + """Performs invalid character removal and whitespace cleanup on text.""" + output = [] + for char in text: + cp = ord(char) + if cp == 0 or cp == 0xfffd or _is_control(char): + continue + if _is_whitespace(char): + output.append(" ") + else: + output.append(char) + return "".join(output) + + +class WordpieceTokenizer(object): + """Runs WordPiece tokenziation.""" + + def __init__(self, vocab, unk_token="[UNK]", max_input_chars_per_word=200): + self.vocab = vocab + self.unk_token = unk_token + self.max_input_chars_per_word = max_input_chars_per_word + + def tokenize(self, text): + """Tokenizes a piece of text into its word pieces. + + This uses a greedy longest-match-first algorithm to perform tokenization + using the given vocabulary. + + For example: + input = "unaffable" + output = ["un", "##aff", "##able"] + + Args: + text: A single token or whitespace separated tokens. This should have + already been passed through `BasicTokenizer. + + Returns: + A list of wordpiece tokens. + """ + + text = convert_to_unicode(text) + + output_tokens = [] + for token in whitespace_tokenize(text): + chars = list(token) + if len(chars) > self.max_input_chars_per_word: + output_tokens.append(self.unk_token) + continue + + is_bad = False + start = 0 + sub_tokens = [] + while start < len(chars): + end = len(chars) + cur_substr = None + while start < end: + substr = "".join(chars[start:end]) + if start > 0: + substr = "##" + substr + if substr in self.vocab: + cur_substr = substr + break + end -= 1 + if cur_substr is None: + is_bad = True + break + sub_tokens.append(cur_substr) + start = end + + if is_bad: + output_tokens.append(self.unk_token) + else: + output_tokens.extend(sub_tokens) + return output_tokens + + +def _is_whitespace(char): + """Checks whether `chars` is a whitespace character.""" + # \t, \n, and \r are technically contorl characters but we treat them + # as whitespace since they are generally considered as such. + if char == " " or char == "\t" or char == "\n" or char == "\r": + return True + cat = unicodedata.category(char) + if cat == "Zs": + return True + return False + + +def _is_control(char): + """Checks whether `chars` is a control character.""" + # These are technically control characters but we count them as whitespace + # characters. + if char == "\t" or char == "\n" or char == "\r": + return False + cat = unicodedata.category(char) + if cat.startswith("C"): + return True + return False + + +def _is_punctuation(char): + """Checks whether `chars` is a punctuation character.""" + cp = ord(char) + # We treat all non-letter/number ASCII as punctuation. + # Characters such as "^", "$", and "`" are not in the Unicode + # Punctuation class but we treat them as punctuation anyways, for + # consistency. + if ( + cp == 91 or cp == 93 or cp == 43 + ): # [ and ] are not punctuation since they are used in [xx] and the + + return False + + if ((cp >= 33 and cp <= 47) or (cp >= 58 and cp <= 64) or + (cp >= 91 and cp <= 96) or (cp >= 123 and cp <= 126)): + return True + cat = unicodedata.category(char) + if cat.startswith("P"): + return True + return False diff --git a/arabert/araelectra/pretrain/__init__.py b/arabert/araelectra/pretrain/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..4241467eddcc96d95c06850ff13fbaa2e3739acb --- /dev/null +++ b/arabert/araelectra/pretrain/__init__.py @@ -0,0 +1,14 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. \ No newline at end of file diff --git a/arabert/araelectra/pretrain/pretrain_data.py b/arabert/araelectra/pretrain/pretrain_data.py new file mode 100644 index 0000000000000000000000000000000000000000..0a822522cf7e29c3293694166cff7b1e5b3a537a --- /dev/null +++ b/arabert/araelectra/pretrain/pretrain_data.py @@ -0,0 +1,160 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Helpers for preparing pre-training data and supplying them to the model.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import collections + +import numpy as np +import tensorflow as tf + +import configure_pretraining +from model import tokenization +from util import utils + + +def get_input_fn(config: configure_pretraining.PretrainingConfig, is_training, + num_cpu_threads=4): + """Creates an `input_fn` closure to be passed to TPUEstimator.""" + + input_files = [] + for input_pattern in config.pretrain_tfrecords.split(","): + input_files.extend(tf.io.gfile.glob(input_pattern)) + + def input_fn(params): + """The actual input function.""" + batch_size = params["batch_size"] + + name_to_features = { + "input_ids": tf.io.FixedLenFeature([config.max_seq_length], tf.int64), + "input_mask": tf.io.FixedLenFeature([config.max_seq_length], tf.int64), + "segment_ids": tf.io.FixedLenFeature([config.max_seq_length], tf.int64), + } + + d = tf.data.Dataset.from_tensor_slices(tf.constant(input_files)) + d = d.repeat() + d = d.shuffle(buffer_size=len(input_files)) + + # `cycle_length` is the number of parallel files that get read. + cycle_length = min(num_cpu_threads, len(input_files)) + + # `sloppy` mode means that the interleaving is not exact. This adds + # even more randomness to the training pipeline. + d = d.apply( + tf.data.experimental.parallel_interleave( + tf.data.TFRecordDataset, + sloppy=is_training, + cycle_length=cycle_length)) + d = d.shuffle(buffer_size=100) + + # We must `drop_remainder` on training because the TPU requires fixed + # size dimensions. For eval, we assume we are evaluating on the CPU or GPU + # and we *don"t* want to drop the remainder, otherwise we wont cover + # every sample. + d = d.apply( + tf.data.experimental.map_and_batch( + lambda record: _decode_record(record, name_to_features), + batch_size=batch_size, + num_parallel_batches=num_cpu_threads, + drop_remainder=True)) + return d + + return input_fn + + +def _decode_record(record, name_to_features): + """Decodes a record to a TensorFlow example.""" + example = tf.io.parse_single_example(record, name_to_features) + + # tf.Example only supports tf.int64, but the TPU only supports tf.int32. + # So cast all int64 to int32. + for name in list(example.keys()): + t = example[name] + if t.dtype == tf.int64: + t = tf.cast(t, tf.int32) + example[name] = t + + return example + + +# model inputs - it's a bit nicer to use a namedtuple rather than keep the +# features as a dict +Inputs = collections.namedtuple( + "Inputs", ["input_ids", "input_mask", "segment_ids", "masked_lm_positions", + "masked_lm_ids", "masked_lm_weights"]) + + +def features_to_inputs(features): + return Inputs( + input_ids=features["input_ids"], + input_mask=features["input_mask"], + segment_ids=features["segment_ids"], + masked_lm_positions=(features["masked_lm_positions"] + if "masked_lm_positions" in features else None), + masked_lm_ids=(features["masked_lm_ids"] + if "masked_lm_ids" in features else None), + masked_lm_weights=(features["masked_lm_weights"] + if "masked_lm_weights" in features else None), + ) + + +def get_updated_inputs(inputs, **kwargs): + features = inputs._asdict() + for k, v in kwargs.items(): + features[k] = v + return features_to_inputs(features) + + +ENDC = "\033[0m" +COLORS = ["\033[" + str(n) + "m" for n in list(range(91, 97)) + [90]] +RED = COLORS[0] +BLUE = COLORS[3] +CYAN = COLORS[5] +GREEN = COLORS[1] + + +def print_tokens(inputs: Inputs, inv_vocab, updates_mask=None): + """Pretty-print model inputs.""" + pos_to_tokid = {} + for tokid, pos, weight in zip( + inputs.masked_lm_ids[0], inputs.masked_lm_positions[0], + inputs.masked_lm_weights[0]): + if weight == 0: + pass + else: + pos_to_tokid[pos] = tokid + + text = "" + provided_update_mask = (updates_mask is not None) + if not provided_update_mask: + updates_mask = np.zeros_like(inputs.input_ids) + for pos, (tokid, um) in enumerate( + zip(inputs.input_ids[0], updates_mask[0])): + token = inv_vocab[tokid] + if token == "[PAD]": + break + if pos in pos_to_tokid: + token = RED + token + " (" + inv_vocab[pos_to_tokid[pos]] + ")" + ENDC + if provided_update_mask: + assert um == 1 + else: + if provided_update_mask: + assert um == 0 + text += token + " " + utils.log(tokenization.printable_text(text)) diff --git a/arabert/araelectra/pretrain/pretrain_helpers.py b/arabert/araelectra/pretrain/pretrain_helpers.py new file mode 100644 index 0000000000000000000000000000000000000000..3bb7bf94f4c8c0d64ce45c3664a04b347e97cc2d --- /dev/null +++ b/arabert/araelectra/pretrain/pretrain_helpers.py @@ -0,0 +1,229 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Helper functions for pre-training. These mainly deal with the gathering and +scattering needed so the generator only makes predictions for the small number +of masked tokens. +""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import tensorflow as tf + +import configure_pretraining +from model import modeling +from model import tokenization +from pretrain import pretrain_data + + +def gather_positions(sequence, positions): + """Gathers the vectors at the specific positions over a minibatch. + + Args: + sequence: A [batch_size, seq_length] or + [batch_size, seq_length, depth] tensor of values + positions: A [batch_size, n_positions] tensor of indices + + Returns: A [batch_size, n_positions] or + [batch_size, n_positions, depth] tensor of the values at the indices + """ + shape = modeling.get_shape_list(sequence, expected_rank=[2, 3]) + depth_dimension = (len(shape) == 3) + if depth_dimension: + B, L, D = shape + else: + B, L = shape + D = 1 + sequence = tf.expand_dims(sequence, -1) + position_shift = tf.expand_dims(L * tf.range(B), -1) + flat_positions = tf.reshape(positions + position_shift, [-1]) + flat_sequence = tf.reshape(sequence, [B * L, D]) + gathered = tf.gather(flat_sequence, flat_positions) + if depth_dimension: + return tf.reshape(gathered, [B, -1, D]) + else: + return tf.reshape(gathered, [B, -1]) + + +def scatter_update(sequence, updates, positions): + """Scatter-update a sequence. + + Args: + sequence: A [batch_size, seq_len] or [batch_size, seq_len, depth] tensor + updates: A tensor of size batch_size*seq_len(*depth) + positions: A [batch_size, n_positions] tensor + + Returns: A tuple of two tensors. First is a [batch_size, seq_len] or + [batch_size, seq_len, depth] tensor of "sequence" with elements at + "positions" replaced by the values at "updates." Updates to index 0 are + ignored. If there are duplicated positions the update is only applied once. + Second is a [batch_size, seq_len] mask tensor of which inputs were updated. + """ + shape = modeling.get_shape_list(sequence, expected_rank=[2, 3]) + depth_dimension = (len(shape) == 3) + if depth_dimension: + B, L, D = shape + else: + B, L = shape + D = 1 + sequence = tf.expand_dims(sequence, -1) + N = modeling.get_shape_list(positions)[1] + + shift = tf.expand_dims(L * tf.range(B), -1) + flat_positions = tf.reshape(positions + shift, [-1, 1]) + flat_updates = tf.reshape(updates, [-1, D]) + updates = tf.scatter_nd(flat_positions, flat_updates, [B * L, D]) + updates = tf.reshape(updates, [B, L, D]) + + flat_updates_mask = tf.ones([B * N], tf.int32) + updates_mask = tf.scatter_nd(flat_positions, flat_updates_mask, [B * L]) + updates_mask = tf.reshape(updates_mask, [B, L]) + not_first_token = tf.concat([tf.zeros((B, 1), tf.int32), + tf.ones((B, L - 1), tf.int32)], -1) + updates_mask *= not_first_token + updates_mask_3d = tf.expand_dims(updates_mask, -1) + + # account for duplicate positions + if sequence.dtype == tf.float32: + updates_mask_3d = tf.cast(updates_mask_3d, tf.float32) + updates /= tf.maximum(1.0, updates_mask_3d) + else: + assert sequence.dtype == tf.int32 + updates = tf.math.floordiv(updates, tf.maximum(1, updates_mask_3d)) + updates_mask = tf.minimum(updates_mask, 1) + updates_mask_3d = tf.minimum(updates_mask_3d, 1) + + updated_sequence = (((1 - updates_mask_3d) * sequence) + + (updates_mask_3d * updates)) + if not depth_dimension: + updated_sequence = tf.squeeze(updated_sequence, -1) + + return updated_sequence, updates_mask + + +VOCAB_MAPPING = {} + + +def get_vocab(config: configure_pretraining.PretrainingConfig): + """Memoized load of the vocab file.""" + if config.vocab_file not in VOCAB_MAPPING: + vocab = tokenization.FullTokenizer( + config.vocab_file, do_lower_case=True).vocab + VOCAB_MAPPING[config.vocab_file] = vocab + return VOCAB_MAPPING[config.vocab_file] + + +def get_candidates_mask(config: configure_pretraining.PretrainingConfig, + inputs: pretrain_data.Inputs, + disallow_from_mask=None): + """Returns a mask tensor of positions in the input that can be masked out.""" + vocab = get_vocab(config) + ignore_ids = [vocab["[SEP]"], vocab["[CLS]"], vocab["[MASK]"]] + candidates_mask = tf.ones_like(inputs.input_ids, tf.bool) + for ignore_id in ignore_ids: + candidates_mask &= tf.not_equal(inputs.input_ids, ignore_id) + candidates_mask &= tf.cast(inputs.input_mask, tf.bool) + if disallow_from_mask is not None: + candidates_mask &= ~disallow_from_mask + return candidates_mask + + +def mask(config: configure_pretraining.PretrainingConfig, + inputs: pretrain_data.Inputs, mask_prob, proposal_distribution=1.0, + disallow_from_mask=None, already_masked=None): + """Implementation of dynamic masking. The optional arguments aren't needed for + BERT/ELECTRA and are from early experiments in "strategically" masking out + tokens instead of uniformly at random. + + Args: + config: configure_pretraining.PretrainingConfig + inputs: pretrain_data.Inputs containing input input_ids/input_mask + mask_prob: percent of tokens to mask + proposal_distribution: for non-uniform masking can be a [B, L] tensor + of scores for masking each position. + disallow_from_mask: a boolean tensor of [B, L] of positions that should + not be masked out + already_masked: a boolean tensor of [B, N] of already masked-out tokens + for multiple rounds of masking + Returns: a pretrain_data.Inputs with masking added + """ + # Get the batch size, sequence length, and max masked-out tokens + N = config.max_predictions_per_seq + B, L = modeling.get_shape_list(inputs.input_ids) + + # Find indices where masking out a token is allowed + vocab = get_vocab(config) + candidates_mask = get_candidates_mask(config, inputs, disallow_from_mask) + + # Set the number of tokens to mask out per example + num_tokens = tf.cast(tf.reduce_sum(inputs.input_mask, -1), tf.float32) + num_to_predict = tf.maximum(1, tf.minimum( + N, tf.cast(tf.round(num_tokens * mask_prob), tf.int32))) + masked_lm_weights = tf.cast(tf.sequence_mask(num_to_predict, N), tf.float32) + if already_masked is not None: + masked_lm_weights *= (1 - already_masked) + + # Get a probability of masking each position in the sequence + candidate_mask_float = tf.cast(candidates_mask, tf.float32) + sample_prob = (proposal_distribution * candidate_mask_float) + sample_prob /= tf.reduce_sum(sample_prob, axis=-1, keepdims=True) + + # Sample the positions to mask out + sample_prob = tf.stop_gradient(sample_prob) + sample_logits = tf.log(sample_prob) + masked_lm_positions = tf.random.categorical( + sample_logits, N, dtype=tf.int32) + masked_lm_positions *= tf.cast(masked_lm_weights, tf.int32) + + # Get the ids of the masked-out tokens + shift = tf.expand_dims(L * tf.range(B), -1) + flat_positions = tf.reshape(masked_lm_positions + shift, [-1, 1]) + masked_lm_ids = tf.gather_nd(tf.reshape(inputs.input_ids, [-1]), + flat_positions) + masked_lm_ids = tf.reshape(masked_lm_ids, [B, -1]) + masked_lm_ids *= tf.cast(masked_lm_weights, tf.int32) + + # Update the input ids + replace_with_mask_positions = masked_lm_positions * tf.cast( + tf.less(tf.random.uniform([B, N]), 0.85), tf.int32) + inputs_ids, _ = scatter_update( + inputs.input_ids, tf.fill([B, N], vocab["[MASK]"]), + replace_with_mask_positions) + + return pretrain_data.get_updated_inputs( + inputs, + input_ids=tf.stop_gradient(inputs_ids), + masked_lm_positions=masked_lm_positions, + masked_lm_ids=masked_lm_ids, + masked_lm_weights=masked_lm_weights + ) + + +def unmask(inputs: pretrain_data.Inputs): + unmasked_input_ids, _ = scatter_update( + inputs.input_ids, inputs.masked_lm_ids, inputs.masked_lm_positions) + return pretrain_data.get_updated_inputs(inputs, input_ids=unmasked_input_ids) + + +def sample_from_softmax(logits, disallow=None): + if disallow is not None: + logits -= 1000.0 * disallow + uniform_noise = tf.random.uniform( + modeling.get_shape_list(logits), minval=0, maxval=1) + gumbel_noise = -tf.log(-tf.log(uniform_noise + 1e-9) + 1e-9) + return tf.one_hot(tf.argmax(tf.nn.softmax(logits + gumbel_noise), -1, + output_type=tf.int32), logits.shape[-1]) diff --git a/arabert/araelectra/run_finetuning.py b/arabert/araelectra/run_finetuning.py new file mode 100644 index 0000000000000000000000000000000000000000..3c660aed10dc5c496fb994303b99f3e674c4466d --- /dev/null +++ b/arabert/araelectra/run_finetuning.py @@ -0,0 +1,323 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Fine-tunes an ELECTRA model on a downstream task.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import argparse +import collections +import json + +import tensorflow as tf + +import configure_finetuning +from finetune import preprocessing +from finetune import task_builder +from model import modeling +from model import optimization +from util import training_utils +from util import utils + + +class FinetuningModel(object): + """Finetuning model with support for multi-task training.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tasks, + is_training, features, num_train_steps): + # Create a shared transformer encoder + bert_config = training_utils.get_bert_config(config) + self.bert_config = bert_config + if config.debug: + bert_config.num_hidden_layers = 3 + bert_config.hidden_size = 144 + bert_config.intermediate_size = 144 * 4 + bert_config.num_attention_heads = 4 + assert config.max_seq_length <= bert_config.max_position_embeddings + bert_model = modeling.BertModel( + bert_config=bert_config, + is_training=is_training, + input_ids=features["input_ids"], + input_mask=features["input_mask"], + token_type_ids=features["segment_ids"], + use_one_hot_embeddings=config.use_tpu, + embedding_size=config.embedding_size) + percent_done = (tf.cast(tf.train.get_or_create_global_step(), tf.float32) / + tf.cast(num_train_steps, tf.float32)) + + # Add specific tasks + self.outputs = {"task_id": features["task_id"]} + losses = [] + for task in tasks: + with tf.variable_scope("task_specific/" + task.name): + task_losses, task_outputs = task.get_prediction_module( + bert_model, features, is_training, percent_done) + losses.append(task_losses) + self.outputs[task.name] = task_outputs + self.loss = tf.reduce_sum( + tf.stack(losses, -1) * + tf.one_hot(features["task_id"], len(config.task_names))) + + +def model_fn_builder(config: configure_finetuning.FinetuningConfig, tasks, + num_train_steps, pretraining_config=None): + """Returns `model_fn` closure for TPUEstimator.""" + + def model_fn(features, labels, mode, params): + """The `model_fn` for TPUEstimator.""" + utils.log("Building model...") + is_training = (mode == tf.estimator.ModeKeys.TRAIN) + model = FinetuningModel( + config, tasks, is_training, features, num_train_steps) + + # Load pre-trained weights from checkpoint + init_checkpoint = config.init_checkpoint + if pretraining_config is not None: + init_checkpoint = tf.train.latest_checkpoint(pretraining_config.model_dir) + utils.log("Using checkpoint", init_checkpoint) + tvars = tf.trainable_variables() + scaffold_fn = None + if init_checkpoint: + assignment_map, _ = modeling.get_assignment_map_from_checkpoint( + tvars, init_checkpoint) + if config.use_tpu: + def tpu_scaffold(): + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + return tf.train.Scaffold() + scaffold_fn = tpu_scaffold + else: + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + + # Build model for training or prediction + if mode == tf.estimator.ModeKeys.TRAIN: + train_op = optimization.create_optimizer( + model.loss, config.learning_rate, num_train_steps, + weight_decay_rate=config.weight_decay_rate, + use_tpu=config.use_tpu, + warmup_proportion=config.warmup_proportion, + layerwise_lr_decay_power=config.layerwise_lr_decay, + n_transformer_layers=model.bert_config.num_hidden_layers + ) + output_spec = tf.estimator.tpu.TPUEstimatorSpec( + mode=mode, + loss=model.loss, + train_op=train_op, + scaffold_fn=scaffold_fn, + training_hooks=[training_utils.ETAHook( + {} if config.use_tpu else dict(loss=model.loss), + num_train_steps, config.iterations_per_loop, config.use_tpu, 10)]) + else: + assert mode == tf.estimator.ModeKeys.PREDICT + output_spec = tf.estimator.tpu.TPUEstimatorSpec( + mode=mode, + predictions=utils.flatten_dict(model.outputs), + scaffold_fn=scaffold_fn) + + utils.log("Building complete") + return output_spec + + return model_fn + + +class ModelRunner(object): + """Fine-tunes a model on a supervised task.""" + + def __init__(self, config: configure_finetuning.FinetuningConfig, tasks, + pretraining_config=None): + self._config = config + self._tasks = tasks + self._preprocessor = preprocessing.Preprocessor(config, self._tasks) + + is_per_host = tf.estimator.tpu.InputPipelineConfig.PER_HOST_V2 + tpu_cluster_resolver = None + if config.use_tpu and config.tpu_name: + tpu_cluster_resolver = tf.distribute.cluster_resolver.TPUClusterResolver( + config.tpu_name, zone=config.tpu_zone, project=config.gcp_project) + tpu_config = tf.estimator.tpu.TPUConfig( + iterations_per_loop=config.iterations_per_loop, + num_shards=config.num_tpu_cores, + per_host_input_for_training=is_per_host, + tpu_job_name=config.tpu_job_name) + run_config = tf.estimator.tpu.RunConfig( + cluster=tpu_cluster_resolver, + model_dir=config.model_dir, + save_checkpoints_steps=config.save_checkpoints_steps, + save_checkpoints_secs=None, + tpu_config=tpu_config) + + if self._config.do_train: + (self._train_input_fn, + self.train_steps) = self._preprocessor.prepare_train() + else: + self._train_input_fn, self.train_steps = None, 0 + model_fn = model_fn_builder( + config=config, + tasks=self._tasks, + num_train_steps=self.train_steps, + pretraining_config=pretraining_config) + self._estimator = tf.estimator.tpu.TPUEstimator( + use_tpu=config.use_tpu, + model_fn=model_fn, + config=run_config, + train_batch_size=config.train_batch_size, + eval_batch_size=config.eval_batch_size, + predict_batch_size=config.predict_batch_size) + + def train(self): + utils.log("Training for {:} steps".format(self.train_steps)) + self._estimator.train( + input_fn=self._train_input_fn, max_steps=self.train_steps) + + def evaluate(self): + return {task.name: self.evaluate_task(task) for task in self._tasks} + + def evaluate_task(self, task, split="dev", return_results=True): + """Evaluate the current model.""" + utils.log("Evaluating", task.name) + eval_input_fn, _ = self._preprocessor.prepare_predict([task], split) + results = self._estimator.predict(input_fn=eval_input_fn, + yield_single_examples=True) + scorer = task.get_scorer() + for r in results: + if r["task_id"] != len(self._tasks): # ignore padding examples + r = utils.nest_dict(r, self._config.task_names) + scorer.update(r[task.name]) + if return_results: + utils.log(task.name + ": " + scorer.results_str()) + utils.log() + return dict(scorer.get_results()) + else: + return scorer + + def write_classification_outputs(self, tasks, trial, split): + """Write classification predictions to disk.""" + utils.log("Writing out predictions for", tasks, split) + predict_input_fn, _ = self._preprocessor.prepare_predict(tasks, split) + results = self._estimator.predict(input_fn=predict_input_fn, + yield_single_examples=True) + # task name -> eid -> model-logits + logits = collections.defaultdict(dict) + for r in results: + if r["task_id"] != len(self._tasks): + r = utils.nest_dict(r, self._config.task_names) + task_name = self._config.task_names[r["task_id"]] + logits[task_name][r[task_name]["eid"]] = ( + r[task_name]["logits"] if "logits" in r[task_name] + else r[task_name]["predictions"]) + for task_name in logits: + utils.log("Pickling predictions for {:} {:} examples ({:})".format( + len(logits[task_name]), task_name, split)) + if trial <= self._config.n_writes_test: + utils.write_pickle(logits[task_name], self._config.test_predictions( + task_name, split, trial)) + + +def write_results(config: configure_finetuning.FinetuningConfig, results): + """Write evaluation metrics to disk.""" + utils.log("Writing results to", config.results_txt) + utils.mkdir(config.results_txt.rsplit("/", 1)[0]) + utils.write_pickle(results, config.results_pkl) + with tf.io.gfile.GFile(config.results_txt, "w") as f: + results_str = "" + for trial_results in results: + for task_name, task_results in trial_results.items(): + if task_name == "time" or task_name == "global_step": + continue + results_str += task_name + ": " + " - ".join( + ["{:}: {:.2f}".format(k, v) + for k, v in task_results.items()]) + "\n" + f.write(results_str) + utils.write_pickle(results, config.results_pkl) + + +def run_finetuning(config: configure_finetuning.FinetuningConfig): + """Run finetuning.""" + + # Setup for training + results = [] + trial = 1 + heading_info = "model={:}, trial {:}/{:}".format( + config.model_name, trial, config.num_trials) + heading = lambda msg: utils.heading(msg + ": " + heading_info) + heading("Config") + utils.log_config(config) + generic_model_dir = config.model_dir + tasks = task_builder.get_tasks(config) + + # Train and evaluate num_trials models with different random seeds + while config.num_trials < 0 or trial <= config.num_trials: + config.model_dir = generic_model_dir + "_" + str(trial) + if config.do_train: + utils.rmkdir(config.model_dir) + + model_runner = ModelRunner(config, tasks) + if config.do_train: + heading("Start training") + model_runner.train() + utils.log() + + if config.do_eval: + heading("Run dev set evaluation") + results.append(model_runner.evaluate()) + write_results(config, results) + if config.write_test_outputs and trial <= config.n_writes_test: + heading("Running on the test set and writing the predictions") + for task in tasks: + # Currently only writing preds for GLUE and SQuAD 2.0 is supported + if task.name in ["cola", "mrpc", "mnli", "sst", "rte", "qnli", "qqp", + "sts"]: + for split in task.get_test_splits(): + model_runner.write_classification_outputs([task], trial, split) + elif task.name == "squad": + scorer = model_runner.evaluate_task(task, "test", False) + scorer.write_predictions() + preds = utils.load_json(config.qa_preds_file("squad")) + null_odds = utils.load_json(config.qa_na_file("squad")) + for q, _ in preds.items(): + if null_odds[q] > config.qa_na_threshold: + preds[q] = "" + utils.write_json(preds, config.test_predictions( + task.name, "test", trial)) + else: + utils.log("Skipping task", task.name, + "- writing predictions is not supported for this task") + + if trial != config.num_trials and (not config.keep_all_models): + utils.rmrf(config.model_dir) + trial += 1 + + +def main(): + parser = argparse.ArgumentParser(description=__doc__) + parser.add_argument("--data-dir", required=True, + help="Location of data files (model weights, etc).") + parser.add_argument("--model-name", required=True, + help="The name of the model being fine-tuned.") + parser.add_argument("--hparams", default="{}", + help="JSON dict of model hyperparameters.") + args = parser.parse_args() + if args.hparams.endswith(".json"): + hparams = utils.load_json(args.hparams) + else: + hparams = json.loads(args.hparams) + tf.logging.set_verbosity(tf.logging.ERROR) + run_finetuning(configure_finetuning.FinetuningConfig( + args.model_name, args.data_dir, **hparams)) + + +if __name__ == "__main__": + main() diff --git a/arabert/araelectra/run_pretraining.py b/arabert/araelectra/run_pretraining.py new file mode 100644 index 0000000000000000000000000000000000000000..ec676d159bb64018e7737bc1f8cde6b05d6d8baa --- /dev/null +++ b/arabert/araelectra/run_pretraining.py @@ -0,0 +1,469 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Pre-trains an ELECTRA model.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import argparse +import collections +import json + +import tensorflow as tf + +import configure_pretraining +from model import modeling +from model import optimization +from pretrain import pretrain_data +from pretrain import pretrain_helpers +from util import training_utils +from util import utils + + +class PretrainingModel(object): + """Transformer pre-training using the replaced-token-detection task.""" + + def __init__(self, config: configure_pretraining.PretrainingConfig, + features, is_training): + # Set up model config + self._config = config + self._bert_config = training_utils.get_bert_config(config) + if config.debug: + self._bert_config.num_hidden_layers = 3 + self._bert_config.hidden_size = 144 + self._bert_config.intermediate_size = 144 * 4 + self._bert_config.num_attention_heads = 4 + + # Mask the input + unmasked_inputs = pretrain_data.features_to_inputs(features) + masked_inputs = pretrain_helpers.mask( + config, unmasked_inputs, config.mask_prob) + + # Generator + embedding_size = ( + self._bert_config.hidden_size if config.embedding_size is None else + config.embedding_size) + cloze_output = None + if config.uniform_generator: + # simple generator sampling fakes uniformly at random + mlm_output = self._get_masked_lm_output(masked_inputs, None) + elif ((config.electra_objective or config.electric_objective) + and config.untied_generator): + generator_config = get_generator_config(config, self._bert_config) + if config.two_tower_generator: + # two-tower cloze model generator used for electric + generator = TwoTowerClozeTransformer( + config, generator_config, unmasked_inputs, is_training, + embedding_size) + cloze_output = self._get_cloze_outputs(unmasked_inputs, generator) + mlm_output = get_softmax_output( + pretrain_helpers.gather_positions( + cloze_output.logits, masked_inputs.masked_lm_positions), + masked_inputs.masked_lm_ids, masked_inputs.masked_lm_weights, + self._bert_config.vocab_size) + else: + # small masked language model generator + generator = build_transformer( + config, masked_inputs, is_training, generator_config, + embedding_size=(None if config.untied_generator_embeddings + else embedding_size), + untied_embeddings=config.untied_generator_embeddings, + scope="generator") + mlm_output = self._get_masked_lm_output(masked_inputs, generator) + else: + # full-sized masked language model generator if using BERT objective or if + # the generator and discriminator have tied weights + generator = build_transformer( + config, masked_inputs, is_training, self._bert_config, + embedding_size=embedding_size) + mlm_output = self._get_masked_lm_output(masked_inputs, generator) + fake_data = self._get_fake_data(masked_inputs, mlm_output.logits) + self.mlm_output = mlm_output + self.total_loss = config.gen_weight * ( + cloze_output.loss if config.two_tower_generator else mlm_output.loss) + + # Discriminator + disc_output = None + if config.electra_objective or config.electric_objective: + discriminator = build_transformer( + config, fake_data.inputs, is_training, self._bert_config, + reuse=not config.untied_generator, embedding_size=embedding_size) + disc_output = self._get_discriminator_output( + fake_data.inputs, discriminator, fake_data.is_fake_tokens, + cloze_output) + self.total_loss += config.disc_weight * disc_output.loss + + # Evaluation + eval_fn_inputs = { + "input_ids": masked_inputs.input_ids, + "masked_lm_preds": mlm_output.preds, + "mlm_loss": mlm_output.per_example_loss, + "masked_lm_ids": masked_inputs.masked_lm_ids, + "masked_lm_weights": masked_inputs.masked_lm_weights, + "input_mask": masked_inputs.input_mask + } + if config.electra_objective or config.electric_objective: + eval_fn_inputs.update({ + "disc_loss": disc_output.per_example_loss, + "disc_labels": disc_output.labels, + "disc_probs": disc_output.probs, + "disc_preds": disc_output.preds, + "sampled_tokids": tf.argmax(fake_data.sampled_tokens, -1, + output_type=tf.int32) + }) + eval_fn_keys = eval_fn_inputs.keys() + eval_fn_values = [eval_fn_inputs[k] for k in eval_fn_keys] + + def metric_fn(*args): + """Computes the loss and accuracy of the model.""" + d = {k: arg for k, arg in zip(eval_fn_keys, args)} + metrics = dict() + metrics["masked_lm_accuracy"] = tf.metrics.accuracy( + labels=tf.reshape(d["masked_lm_ids"], [-1]), + predictions=tf.reshape(d["masked_lm_preds"], [-1]), + weights=tf.reshape(d["masked_lm_weights"], [-1])) + metrics["masked_lm_loss"] = tf.metrics.mean( + values=tf.reshape(d["mlm_loss"], [-1]), + weights=tf.reshape(d["masked_lm_weights"], [-1])) + if config.electra_objective or config.electric_objective: + metrics["sampled_masked_lm_accuracy"] = tf.metrics.accuracy( + labels=tf.reshape(d["masked_lm_ids"], [-1]), + predictions=tf.reshape(d["sampled_tokids"], [-1]), + weights=tf.reshape(d["masked_lm_weights"], [-1])) + if config.disc_weight > 0: + metrics["disc_loss"] = tf.metrics.mean(d["disc_loss"]) + metrics["disc_auc"] = tf.metrics.auc( + d["disc_labels"] * d["input_mask"], + d["disc_probs"] * tf.cast(d["input_mask"], tf.float32)) + metrics["disc_accuracy"] = tf.metrics.accuracy( + labels=d["disc_labels"], predictions=d["disc_preds"], + weights=d["input_mask"]) + metrics["disc_precision"] = tf.metrics.accuracy( + labels=d["disc_labels"], predictions=d["disc_preds"], + weights=d["disc_preds"] * d["input_mask"]) + metrics["disc_recall"] = tf.metrics.accuracy( + labels=d["disc_labels"], predictions=d["disc_preds"], + weights=d["disc_labels"] * d["input_mask"]) + return metrics + self.eval_metrics = (metric_fn, eval_fn_values) + + def _get_masked_lm_output(self, inputs: pretrain_data.Inputs, model): + """Masked language modeling softmax layer.""" + with tf.variable_scope("generator_predictions"): + if self._config.uniform_generator: + logits = tf.zeros(self._bert_config.vocab_size) + logits_tiled = tf.zeros( + modeling.get_shape_list(inputs.masked_lm_ids) + + [self._bert_config.vocab_size]) + logits_tiled += tf.reshape(logits, [1, 1, self._bert_config.vocab_size]) + logits = logits_tiled + else: + relevant_reprs = pretrain_helpers.gather_positions( + model.get_sequence_output(), inputs.masked_lm_positions) + logits = get_token_logits( + relevant_reprs, model.get_embedding_table(), self._bert_config) + return get_softmax_output( + logits, inputs.masked_lm_ids, inputs.masked_lm_weights, + self._bert_config.vocab_size) + + def _get_discriminator_output( + self, inputs, discriminator, labels, cloze_output=None): + """Discriminator binary classifier.""" + with tf.variable_scope("discriminator_predictions"): + hidden = tf.layers.dense( + discriminator.get_sequence_output(), + units=self._bert_config.hidden_size, + activation=modeling.get_activation(self._bert_config.hidden_act), + kernel_initializer=modeling.create_initializer( + self._bert_config.initializer_range)) + logits = tf.squeeze(tf.layers.dense(hidden, units=1), -1) + if self._config.electric_objective: + log_q = tf.reduce_sum( + tf.nn.log_softmax(cloze_output.logits) * tf.one_hot( + inputs.input_ids, depth=self._bert_config.vocab_size, + dtype=tf.float32), -1) + log_q = tf.stop_gradient(log_q) + logits += log_q + logits += tf.log(self._config.mask_prob / (1 - self._config.mask_prob)) + + weights = tf.cast(inputs.input_mask, tf.float32) + labelsf = tf.cast(labels, tf.float32) + losses = tf.nn.sigmoid_cross_entropy_with_logits( + logits=logits, labels=labelsf) * weights + per_example_loss = (tf.reduce_sum(losses, axis=-1) / + (1e-6 + tf.reduce_sum(weights, axis=-1))) + loss = tf.reduce_sum(losses) / (1e-6 + tf.reduce_sum(weights)) + probs = tf.nn.sigmoid(logits) + preds = tf.cast(tf.round((tf.sign(logits) + 1) / 2), tf.int32) + DiscOutput = collections.namedtuple( + "DiscOutput", ["loss", "per_example_loss", "probs", "preds", + "labels"]) + return DiscOutput( + loss=loss, per_example_loss=per_example_loss, probs=probs, + preds=preds, labels=labels, + ) + + def _get_fake_data(self, inputs, mlm_logits): + """Sample from the generator to create corrupted input.""" + inputs = pretrain_helpers.unmask(inputs) + disallow = tf.one_hot( + inputs.masked_lm_ids, depth=self._bert_config.vocab_size, + dtype=tf.float32) if self._config.disallow_correct else None + sampled_tokens = tf.stop_gradient(pretrain_helpers.sample_from_softmax( + mlm_logits / self._config.temperature, disallow=disallow)) + sampled_tokids = tf.argmax(sampled_tokens, -1, output_type=tf.int32) + updated_input_ids, masked = pretrain_helpers.scatter_update( + inputs.input_ids, sampled_tokids, inputs.masked_lm_positions) + if self._config.electric_objective: + labels = masked + else: + labels = masked * (1 - tf.cast( + tf.equal(updated_input_ids, inputs.input_ids), tf.int32)) + updated_inputs = pretrain_data.get_updated_inputs( + inputs, input_ids=updated_input_ids) + FakedData = collections.namedtuple("FakedData", [ + "inputs", "is_fake_tokens", "sampled_tokens"]) + return FakedData(inputs=updated_inputs, is_fake_tokens=labels, + sampled_tokens=sampled_tokens) + + def _get_cloze_outputs(self, inputs: pretrain_data.Inputs, model): + """Cloze model softmax layer.""" + weights = tf.cast(pretrain_helpers.get_candidates_mask( + self._config, inputs), tf.float32) + with tf.variable_scope("cloze_predictions"): + logits = get_token_logits(model.get_sequence_output(), + model.get_embedding_table(), self._bert_config) + return get_softmax_output(logits, inputs.input_ids, weights, + self._bert_config.vocab_size) + + +def get_token_logits(input_reprs, embedding_table, bert_config): + hidden = tf.layers.dense( + input_reprs, + units=modeling.get_shape_list(embedding_table)[-1], + activation=modeling.get_activation(bert_config.hidden_act), + kernel_initializer=modeling.create_initializer( + bert_config.initializer_range)) + hidden = modeling.layer_norm(hidden) + output_bias = tf.get_variable( + "output_bias", + shape=[bert_config.vocab_size], + initializer=tf.zeros_initializer()) + logits = tf.matmul(hidden, embedding_table, transpose_b=True) + logits = tf.nn.bias_add(logits, output_bias) + return logits + + +def get_softmax_output(logits, targets, weights, vocab_size): + oh_labels = tf.one_hot(targets, depth=vocab_size, dtype=tf.float32) + preds = tf.argmax(logits, axis=-1, output_type=tf.int32) + probs = tf.nn.softmax(logits) + log_probs = tf.nn.log_softmax(logits) + label_log_probs = -tf.reduce_sum(log_probs * oh_labels, axis=-1) + numerator = tf.reduce_sum(weights * label_log_probs) + denominator = tf.reduce_sum(weights) + 1e-6 + loss = numerator / denominator + SoftmaxOutput = collections.namedtuple( + "SoftmaxOutput", ["logits", "probs", "loss", "per_example_loss", "preds", + "weights"]) + return SoftmaxOutput( + logits=logits, probs=probs, per_example_loss=label_log_probs, + loss=loss, preds=preds, weights=weights) + + +class TwoTowerClozeTransformer(object): + """Build a two-tower Transformer used as Electric's generator.""" + + def __init__(self, config, bert_config, inputs: pretrain_data.Inputs, + is_training, embedding_size): + ltr = build_transformer( + config, inputs, is_training, bert_config, + untied_embeddings=config.untied_generator_embeddings, + embedding_size=(None if config.untied_generator_embeddings + else embedding_size), + scope="generator_ltr", ltr=True) + rtl = build_transformer( + config, inputs, is_training, bert_config, + untied_embeddings=config.untied_generator_embeddings, + embedding_size=(None if config.untied_generator_embeddings + else embedding_size), + scope="generator_rtl", rtl=True) + ltr_reprs = ltr.get_sequence_output() + rtl_reprs = rtl.get_sequence_output() + self._sequence_output = tf.concat([roll(ltr_reprs, -1), + roll(rtl_reprs, 1)], -1) + self._embedding_table = ltr.embedding_table + + def get_sequence_output(self): + return self._sequence_output + + def get_embedding_table(self): + return self._embedding_table + + +def build_transformer(config: configure_pretraining.PretrainingConfig, + inputs: pretrain_data.Inputs, is_training, + bert_config, reuse=False, **kwargs): + """Build a transformer encoder network.""" + with tf.variable_scope(tf.get_variable_scope(), reuse=reuse): + return modeling.BertModel( + bert_config=bert_config, + is_training=is_training, + input_ids=inputs.input_ids, + input_mask=inputs.input_mask, + token_type_ids=inputs.segment_ids, + use_one_hot_embeddings=config.use_tpu, + **kwargs) + + +def roll(arr, direction): + """Shifts embeddings in a [batch, seq_len, dim] tensor to the right/left.""" + return tf.concat([arr[:, direction:, :], arr[:, :direction, :]], axis=1) + + +def get_generator_config(config: configure_pretraining.PretrainingConfig, + bert_config: modeling.BertConfig): + """Get model config for the generator network.""" + gen_config = modeling.BertConfig.from_dict(bert_config.to_dict()) + gen_config.hidden_size = int(round( + bert_config.hidden_size * config.generator_hidden_size)) + gen_config.num_hidden_layers = int(round( + bert_config.num_hidden_layers * config.generator_layers)) + gen_config.intermediate_size = 4 * gen_config.hidden_size + gen_config.num_attention_heads = max(1, gen_config.hidden_size // 64) + return gen_config + + +def model_fn_builder(config: configure_pretraining.PretrainingConfig): + """Build the model for training.""" + + def model_fn(features, labels, mode, params): + """Build the model for training.""" + model = PretrainingModel(config, features, + mode == tf.estimator.ModeKeys.TRAIN) + utils.log("Model is built!") + if mode == tf.estimator.ModeKeys.TRAIN: + train_op = optimization.create_optimizer( + model.total_loss, config.learning_rate, config.num_train_steps, + weight_decay_rate=config.weight_decay_rate, + use_tpu=config.use_tpu, + warmup_steps=config.num_warmup_steps, + lr_decay_power=config.lr_decay_power + ) + output_spec = tf.estimator.tpu.TPUEstimatorSpec( + mode=mode, + loss=model.total_loss, + train_op=train_op, + training_hooks=[training_utils.ETAHook( + {} if config.use_tpu else dict(loss=model.total_loss), + config.num_train_steps, config.iterations_per_loop, + config.use_tpu)] + ) + elif mode == tf.estimator.ModeKeys.EVAL: + output_spec = tf.estimator.tpu.TPUEstimatorSpec( + mode=mode, + loss=model.total_loss, + eval_metrics=model.eval_metrics, + evaluation_hooks=[training_utils.ETAHook( + {} if config.use_tpu else dict(loss=model.total_loss), + config.num_eval_steps, config.iterations_per_loop, + config.use_tpu, is_training=False)]) + else: + raise ValueError("Only TRAIN and EVAL modes are supported") + return output_spec + + return model_fn + + +def train_or_eval(config: configure_pretraining.PretrainingConfig): + """Run pre-training or evaluate the pre-trained model.""" + if config.do_train == config.do_eval: + raise ValueError("Exactly one of `do_train` or `do_eval` must be True.") + if config.debug and config.do_train: + utils.rmkdir(config.model_dir) + utils.heading("Config:") + utils.log_config(config) + + is_per_host = tf.estimator.tpu.InputPipelineConfig.PER_HOST_V2 + tpu_cluster_resolver = None + if config.use_tpu and config.tpu_name: + tpu_cluster_resolver = tf.distribute.cluster_resolver.TPUClusterResolver( + config.tpu_name, zone=config.tpu_zone, project=config.gcp_project) + tpu_config = tf.estimator.tpu.TPUConfig( + iterations_per_loop=config.iterations_per_loop, + num_shards=config.num_tpu_cores, + tpu_job_name=config.tpu_job_name, + per_host_input_for_training=is_per_host) + run_config = tf.estimator.tpu.RunConfig( + cluster=tpu_cluster_resolver, + model_dir=config.model_dir, + save_checkpoints_steps=config.save_checkpoints_steps, + keep_checkpoint_max=config.keep_checkpoint_max, + tpu_config=tpu_config) + model_fn = model_fn_builder(config=config) + estimator = tf.estimator.tpu.TPUEstimator( + use_tpu=config.use_tpu, + model_fn=model_fn, + config=run_config, + train_batch_size=config.train_batch_size, + eval_batch_size=config.eval_batch_size) + + if config.do_train: + utils.heading("Running training") + estimator.train(input_fn=pretrain_data.get_input_fn(config, True), + max_steps=config.num_train_steps) + if config.do_eval: + utils.heading("Running evaluation") + result = estimator.evaluate( + input_fn=pretrain_data.get_input_fn(config, False), + steps=config.num_eval_steps) + for key in sorted(result.keys()): + utils.log(" {:} = {:}".format(key, str(result[key]))) + return result + + +def train_one_step(config: configure_pretraining.PretrainingConfig): + """Builds an ELECTRA model an trains it for one step; useful for debugging.""" + train_input_fn = pretrain_data.get_input_fn(config, True) + features = tf.data.make_one_shot_iterator(train_input_fn(dict( + batch_size=config.train_batch_size))).get_next() + model = PretrainingModel(config, features, True) + with tf.Session() as sess: + sess.run(tf.global_variables_initializer()) + utils.log(sess.run(model.total_loss)) + + +def main(): + parser = argparse.ArgumentParser(description=__doc__) + parser.add_argument("--data-dir", required=True, + help="Location of data files (model weights, etc).") + parser.add_argument("--model-name", required=True, + help="The name of the model being fine-tuned.") + parser.add_argument("--hparams", default="{}", + help="JSON dict of model hyperparameters.") + args = parser.parse_args() + if args.hparams.endswith(".json"): + hparams = utils.load_json(args.hparams) + else: + hparams = json.loads(args.hparams) + tf.logging.set_verbosity(tf.logging.ERROR) + train_or_eval(configure_pretraining.PretrainingConfig( + args.model_name, args.data_dir, **hparams)) + + +if __name__ == "__main__": + main() diff --git a/arabert/araelectra/util/__init__.py b/arabert/araelectra/util/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..4241467eddcc96d95c06850ff13fbaa2e3739acb --- /dev/null +++ b/arabert/araelectra/util/__init__.py @@ -0,0 +1,14 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. \ No newline at end of file diff --git a/arabert/araelectra/util/training_utils.py b/arabert/araelectra/util/training_utils.py new file mode 100644 index 0000000000000000000000000000000000000000..9aba1c39dfe4b7b4791bd75df3aa15e3a39ca03b --- /dev/null +++ b/arabert/araelectra/util/training_utils.py @@ -0,0 +1,112 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""Utilities for training the models.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import datetime +import re +import time +import tensorflow as tf + +from model import modeling +from util import utils + + +class ETAHook(tf.estimator.SessionRunHook): + """Print out the time remaining during training/evaluation.""" + + def __init__(self, to_log, n_steps, iterations_per_loop, on_tpu, + log_every=1, is_training=True): + self._to_log = to_log + self._n_steps = n_steps + self._iterations_per_loop = iterations_per_loop + self._on_tpu = on_tpu + self._log_every = log_every + self._is_training = is_training + self._steps_run_so_far = 0 + self._global_step = None + self._global_step_tensor = None + self._start_step = None + self._start_time = None + + def begin(self): + self._global_step_tensor = tf.train.get_or_create_global_step() + + def before_run(self, run_context): + if self._start_time is None: + self._start_time = time.time() + return tf.estimator.SessionRunArgs(self._to_log) + + def after_run(self, run_context, run_values): + self._global_step = run_context.session.run(self._global_step_tensor) + self._steps_run_so_far += self._iterations_per_loop if self._on_tpu else 1 + if self._start_step is None: + self._start_step = self._global_step - (self._iterations_per_loop + if self._on_tpu else 1) + self.log(run_values) + + def end(self, session): + self._global_step = session.run(self._global_step_tensor) + self.log() + + def log(self, run_values=None): + step = self._global_step if self._is_training else self._steps_run_so_far + if step % self._log_every != 0: + return + msg = "{:}/{:} = {:.1f}%".format(step, self._n_steps, + 100.0 * step / self._n_steps) + time_elapsed = time.time() - self._start_time + time_per_step = time_elapsed / ( + (step - self._start_step) if self._is_training else step) + msg += ", SPS: {:.1f}".format(1 / time_per_step) + msg += ", ELAP: " + secs_to_str(time_elapsed) + msg += ", ETA: " + secs_to_str( + (self._n_steps - step) * time_per_step) + if run_values is not None: + for tag, value in run_values.results.items(): + msg += " - " + str(tag) + (": {:.4f}".format(value)) + utils.log(msg) + + +def secs_to_str(secs): + s = str(datetime.timedelta(seconds=int(round(secs)))) + s = re.sub("^0:", "", s) + s = re.sub("^0", "", s) + s = re.sub("^0:", "", s) + s = re.sub("^0", "", s) + return s + + +def get_bert_config(config): + """Get model hyperparameters based on a pretraining/finetuning config""" + if config.model_size == "large": + args = {"hidden_size": 1024, "num_hidden_layers": 24} + elif config.model_size == "base": + args = {"hidden_size": 768, "num_hidden_layers": 12} + elif config.model_size == "small": + args = {"hidden_size": 256, "num_hidden_layers": 12} + else: + raise ValueError("Unknown model size", config.model_size) + args["vocab_size"] = config.vocab_size + args.update(**config.model_hparam_overrides) + # by default the ff size and num attn heads are determined by the hidden size + args["num_attention_heads"] = max(1, args["hidden_size"] // 64) + args["intermediate_size"] = 4 * args["hidden_size"] + args.update(**config.model_hparam_overrides) + return modeling.BertConfig.from_dict(args) diff --git a/arabert/araelectra/util/utils.py b/arabert/araelectra/util/utils.py new file mode 100644 index 0000000000000000000000000000000000000000..6488546a26f14a86cd36a45160caedf9c713984f --- /dev/null +++ b/arabert/araelectra/util/utils.py @@ -0,0 +1,109 @@ +# coding=utf-8 +# Copyright 2020 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +"""A collection of general utility functions.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import json +import pickle +import sys + +import tensorflow as tf + + +def load_json(path): + with tf.io.gfile.GFile(path, "r") as f: + return json.load(f) + + +def write_json(o, path): + if "/" in path: + tf.io.gfile.makedirs(path.rsplit("/", 1)[0]) + with tf.io.gfile.GFile(path, "w") as f: + json.dump(o, f) + + +def load_pickle(path): + with tf.io.gfile.GFile(path, "rb") as f: + return pickle.load(f) + + +def write_pickle(o, path): + if "/" in path: + tf.io.gfile.makedirs(path.rsplit("/", 1)[0]) + with tf.io.gfile.GFile(path, "wb") as f: + pickle.dump(o, f, -1) + + +def mkdir(path): + if not tf.io.gfile.exists(path): + tf.io.gfile.makedirs(path) + + +def rmrf(path): + if tf.io.gfile.exists(path): + tf.io.gfile.rmtree(path) + + +def rmkdir(path): + rmrf(path) + mkdir(path) + + +def log(*args): + msg = " ".join(map(str, args)) + sys.stdout.write(msg + "\n") + sys.stdout.flush() + + +def log_config(config): + for key, value in sorted(config.__dict__.items()): + log(key, value) + log() + + +def heading(*args): + log(80 * "=") + log(*args) + log(80 * "=") + + +def nest_dict(d, prefixes, delim="_"): + """Go from {prefix_key: value} to {prefix: {key: value}}.""" + nested = {} + for k, v in d.items(): + for prefix in prefixes: + if k.startswith(prefix + delim): + if prefix not in nested: + nested[prefix] = {} + nested[prefix][k.split(delim, 1)[1]] = v + else: + nested[k] = v + return nested + + +def flatten_dict(d, delim="_"): + """Go from {prefix: {key: value}} to {prefix_key: value}.""" + flattened = {} + for k, v in d.items(): + if isinstance(v, dict): + for k2, v2 in v.items(): + flattened[k + delim + k2] = v2 + else: + flattened[k] = v + return flattened diff --git a/arabert/aragpt2/.gitignore b/arabert/aragpt2/.gitignore new file mode 100644 index 0000000000000000000000000000000000000000..1132182222e4197d10112602e06b3ee82a1983c9 --- /dev/null +++ b/arabert/aragpt2/.gitignore @@ -0,0 +1,6 @@ +data/ +.vscode/ +__pycache__/ +scratch.py +*.sh +*.bat \ No newline at end of file diff --git a/arabert/aragpt2/LICENSE b/arabert/aragpt2/LICENSE new file mode 100644 index 0000000000000000000000000000000000000000..b2e08d0c2700810da4f22c0c8094e625212b4866 --- /dev/null +++ b/arabert/aragpt2/LICENSE @@ -0,0 +1,78 @@ +========================================== +SOFTWARE LICENSE AGREEMENT - AraGPT2 +========================================== + +* NAME: AraGPT2: Pre-Training Text Discriminatorsfor Arabic Language Understanding + +* ACKNOWLEDGMENTS + +This [software] was generated by [American +University of Beirut] (“Owners”). The statements +made herein are solely the responsibility of the author[s]. + + The following software programs and programs have been used in the + generation of [AraGPT2]: + + + gpt-2-simple + - Max Woolf, 2020. + - License and link : https://github.com/minimaxir/gpt-2-simple + + + GPT2-ML + - Zhibo Zhang, GPT2-ML: GPT-2 for Multiple Languages, 2019 + - License and link : https://github.com/imcaspar/gpt2-ml + + + PyArabic + - T. Zerrouki, Pyarabic, An Arabic language library for Python, + https://pypi.python.org/pypi/pyarabic/, 2010 + - License and link: https://github.com/linuxscout/pyarabic/ + +* LICENSE + +This software and database is being provided to you, the LICENSEE, +by the Owners under the following license. By obtaining, using and/or +copying this software and database, you agree that you have read, +understood, and will comply with these terms and conditions. You +further agree that you have read and you will abide by the license +agreements provided in the above links under “acknowledgements”: +Permission to use, copy, modify and distribute this software and +database and its documentation for any purpose and without fee or +royalty is hereby granted, provided that you agree to comply with the +following copyright notice and statements, including the disclaimer, +and that the same appear on ALL copies of the software, database and +documentation, including modifications that you make for internal use +or for distribution. [AraGPT2] Copyright 2020 by [American University +of Beirut]. All rights reserved. If you remix, transform, or build +upon the material, you must distribute your contributions under the +same license as this one. You may not apply legal terms or technological +measures that legally restrict others from doing anything this license +permits. THIS SOFTWARE IS PROVIDED "AS IS" AND THE OWNERS MAKE NO +REPRESENTATIONS OR WARRANTIES, EXPRESS OR IMPLIED. BY WAY OF EXAMPLE, +BUT NOT LIMITATION, THE OWNERS MAKE NO REPRESENTATIONS OR WARRANTIES OF +MERCHANT-ABILITY OR FITNESS FOR ANY PARTICULAR PURPOSE OR THAT THE USE OF +THE LICENSED SOFTWARE, DATABASE OR DOCUMENTATION WILL NOT INFRINGE ANY THIRD +PARTY PATENTS, COPYRIGHTS, TRADEMARKS OR OTHER RIGHTS. The name of the +Owners may not be used in advertising or publicity pertaining to +distribution of the software and/or database. Title to copyright in +this software, database and any associated documentation shall at all +times remain with the Owners and LICENSEE agrees to preserve same. + +The use of AraGPT2 should be cited as follows: + +@inproceedings{antoun-etal-2021-aragpt2, + title = "{A}ra{GPT}2: Pre-Trained Transformer for {A}rabic Language Generation", + author = "Antoun, Wissam and + Baly, Fady and + Hajj, Hazem", + booktitle = "Proceedings of the Sixth Arabic Natural Language Processing Workshop", + month = apr, + year = "2021", + address = "Kyiv, Ukraine (Virtual)", + publisher = "Association for Computational Linguistics", + url = "https://www.aclweb.org/anthology/2021.wanlp-1.21", + pages = "196--207", +} + +[AraGPT2] Copyright 2020 by [American University of Beirut]. +All rights reserved. +========================================== + diff --git a/arabert/aragpt2/README.md b/arabert/aragpt2/README.md new file mode 100644 index 0000000000000000000000000000000000000000..19983bbcd26fea08a5cce501467a3a476cbe2aea --- /dev/null +++ b/arabert/aragpt2/README.md @@ -0,0 +1,162 @@ + +# AraGPT2 + +You can find more information in our paper [AraGPT2](https://arxiv.org/abs/2012.15520) + +The code in this repository was used to train all GPT2 variants. The code support training and fine-tuning GPT2 on GPUs and TPUs via the TPUEstimator API. + +GPT2-base and medium uses the code from the `gpt2` folder and can trains models from the [minimaxir/gpt-2-simple](https://github.com/minimaxir/gpt-2-simple) repository. +These models were trained using the `lamb` optimizer and follow the same architecture as `gpt2` and are fully compatible with the `transformers` library. + +GPT2-large and GPT2-mega were trained using the [imcaspar/gpt2-ml](https://github.com/imcaspar/gpt2-ml/) library, and follow the `grover` architecture. You can use the pytorch classes found in `grover/modeling_gpt2.py` as a direct replacement for classes in the `transformers` library (it should support version `v4.x` from `transformers`). +Both models are trained using the `adafactor` optimizer, since the `adam` and `lamb` optimizer use too much memory causing the model to not even fit 1 batch on a TPU core. + +AraGPT2 is trained on the same large Arabic Dataset as AraBERTv2. + +# AraGPT2 Detector +Machine generated detector model from the [AraGPT2: Pre-Trained Transformer for Arabic Language Generation paper](https://arxiv.org/abs/2012.15520) +This model is trained on the long text passages, and achieves a 99.4% F1-Score. + + +# Usage + +## Testing the model using `transformers`: + +```python +from transformers import GPT2TokenizerFast, pipeline +#for base and medium +from transformers import GPT2LMHeadModel +#for large and mega +from arabert.aragpt2.grover.modeling_gpt2 import GPT2LMHeadModel + +from arabert.preprocess import ArabertPreprocessor + +MODEL_NAME='aubmindlab/aragpt2-base' +arabert_prep = ArabertPreprocessor(model_name=MODEL_NAME) + +model = GPT2LMHeadModel.from_pretrained(MODEL_NAME) +tokenizer = GPT2TokenizerFast.from_pretrained(MODEL_NAME) +generation_pipeline = pipeline("text-generation",model=model,tokenizer=tokenizer) + +text="" +text_clean = arabert_prep.preprocess(text) + +#feel free to try different decoding settings +generation_pipeline( + text_clean, + pad_token_id=tokenizer.eos_token_id, + num_beams=10, + max_length=200, + top_p=0.9, + repetition_penalty = 3.0, + no_repeat_ngram_size = 3)[0]['generated_text'] +``` +## How to use the detector: + +```python +from transformers import pipeline +from arabert.preprocess import ArabertPreprocessor + +processor = ArabertPreprocessor(model="aubmindlab/araelectra-base-discriminator") +pipe = pipeline("sentiment-analysis", model = "aubmindlab/aragpt2-mega-detector-long") + +text = " " +text_prep = processor.preprocess(text) +result = pipe(text_prep) +# [{'label': 'machine-generated', 'score': 0.9977743625640869}] +``` + +## Finetunning using `transformers`: + +Follow the guide linked [here](https://towardsdatascience.com/fine-tuning-gpt2-on-colab-gpu-for-free-340468c92ed) + +## Finetuning using our code with TF 1.15.4: + +- Create the Training TFRecords: +```bash +python create_pretraining_data.py + --input_file= + --output_file= + --tokenizer_dir= + ``` + + - Finetuning: + ```bash + python3 run_pretraining.py \ + --input_file="gs:///pretraining_data/*" \ + --output_dir="gs:///pretraining_model/" \ + --config_file="config/small_hparams.json" \ + --batch_size=128 \ + --eval_batch_size=8 \ + --num_train_steps= \ + --num_warmup_steps= \ + --learning_rate= \ + --save_checkpoints_steps= \ + --max_seq_length=1024 \ + --max_eval_steps= \ + --optimizer="lamb" \ + --iterations_per_loop=5000 \ + --keep_checkpoint_max=10 \ + --use_tpu=True \ + --tpu_name= \ + --do_train=True \ + --do_eval=False + ``` +# Model Sizes + +Model | Optimizer | Context size | Embedding Size | Num of heads | Num of layers | Model Size / Num of Params | + ---|:---:|:---:|:---:|:---:|:---:|:---: +AraGPT2-base | `lamb` | 1024 | 768 | 12 | 12 | 527MB / 135M | +AraGPT2-medium | `lamb` | 1024 | 1024 | 16 | 24 | 1.4GB / 369M | +AraGPT2-large | `adafactor` | 1024 | 1280 | 20 | 36 | 2.98GB/792M | +AraGPT2-mega | `adafactor` | 1024 | 1536 | 24 | 48 | 5.5GB/1.46B | + +## Compute + +Model | Hardware | num of examples (seq len = 1024) | Batch Size | Num of Steps | Time (in days) + ---|:---:|:---:|:---:|:---:|:---: +AraGPT2-base | TPUv3-128 | 9.7M | 1792 | 125K | 1.5 +AraGPT2-medium | TPUv3-8 | 9.7M | 80 | 1M | 15 +AraGPT2-large | TPUv3-128 | 9.7M | 256 | 220k | 3 +AraGPT2-mega | TPUv3-128 | 9.7M | 256 | 780K | 9 + +# Results + +The results show in the table below are the perplexity values on wikipedia articles that are not in the training data. + +Model | PPL | + ---|:---: +AraGPT2-base | 55.8 +AraGPT2-medium | 45.7 +AraGPT2-large | 36.6 +AraGPT2-mega | 29.8 + + +# Disclaimer + +The text generated by AraGPT2 Arabic is automatically generated by a neural network model trained on a large amount of texts, which does not represent the authors' or their institutes' official attitudes and preferences. The text generated by AraGPT2 should only be used for research and scientific purposes. If it infringes on your rights and interests or violates social morality, please do not propagate it. + +# If you used this model please cite us as : + +``` +@inproceedings{antoun-etal-2021-aragpt2, + title = "{A}ra{GPT}2: Pre-Trained Transformer for {A}rabic Language Generation", + author = "Antoun, Wissam and + Baly, Fady and + Hajj, Hazem", + booktitle = "Proceedings of the Sixth Arabic Natural Language Processing Workshop", + month = apr, + year = "2021", + address = "Kyiv, Ukraine (Virtual)", + publisher = "Association for Computational Linguistics", + url = "https://www.aclweb.org/anthology/2021.wanlp-1.21", + pages = "196--207", +} +``` + + +# Acknowledgments +Thanks to TensorFlow Research Cloud (TFRC) for the free access to Cloud TPUs, couldn't have done it without this program, and to the [AUB MIND Lab](https://sites.aub.edu.lb/mindlab/) Members for the continous support. Also thanks to [Yakshof](https://www.yakshof.com/#/) and Assafir for data and storage access. Another thanks for Habib Rahal (https://www.behance.net/rahalhabib), for putting a face to AraBERT. + +# Contacts +**Wissam Antoun**: [Linkedin](https://www.linkedin.com/in/wissam-antoun-622142b4/) | [Twitter](https://twitter.com/wissam_antoun) | [Github](https://github.com/WissamAntoun) | | \ No newline at end of file diff --git a/arabert/aragpt2/__init__.py b/arabert/aragpt2/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..d21438cdfd220b6d2e428df2dfd4cf80b326fe37 --- /dev/null +++ b/arabert/aragpt2/__init__.py @@ -0,0 +1,2 @@ +# coding=utf-8 + diff --git a/arabert/aragpt2/config/large_hparams.json b/arabert/aragpt2/config/large_hparams.json new file mode 100644 index 0000000000000000000000000000000000000000..a01843e801069cf1c092bb6562f3a99a7f0402b2 --- /dev/null +++ b/arabert/aragpt2/config/large_hparams.json @@ -0,0 +1,17 @@ +{ + "vocab_size": 64000, + "hidden_size": 1280, + "attention_probs_dropout_prob": 0.1, + "hidden_dropout_prob": 0.1, + "hidden_act": "gelu", + "initializer_range": 0.014142135623731, + "intermediate_size": 5120, + "max_position_embeddings": 1024, + "num_attention_heads": 20, + "num_hidden_layers": 36, + "n_vocab": 64000, + "n_ctx": 1024, + "n_embd": 1280, + "n_head": 20, + "n_layer": 36 + } \ No newline at end of file diff --git a/arabert/aragpt2/config/medium_hparams.json b/arabert/aragpt2/config/medium_hparams.json new file mode 100644 index 0000000000000000000000000000000000000000..74c5d94ea665821f60768b72179166e02fb64794 --- /dev/null +++ b/arabert/aragpt2/config/medium_hparams.json @@ -0,0 +1,7 @@ +{ + "n_vocab": 64000, + "n_ctx": 1024, + "n_embd": 1024, + "n_head": 16, + "n_layer": 24 +} \ No newline at end of file diff --git a/arabert/aragpt2/config/mega_hparams.json b/arabert/aragpt2/config/mega_hparams.json new file mode 100644 index 0000000000000000000000000000000000000000..cb67bd49c6a7eb3f8e8c4c9589936bd651481670 --- /dev/null +++ b/arabert/aragpt2/config/mega_hparams.json @@ -0,0 +1,16 @@ +{ + "vocab_size": 64000, + "hidden_size": 1536, + "attention_probs_dropout_prob": 0.1, + "hidden_dropout_prob": 0.1, + "hidden_act": "gelu", + "initializer_range": 0.014142135623731, + "intermediate_size": 6144, + "max_position_embeddings": 1024, + "num_attention_heads": 24, + "num_hidden_layers": 48, + "n_ctx": 1024, + "n_embd": 1536, + "n_head": 24, + "n_layer": 48 + } \ No newline at end of file diff --git a/arabert/aragpt2/config/small_hparams.json b/arabert/aragpt2/config/small_hparams.json new file mode 100644 index 0000000000000000000000000000000000000000..dda8c1009181507a0f341fe621e108b3497fc884 --- /dev/null +++ b/arabert/aragpt2/config/small_hparams.json @@ -0,0 +1,7 @@ +{ + "n_vocab": 64000, + "n_ctx": 1024, + "n_embd": 768, + "n_head": 12, + "n_layer": 12 +} \ No newline at end of file diff --git a/arabert/aragpt2/create_pretraining_data.py b/arabert/aragpt2/create_pretraining_data.py new file mode 100644 index 0000000000000000000000000000000000000000..49863226947f6b1d42d679794b7dabebd1d77f03 --- /dev/null +++ b/arabert/aragpt2/create_pretraining_data.py @@ -0,0 +1,95 @@ +import collections +from transformers import GPT2TokenizerFast +import tensorflow as tf + +import sys +sys.path.append("..") +from arabert.preprocess import preprocess + +flags = tf.flags + +FLAGS = flags.FLAGS + +flags.DEFINE_string( + "input_file", None, "Input raw text file (or comma-separated list of files)." +) + +flags.DEFINE_string( + "output_file", None, "Output TF example file (or comma-separated list of files)." +) + +flags.DEFINE_string( + "tokenizer_dir", None, "The directory of a pretrained GPT2TokenizerFast" +) + +flags.DEFINE_integer( + "max_len", 1024, "The vocabulary file that the BERT model was trained on." +) + +flags.DEFINE_integer( + "num_examples_print", 0, "Number of examples to print" +) + + +def create_int_feature(values): + feature = tf.train.Feature(int64_list=tf.train.Int64List(value=list(values))) + return feature + + +def main(_): + tf.logging.set_verbosity(tf.logging.INFO) + logger = tf.get_logger() + logger.propagate = False + + input_files = [] + for input_pattern in FLAGS.input_file.split(","): + input_files.extend(tf.gfile.Glob(input_pattern)) + + tf.logging.info("*** Reading from input files ***") + for input_file in input_files: + tf.logging.info(" %s", input_file) + + gpt2_tok = GPT2TokenizerFast.from_pretrained(FLAGS.tokenizer_dir) + + writer = tf.python_io.TFRecordWriter(FLAGS.output_file + ".tfrecord") + + eos_id = gpt2_tok.eos_token_id + all_examples = [] + for input_file in input_files: + queue = [] + example = [] + with tf.gfile.GFile(input_file, "r") as reader: + for line in reader.readlines(): + if line == "\n": + queue.append(eos_id) + else: + line = line.replace("\n", " ") + line = preprocess(line,model='gpt2-base-arabic') + line = line.strip() + enc_line = gpt2_tok.encode(line) + queue.extend(enc_line) + if len(queue) > FLAGS.max_len +1: + example = [queue.pop(0) for _ in range(FLAGS.max_len +1)] + assert len(example) == FLAGS.max_len +1 + all_examples.append(example) + + + for i, ex in enumerate(all_examples): + features = collections.OrderedDict() + features["input_ids"] = create_int_feature(ex) + tf_example = tf.train.Example(features=tf.train.Features(feature=features)) + writer.write(tf_example.SerializeToString()) + if i < FLAGS.num_examples_print: + tf.logging.info("*** Example ***") + tf.logging.info("Length: %d" % len(ex)) + tf.logging.info("Tokens: %s" % gpt2_tok.decode(ex)) + tf.logging.info("ids: %s" % " ".join([str(x) for x in ex])) + + tf.logging.info("Wrote %d total instances", len(all_examples)) + + +if __name__ == "__main__": + flags.mark_flag_as_required("input_file") + flags.mark_flag_as_required("output_file") + flags.mark_flag_as_required("tokenizer_dir") + tf.app.run() diff --git a/arabert/aragpt2/gpt2/__init__.py b/arabert/aragpt2/gpt2/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..d21438cdfd220b6d2e428df2dfd4cf80b326fe37 --- /dev/null +++ b/arabert/aragpt2/gpt2/__init__.py @@ -0,0 +1,2 @@ +# coding=utf-8 + diff --git a/arabert/aragpt2/gpt2/lamb_optimizer.py b/arabert/aragpt2/gpt2/lamb_optimizer.py new file mode 100644 index 0000000000000000000000000000000000000000..0fc19a1b43a4e472e05eda80eaeada8c68dfb398 --- /dev/null +++ b/arabert/aragpt2/gpt2/lamb_optimizer.py @@ -0,0 +1,158 @@ +# coding=utf-8 +# Copyright 2019 The Google Research Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +# Lint as: python2, python3 +"""Functions and classes related to optimization (weight updates).""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import re +import six +import tensorflow as tf + +# pylint: disable=g-direct-tensorflow-import +from tensorflow.python.ops import array_ops +from tensorflow.python.ops import linalg_ops +from tensorflow.python.ops import math_ops + +# pylint: enable=g-direct-tensorflow-import + + +class LAMBOptimizer(tf.train.Optimizer): + """LAMB (Layer-wise Adaptive Moments optimizer for Batch training).""" + + # A new optimizer that includes correct L2 weight decay, adaptive + # element-wise updating, and layer-wise justification. The LAMB optimizer + # was proposed by Yang You, Jing Li, Jonathan Hseu, Xiaodan Song, + # James Demmel, and Cho-Jui Hsieh in a paper titled as Reducing BERT + # Pre-Training Time from 3 Days to 76 Minutes (arxiv.org/abs/1904.00962) + + def __init__( + self, + learning_rate, + weight_decay_rate=0.0, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=None, + exclude_from_layer_adaptation=None, + name="LAMBOptimizer", + ): + """Constructs a LAMBOptimizer.""" + super(LAMBOptimizer, self).__init__(False, name) + + self.learning_rate = learning_rate + self.weight_decay_rate = weight_decay_rate + self.beta_1 = beta_1 + self.beta_2 = beta_2 + self.epsilon = epsilon + self.exclude_from_weight_decay = exclude_from_weight_decay + # exclude_from_layer_adaptation is set to exclude_from_weight_decay if the + # arg is None. + # TODO(jingli): validate if exclude_from_layer_adaptation is necessary. + if exclude_from_layer_adaptation: + self.exclude_from_layer_adaptation = exclude_from_layer_adaptation + else: + self.exclude_from_layer_adaptation = exclude_from_weight_decay + + def apply_gradients(self, grads_and_vars, global_step=None, name=None): + """See base class.""" + assignments = [] + for (grad, param) in grads_and_vars: + if grad is None or param is None: + continue + + param_name = self._get_variable_name(param.name) + + m = tf.get_variable( + name=six.ensure_str(param_name) + "/adam_m", + shape=param.shape.as_list(), + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer(), + ) + v = tf.get_variable( + name=six.ensure_str(param_name) + "/adam_v", + shape=param.shape.as_list(), + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer(), + ) + + # Standard Adam update. + next_m = tf.multiply(self.beta_1, m) + tf.multiply(1.0 - self.beta_1, grad) + next_v = tf.multiply(self.beta_2, v) + tf.multiply( + 1.0 - self.beta_2, tf.square(grad) + ) + + update = next_m / (tf.sqrt(next_v) + self.epsilon) + + # Just adding the square of the weights to the loss function is *not* + # the correct way of using L2 regularization/weight decay with Adam, + # since that will interact with the m and v parameters in strange ways. + # + # Instead we want ot decay the weights in a manner that doesn't interact + # with the m/v parameters. This is equivalent to adding the square + # of the weights to the loss with plain (non-momentum) SGD. + if self._do_use_weight_decay(param_name): + update += self.weight_decay_rate * param + + ratio = 1.0 + if self._do_layer_adaptation(param_name): + w_norm = linalg_ops.norm(param, ord=2) + g_norm = linalg_ops.norm(update, ord=2) + ratio = array_ops.where( + math_ops.greater(w_norm, 0), + array_ops.where( + math_ops.greater(g_norm, 0), (w_norm / g_norm), 1.0 + ), + 1.0, + ) + + update_with_lr = ratio * self.learning_rate * update + + next_param = param - update_with_lr + + assignments.extend( + [param.assign(next_param), m.assign(next_m), v.assign(next_v)] + ) + return tf.group(*assignments, name=name) + + def _do_use_weight_decay(self, param_name): + """Whether to use L2 weight decay for `param_name`.""" + if not self.weight_decay_rate: + return False + if self.exclude_from_weight_decay: + for r in self.exclude_from_weight_decay: + if re.search(r, param_name) is not None: + return False + return True + + def _do_layer_adaptation(self, param_name): + """Whether to do layer-wise learning rate adaptation for `param_name`.""" + if self.exclude_from_layer_adaptation: + for r in self.exclude_from_layer_adaptation: + if re.search(r, param_name) is not None: + return False + return True + + def _get_variable_name(self, param_name): + """Get the variable name from the tensor name.""" + m = re.match("^(.*):\\d+$", six.ensure_str(param_name)) + if m is not None: + param_name = m.group(1) + return param_name diff --git a/arabert/aragpt2/gpt2/optimization.py b/arabert/aragpt2/gpt2/optimization.py new file mode 100644 index 0000000000000000000000000000000000000000..2d84ea2a330395e9a4f5ffdb01d3220dce99645b --- /dev/null +++ b/arabert/aragpt2/gpt2/optimization.py @@ -0,0 +1,225 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Functions and classes related to optimization (weight updates).""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import re +import tensorflow as tf +import lamb_optimizer +from gpt_2_simple.src import memory_saving_gradients + + +def create_optimizer( + loss, + init_lr, + num_train_steps, + num_warmup_steps, + use_tpu, + optimizer="lamb", + poly_power=1.0, + start_warmup_step=0, + use_memory_saving_gradients=False +): + """Creates an optimizer training op.""" + global_step = tf.train.get_or_create_global_step() + + learning_rate = tf.constant(value=init_lr, shape=[], dtype=tf.float32) + + # Implements linear decay of the learning rate. + learning_rate = tf.train.polynomial_decay( + learning_rate, + global_step, + num_train_steps, + end_learning_rate=0.0, + power=poly_power, + cycle=False, + ) + + # Implements linear warmup. I.e., if global_step - start_warmup_step < + # num_warmup_steps, the learning rate will be + # `(global_step - start_warmup_step)/num_warmup_steps * init_lr`. + if num_warmup_steps: + tf.logging.info( + "++++++ warmup starts at step " + + str(start_warmup_step) + + ", for " + + str(num_warmup_steps) + + " steps ++++++" + ) + global_steps_int = tf.cast(global_step, tf.int32) + start_warm_int = tf.constant(start_warmup_step, dtype=tf.int32) + global_steps_int = global_steps_int - start_warm_int + warmup_steps_int = tf.constant(num_warmup_steps, dtype=tf.int32) + + global_steps_float = tf.cast(global_steps_int, tf.float32) + warmup_steps_float = tf.cast(warmup_steps_int, tf.float32) + + warmup_percent_done = global_steps_float / warmup_steps_float + warmup_learning_rate = init_lr * warmup_percent_done + + is_warmup = tf.cast(global_steps_int < warmup_steps_int, tf.float32) + learning_rate = ( + 1.0 - is_warmup + ) * learning_rate + is_warmup * warmup_learning_rate + + # It is OK that you use this optimizer for finetuning, since this + # is how the model was trained (note that the Adam m/v variables are NOT + # loaded from init_checkpoint.) + # It is OK to use AdamW in the finetuning even the model is trained by LAMB. + # As report in the Bert pulic github, the learning rate for SQuAD 1.1 finetune + # is 3e-5, 4e-5 or 5e-5. For LAMB, the users can use 3e-4, 4e-4,or 5e-4 for a + # batch size of 64 in the finetune. + if optimizer == "adamw": + tf.logging.info("using adamw") + optimizer = AdamWeightDecayOptimizer( + learning_rate=learning_rate, + weight_decay_rate=0.01, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=["LayerNorm", "layer_norm", "bias"], + ) + elif optimizer == "lamb": + tf.logging.info("using lamb") + optimizer = lamb_optimizer.LAMBOptimizer( + learning_rate=learning_rate, + weight_decay_rate=0.01, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=["LayerNorm", "layer_norm", "bias"], + ) + else: + raise ValueError("Not supported optimizer: ", optimizer) + + if use_tpu: + optimizer = tf.contrib.tpu.CrossShardOptimizer(optimizer) + + tvars = tf.trainable_variables() + + + if use_memory_saving_gradients: + grads = memory_saving_gradients.gradients(loss, tvars) + else: + grads = tf.gradients(ys=loss, xs=tvars) + + + # This is how bert was pre-trained. + #(grads, _) = tf.clip_by_global_norm(grads, clip_norm=1.0) + + train_op = optimizer.apply_gradients(zip(grads, tvars), global_step=global_step) + + # Normally the global step update is done inside of `apply_gradients`. + # However, neither `AdamWeightDecayOptimizer` nor `LAMBOptimizer` do this. + # But if you use a different optimizer, you should probably take this line + # out. + new_global_step = global_step + 1 + train_op = tf.group(train_op, [global_step.assign(new_global_step)]) + return train_op + + +class AdamWeightDecayOptimizer(tf.train.Optimizer): + """A basic Adam optimizer that includes "correct" L2 weight decay.""" + + def __init__( + self, + learning_rate, + weight_decay_rate=0.0, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=None, + name="AdamWeightDecayOptimizer", + ): + """Constructs a AdamWeightDecayOptimizer.""" + super(AdamWeightDecayOptimizer, self).__init__(False, name) + + self.learning_rate = learning_rate + self.weight_decay_rate = weight_decay_rate + self.beta_1 = beta_1 + self.beta_2 = beta_2 + self.epsilon = epsilon + self.exclude_from_weight_decay = exclude_from_weight_decay + + def apply_gradients(self, grads_and_vars, global_step=None, name=None): + """See base class.""" + assignments = [] + for (grad, param) in grads_and_vars: + if grad is None or param is None: + continue + + param_name = self._get_variable_name(param.name) + + m = tf.get_variable( + name=param_name + "/adam_m", + shape=param.shape.as_list(), + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer(), + ) + v = tf.get_variable( + name=param_name + "/adam_v", + shape=param.shape.as_list(), + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer(), + ) + + # Standard Adam update. + next_m = tf.multiply(self.beta_1, m) + tf.multiply(1.0 - self.beta_1, grad) + next_v = tf.multiply(self.beta_2, v) + tf.multiply( + 1.0 - self.beta_2, tf.square(grad) + ) + + update = next_m / (tf.sqrt(next_v) + self.epsilon) + + # Just adding the square of the weights to the loss function is *not* + # the correct way of using L2 regularization/weight decay with Adam, + # since that will interact with the m and v parameters in strange ways. + # + # Instead we want ot decay the weights in a manner that doesn't interact + # with the m/v parameters. This is equivalent to adding the square + # of the weights to the loss with plain (non-momentum) SGD. + if self._do_use_weight_decay(param_name): + update += self.weight_decay_rate * param + + update_with_lr = self.learning_rate * update + + next_param = param - update_with_lr + + assignments.extend( + [param.assign(next_param), m.assign(next_m), v.assign(next_v)] + ) + return tf.group(*assignments, name=name) + + def _do_use_weight_decay(self, param_name): + """Whether to use L2 weight decay for `param_name`.""" + if not self.weight_decay_rate: + return False + if self.exclude_from_weight_decay: + for r in self.exclude_from_weight_decay: + if re.search(r, param_name) is not None: + return False + return True + + def _get_variable_name(self, param_name): + """Get the variable name from the tensor name.""" + m = re.match("^(.*):\\d+$", param_name) + if m is not None: + param_name = m.group(1) + return param_name \ No newline at end of file diff --git a/arabert/aragpt2/gpt2/run_pretraining.py b/arabert/aragpt2/gpt2/run_pretraining.py new file mode 100644 index 0000000000000000000000000000000000000000..3bea0c460ee9a1f63daa11b7cfff9f3bb50afcfb --- /dev/null +++ b/arabert/aragpt2/gpt2/run_pretraining.py @@ -0,0 +1,397 @@ +import re +import os +import json +import math +import tensorflow as tf + +import optimization +import collections + +from gpt_2_simple.src import model + +flags = tf.flags + +FLAGS = flags.FLAGS + +flags.DEFINE_integer("batch_size", 256, "batch_size") + +flags.DEFINE_integer("eval_batch_size", 8, "eval_batch_size") + +flags.DEFINE_integer("num_train_steps", 100000, "num_train_steps") + +flags.DEFINE_integer("num_warmup_steps", 10, "num_warmup_steps") + +flags.DEFINE_integer("start_warmup_step", 0, "start_warmup_step") + +flags.DEFINE_float("learning_rate", 1e-4, "learning_rate") + +flags.DEFINE_integer("save_checkpoints_steps", 1000, "save_checkpoints_steps") + +flags.DEFINE_integer("max_seq_length", 1024, "max_seq_length") + +flags.DEFINE_integer("max_eval_steps", 10, "Maximum number of eval steps.") + +flags.DEFINE_float("poly_power", 1.0, "The power of poly decay.") + +flags.DEFINE_enum("optimizer", "lamb", ["adamw", "lamb"], "The optimizer for training.") + + +flags.DEFINE_integer( + "iterations_per_loop", + 1000, + "How many steps to make in each estimator call.", +) + + +flags.DEFINE_integer( + "keep_checkpoint_max", + 10, + "How ckpts to keep.", +) + +flags.DEFINE_string( + "input_file", + None, + "Input TF example files (can be a glob or comma separated).", +) + +flags.DEFINE_string( + "output_dir", + None, + "The output directory where the model checkpoints will be written.", +) + +flags.DEFINE_string( + "config_file", + None, + "The config json file corresponding to the pre-trained GPT2 model. " + "This specifies the model architecture.", +) + +flags.DEFINE_string("init_checkpoint", None, "Initial checkpoint") + + +flags.DEFINE_bool("use_tpu", True, "Whether to use TPU or GPU/CPU.") + +flags.DEFINE_string( + "tpu_name", + None, + "The Cloud TPU to use for training. This should be either the name " + "used when creating the Cloud TPU, or a grpc://ip.address.of.tpu:8470 " + "url.", +) + +flags.DEFINE_string( + "tpu_zone", + None, + "[Optional] GCE zone where the Cloud TPU is located in. If not " + "specified, we will attempt to automatically detect the GCE project from " + "metadata.", +) + +flags.DEFINE_string( + "gcp_project", + None, + "[Optional] Project name for the Cloud TPU-enabled project. If not " + "specified, we will attempt to automatically detect the GCE project from " + "metadata.", +) +flags.DEFINE_integer( + "num_tpu_cores", + 8, + "Only used if `use_tpu` is True. Total number of TPU cores to use.", +) + +flags.DEFINE_string("master", None, "[Optional] TensorFlow master URL.") + +flags.DEFINE_bool("do_train", False, "Whether to run training.") + +flags.DEFINE_bool("do_eval", False, "Whether to run eval on the dev set.") + + +def get_assignment_map_from_checkpoint(tvars, init_checkpoint): + assignment_map = {} + initialized_variable_names = {} + + name_to_variable = collections.OrderedDict() + for var in tvars: + name = var.name + m = re.match("^(.*):\\d+$", name) + if m is not None: + name = m.group(1) + name_to_variable[name] = var + + init_vars = tf.train.list_variables(init_checkpoint) + + assignment_map = collections.OrderedDict() + for x in init_vars: + (name, var) = (x[0], x[1]) + if name not in name_to_variable: + continue + assignment_map[name] = name + initialized_variable_names[name] = 1 + initialized_variable_names[name + ":0"] = 1 + + return (assignment_map, initialized_variable_names) + + +def model_fn_builder( + hparams, + init_checkpoint, + learning_rate, + num_train_steps, + num_warmup_steps, + use_tpu, + optimizer, + poly_power, + start_warmup_step, + use_memory_saving_gradients +): + def model_fn(features, labels, mode, params): + tf.logging.info("*** Features ***") + for name in sorted(features.keys()): + tf.logging.info(" name = %s, shape = %s" % (name, features[name].shape)) + + input_ids = features["input_ids"] + + output = model.model(hparams=hparams, X=input_ids) + loss = tf.reduce_mean( + input_tensor=tf.nn.sparse_softmax_cross_entropy_with_logits( + labels=input_ids[:, 1:], logits=output["logits"][:, :-1] + ) + ) + + tvars = tf.trainable_variables() + + initialized_variable_names = {} + scaffold_fn = None + if init_checkpoint: + ( + assignment_map, + initialized_variable_names, + ) = get_assignment_map_from_checkpoint(tvars, init_checkpoint) + if use_tpu: + def tpu_scaffold(): + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + return tf.train.Scaffold() + scaffold_fn = tpu_scaffold + else: + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + + tf.logging.info("**** Trainable Variables ****") + for var in tvars: + init_string = "" + if var.name in initialized_variable_names: + init_string = ", *INIT_FROM_CKPT*" + tf.logging.info( + " name = %s, shape = %s%s", var.name, var.shape, init_string + ) + + output_spec = None + if mode == tf.estimator.ModeKeys.TRAIN: + train_op = optimization.create_optimizer( + loss, + learning_rate, + num_train_steps, + num_warmup_steps, + use_tpu, + optimizer, + poly_power, + start_warmup_step, + use_memory_saving_gradients=use_memory_saving_gradients + ) + + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, + loss=loss, + train_op=train_op, + scaffold_fn=scaffold_fn, + ) + elif mode == tf.estimator.ModeKeys.EVAL: + + def metric_fn(loss): + """Evaluation metric Fn which runs on CPU.""" + perplexity = tf.exp(tf.reduce_mean(loss)) + bpc = tf.reduce_mean(loss) / tf.constant(math.log(2)) + return { + "perplexity": tf.metrics.mean(perplexity), + "bpc": tf.metrics.mean(bpc), + } + + if FLAGS.use_tpu: + with tf.colocate_with(loss): + loss = tf.contrib.tpu.cross_replica_sum(loss) \ + / FLAGS.num_tpu_cores + metric_loss = tf.tile(tf.reshape(loss, [1, 1]), [FLAGS.eval_batch_size, 1]) + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, + loss=loss, + eval_metrics=(metric_fn, [metric_loss]), + scaffold_fn=scaffold_fn) + + # eval_metrics = (metric_fn, {"loss":loss}) + # output_spec = tf.contrib.tpu.TPUEstimatorSpec( + # mode=mode, + # loss=loss, + # eval_metrics=eval_metrics, + # scaffold_fn=scaffold_fn, + # ) + else: + raise ValueError("Only TRAIN and EVAL modes are supported: %s" % (mode)) + + return output_spec + + return model_fn + +def input_fn_builder(input_files, max_seq_length, is_training, num_cpu_threads=4): + def input_fn(params): + batch_size = params["batch_size"] + name_to_features = {"input_ids": tf.FixedLenFeature([max_seq_length + 1], tf.int64)} + if is_training: + #d = tf.data.TFRecordDataset(input_files) + #d = d.repeat(1000) + d = tf.data.Dataset.from_tensor_slices(tf.constant(input_files)) + d = d.repeat() + d = d.shuffle(buffer_size = len(input_files)) + # `cycle_length` is the number of parallel files that get read. + cycle_length = min(num_cpu_threads, len(input_files)) + # `sloppy` mode means that the interleaving is not exact. This adds + # even more randomness to the training pipeline. + d = d.apply( + tf.contrib.data.parallel_interleave( + tf.data.TFRecordDataset, + sloppy = is_training, + cycle_length = cycle_length, + ) + ) + d = d.shuffle(buffer_size = 100) + else: + d = tf.data.TFRecordDataset(input_files) + # Since we evaluate for a fixed number of steps we don't want to encounter + # out-of-range exceptions. + d = d.repeat() + + d = d.apply( + tf.contrib.data.map_and_batch( + lambda record: _decode_record(record, name_to_features), + batch_size=batch_size, + num_parallel_batches=num_cpu_threads, + drop_remainder=True, + ) + ) + return d + + return input_fn + +def _decode_record(record, name_to_features): + """Decodes a record to a TensorFlow example.""" + example = tf.parse_single_example(record, name_to_features) + + # tf.Example only supports tf.int64, but the TPU only supports tf.int32. + # So cast all int64 to int32. + for name in list(example.keys()): + t = example[name] + if t.dtype == tf.int64: + t = tf.to_int32(t) + example[name] = t + + return example + +def main(_): + tf.logging.set_verbosity(tf.logging.INFO) + logger = tf.get_logger() + logger.propagate = False + + if not FLAGS.do_train and not FLAGS.do_eval: + raise ValueError("At least one of `do_train` or `do_eval` must be True.") + + hparams = model.default_hparams() + + with tf.gfile.GFile(FLAGS.config_file) as f: + hparams.override_from_dict(json.load(f)) + + tf.gfile.MakeDirs(FLAGS.output_dir) + input_files = [] + for input_pattern in FLAGS.input_file.split(","): + input_files.extend(tf.gfile.Glob(input_pattern)) + + # tf.logging.info("*** Input Files ***") + # for input_file in input_files: + # tf.logging.info(" %s" % input_file) + + tpu_cluster_resolver = None + if FLAGS.use_tpu and FLAGS.tpu_name: + tpu_cluster_resolver = tf.contrib.cluster_resolver.TPUClusterResolver( + FLAGS.tpu_name, zone=FLAGS.tpu_zone, project=FLAGS.gcp_project + ) + + is_per_host = tf.contrib.tpu.InputPipelineConfig.PER_HOST_V2 + run_config = tf.contrib.tpu.RunConfig( + cluster=tpu_cluster_resolver, + master=FLAGS.master, + model_dir=FLAGS.output_dir, + save_checkpoints_steps=FLAGS.save_checkpoints_steps, + keep_checkpoint_max=FLAGS.keep_checkpoint_max, + tpu_config=tf.contrib.tpu.TPUConfig( + iterations_per_loop=FLAGS.iterations_per_loop, + num_shards=FLAGS.num_tpu_cores, + per_host_input_for_training=is_per_host, + ), + ) + + model_fn = model_fn_builder( + hparams=hparams, + init_checkpoint=FLAGS.init_checkpoint, + learning_rate=FLAGS.learning_rate, + num_train_steps=FLAGS.num_train_steps, + num_warmup_steps=FLAGS.num_warmup_steps, + use_tpu=FLAGS.use_tpu, + optimizer=FLAGS.optimizer, + poly_power=FLAGS.poly_power, + start_warmup_step=FLAGS.start_warmup_step, + use_memory_saving_gradients=FLAGS.use_memory_saving_gradients + ) + + # If TPU is not available, this will fall back to normal Estimator on CPU + # or GPU. + estimator = tf.contrib.tpu.TPUEstimator( + use_tpu=FLAGS.use_tpu, + model_fn=model_fn, + config=run_config, + train_batch_size=FLAGS.batch_size, + eval_batch_size=FLAGS.eval_batch_size, + ) + + if FLAGS.do_train: + tf.logging.info("***** Running training *****") + tf.logging.info(" Batch size = %d", FLAGS.batch_size) + train_input_fn = input_fn_builder( + input_files=input_files, + max_seq_length=FLAGS.max_seq_length, + is_training=True, + ) + estimator.train(input_fn=train_input_fn, max_steps=FLAGS.num_train_steps) + + if FLAGS.do_eval: + tf.logging.info("***** Running evaluation *****") + tf.logging.info(" Batch size = %d", FLAGS.eval_batch_size) + + eval_input_fn = input_fn_builder( + input_files=input_files, + max_seq_length=FLAGS.max_seq_length, + is_training=False, + ) + result = estimator.evaluate(input_fn=eval_input_fn, steps=FLAGS.max_eval_steps) + + output_eval_file = os.path.join(FLAGS.output_dir, "eval_results.txt") + with tf.gfile.GFile(output_eval_file, "w") as writer: + tf.logging.info("***** Eval results *****") + for key in sorted(result.keys()): + tf.logging.info(" %s = %s", key, str(result[key])) + writer.write("%s = %s\n" % (key, str(result[key]))) + +if __name__ == "__main__": + flags.mark_flag_as_required("input_file") + flags.mark_flag_as_required("config_file") + flags.mark_flag_as_required("output_dir") + tf.app.run() \ No newline at end of file diff --git a/arabert/aragpt2/grover/__init__.py b/arabert/aragpt2/grover/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..e69de29bb2d1d6434b8b29ae775ad8c2e48c5391 diff --git a/arabert/aragpt2/grover/dataloader.py b/arabert/aragpt2/grover/dataloader.py new file mode 100644 index 0000000000000000000000000000000000000000..283cb85eec46f6958cb0e6fdfe92afc983fb550e --- /dev/null +++ b/arabert/aragpt2/grover/dataloader.py @@ -0,0 +1,161 @@ +# Original work Copyright 2018 The Google AI Language Team Authors. +# Modified work Copyright 2019 Rowan Zellers +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +import collections +import tensorflow as tf + + +def _decode_record(record, name_to_features): + """Decodes a record to a TensorFlow example.""" + example = tf.parse_single_example(record, name_to_features) + + # tf.Example only supports tf.int64, but the TPU only supports tf.int32. + # So cast all int64 to int32. + for name in list(example.keys()): + t = example[name] + if t.dtype == tf.int64: + t = tf.cast(t, tf.int32) + example[name] = t + return example + + +def input_fn_builder(input_files, + seq_length, + is_training, + num_cpu_threads=4, + evaluate_for_fixed_number_of_steps=True): + """Creates an `input_fn` closure to be passed to TPUEstimator.""" + + def input_fn(params): + """The actual input function.""" + batch_size = params["batch_size"] + name_to_features = { + "input_ids": tf.FixedLenFeature([seq_length + 1], tf.int64), + } + + # For training, we want a lot of parallel reading and shuffling. + # For eval, we want no shuffling and parallel reading doesn't matter. + if is_training: + d = tf.data.Dataset.from_tensor_slices(tf.constant(input_files)) + d = d.repeat() + d = d.shuffle(buffer_size=len(input_files)) + + # `cycle_length` is the number of parallel files that get read. + cycle_length = min(num_cpu_threads, len(input_files)) + + # `sloppy` mode means that the interleaving is not exact. This adds + # even more randomness to the training pipeline. + d = d.apply( + tf.data.experimental.parallel_interleave( + tf.data.TFRecordDataset, + sloppy=is_training, + cycle_length=cycle_length)) + d = d.shuffle(buffer_size=100) + else: + d = tf.data.TFRecordDataset(input_files) + # If we evaluate for a fixed number of steps we don't want to encounter + # out-of-range exceptions. + if evaluate_for_fixed_number_of_steps: + d = d.repeat() + + # We must `drop_remainder` on training because the TPU requires fixed + # size dimensions. For eval, we assume we are evaluating on the CPU or GPU + # and we *don't* want to drop the remainder, otherwise we wont cover + # every sample. + d = d.apply( + tf.data.experimental.map_and_batch( + lambda record: _decode_record(record, name_to_features), + batch_size=batch_size, + num_parallel_batches=num_cpu_threads, + drop_remainder=True)) + return d + + return input_fn + + +# ~~~~~~~~~~~~~~ This is for classification / AF ~~~~~~~~~~~~~~~~~~ +def classification_convert_examples_to_features( + examples, max_seq_length, batch_size, encoder, output_file, labels, pad_extra_examples=False, + chop_from_front_if_needed=True): + """Convert a set of `InputExample`s to a TFRecord file.""" + + writer = tf.python_io.TFRecordWriter(output_file) + + label_map = {label: i for i, label in enumerate(labels)} + + for (ex_index, example) in enumerate(examples): + if ex_index % 10000 == 0: + tf.logging.info("Writing example %d of %d" % (ex_index, len(examples))) + + # begin_summary is our [CLS] token + tokens = example['ids'] + [encoder.begin_summary] + + if len(tokens) > max_seq_length: + if chop_from_front_if_needed: + tokens = tokens[-max_seq_length:] + else: + tokens = example['ids'][:(max_seq_length-1)] + [encoder.begin_summary] + elif len(tokens) < max_seq_length: + tokens.extend([encoder.padding] * (max_seq_length - len(tokens))) + + features = collections.OrderedDict() + features['input_ids'] = tf.train.Feature(int64_list=tf.train.Int64List(value=tokens)) + features['label_ids'] = tf.train.Feature(int64_list=tf.train.Int64List(value=[label_map[example['label']]])) + features['is_real_example'] = tf.train.Feature(int64_list=tf.train.Int64List(value=[1])) + tf_example = tf.train.Example(features=tf.train.Features(feature=features)) + writer.write(tf_example.SerializeToString()) + + if pad_extra_examples: + for x in range(len(examples) % batch_size): + features = collections.OrderedDict() + features['input_ids'] = tf.train.Feature(int64_list=tf.train.Int64List(value=[0]*max_seq_length)) + features['label_ids'] = tf.train.Feature(int64_list=tf.train.Int64List(value=[0])) + features['is_real_example'] = tf.train.Feature(int64_list=tf.train.Int64List(value=[0])) + tf_example = tf.train.Example(features=tf.train.Features(feature=features)) + writer.write(tf_example.SerializeToString()) + writer.close() + + +def classification_input_fn_builder(input_file, seq_length, is_training, + drop_remainder, + buffer_size=100): + """Creates an `input_fn` closure to be passed to TPUEstimator.""" + + name_to_features = { + "input_ids": tf.FixedLenFeature([seq_length], tf.int64), + "label_ids": tf.FixedLenFeature([], tf.int64), + "is_real_example": tf.FixedLenFeature([], tf.int64), + } + + def input_fn(params): + """The actual input function.""" + batch_size = params["batch_size"] + + # For training, we want a lot of parallel reading and shuffling. + # For eval, we want no shuffling and parallel reading doesn't matter. + d = tf.data.TFRecordDataset(input_file) + if is_training: + d = d.repeat() + d = d.shuffle(buffer_size=buffer_size) + + d = d.apply( + tf.data.experimental.map_and_batch( + lambda record: _decode_record(record, name_to_features), + batch_size=batch_size, + drop_remainder=drop_remainder)) + + return d + + return input_fn diff --git a/arabert/aragpt2/grover/modeling.py b/arabert/aragpt2/grover/modeling.py new file mode 100644 index 0000000000000000000000000000000000000000..68676a728b7f7461f831ccf10d318c323831849f --- /dev/null +++ b/arabert/aragpt2/grover/modeling.py @@ -0,0 +1,803 @@ +# Original work Copyright 2018 The Google AI Language Team Authors. +# Modified work Copyright 2019 Rowan Zellers +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +import copy +import json +import math + +import six +import tensorflow as tf + +from grover import optimization_adafactor +from grover.utils import get_assignment_map_from_checkpoint, get_shape_list, get_attention_mask, gelu, layer_norm, dropout, \ + construct_scalar_host_call + +class GroverConfig(object): + """Configuration for `GroverModel`""" + + def __init__(self, + vocab_size, + hidden_size=768, + num_hidden_layers=12, + num_attention_heads=12, + intermediate_size=3072, + hidden_act="gelu", + hidden_dropout_prob=0.1, + attention_probs_dropout_prob=0.1, + max_position_embeddings=512, + initializer_range=0.02): + """Constructs NewsConfig. + + Args: + vocab_size: Vocabulary size of `inputs_ids` in `GroverModel`. + hidden_size: Size of the layers + num_hidden_layers: Number of hidden layers in the Transformer encoder. + num_attention_heads: Number of attention heads for each attention layer in + the Transformer encoder. + intermediate_size: The size of the "intermediate" (i.e., feed-forward) + layer in the Transformer encoder. + hidden_act: The non-linear activation function (function or string) in the + encoder and pooler. + hidden_dropout_prob: The dropout probability for all fully connected + layers in the embeddings, encoder, and pooler. + attention_probs_dropout_prob: The dropout ratio for the attention + probabilities. + max_position_embeddings: The maximum sequence length that this model might + ever be used with. Typically set this to something large just in case + (e.g., 512 or 1024 or 2048). + initializer_range: The stdev of the truncated_normal_initializer for + initializing all weight matrices. + """ + self.vocab_size = vocab_size + self.hidden_size = hidden_size + self.num_hidden_layers = num_hidden_layers + self.num_attention_heads = num_attention_heads + self.hidden_act = hidden_act + self.intermediate_size = intermediate_size + self.hidden_dropout_prob = hidden_dropout_prob + self.attention_probs_dropout_prob = attention_probs_dropout_prob + self.max_position_embeddings = max_position_embeddings + self.initializer_range = initializer_range + self.pad_token_id = 0 + + @classmethod + def from_dict(cls, json_object): + """Constructs a `NewsConfig` from a Python dictionary of parameters.""" + config = GroverConfig(vocab_size=None) + for (key, value) in six.iteritems(json_object): + config.__dict__[key] = value + return config + + @classmethod + def from_json_file(cls, json_file): + """Constructs a `NewsConfig` from a json file of parameters.""" + with tf.gfile.GFile(json_file, "r") as reader: + text = reader.read() + return cls.from_dict(json.loads(text)) + + def to_dict(self): + """Serializes this instance to a Python dictionary.""" + output = copy.deepcopy(self.__dict__) + return output + + def to_json_string(self): + """Serializes this instance to a JSON string.""" + return json.dumps(self.to_dict(), indent=2, sort_keys=True) + "\n" + + +def mask_attention_for_ltr(attention_scores, attention_mask): + """ + Mask attention so that we're only predicting going forward + :param attention_scores: [batch, heads, dst_sequence, src_sequence], where information flows from src to dst. + :param attention_mask [query_length, key_length] + :return: masked attention + """ + # Since attention_mask is 1.0 for positions we want to attend and 0.0 for + # masked positions, this operation will create a tensor which is 0.0 for + # positions we want to attend and -10000.0 for masked positions. + mask = attention_mask[None, None] + return attention_scores * mask - tf.cast(1e10, attention_scores.dtype) * (1 - mask) + + +def create_initializer(initializer_range=0.02): + """Creates a `truncated_normal_initializer` with the given range.""" + return tf.truncated_normal_initializer(stddev=initializer_range) + + +def _attention_projection_and_transpose(x_flat, batch_size, seq_length, num_attention_heads, size_per_head, + name, initializer_range=0.02): + """ + :param x_flat: [batch_size*seq_length, width] + :return: A fixed up tensor of size [batch_size, num_attention_heads, seq_length, size_per_head] + """ + batch_size_seq_length, dim = get_shape_list(x_flat, expected_rank=2) + + if dim != size_per_head * num_attention_heads: + raise ValueError("passed in a tensor of shape {} when size_per_head={} and num_attention_heads={}".format( + (batch_size_seq_length, dim), size_per_head, num_attention_heads + )) + + projected = tf.layers.dense( + x_flat, + num_attention_heads * size_per_head, + name=name, + kernel_initializer=create_initializer(initializer_range)) + + projected = tf.reshape( + projected, [batch_size, seq_length, num_attention_heads, size_per_head]) + output_tensor = tf.transpose(projected, [0, 2, 1, 3]) + return output_tensor + + +def attention_layer(x_flat, attention_mask, batch_size, seq_length, size_per_head=512, num_attention_heads=1, *, + cache=None, + initializer_range=0.02, hidden_dropout_prob=0.1, + attention_probs_dropout_prob=0.1, do_cache=False): + """ + + :param x_flat: Tensor input, should be [batch_size*seq_length, dim] + :param attention_mask: Attention mask to use of size [seq_length, seq_length+cached_length] + :param size_per_head: dim = size_per_head * num_attention_heads + :param num_attention_heads: dim = size_per_head * num_attention_heads + :param cache: Optionally some past (cached) things of size + [batch, 2, heads, sequence, features], where 2 is [k, v] + :param do_cache: True if we should return cache + :return: A new tensor of shape [batch_size, seq_length, dim] + as well as a new cache "cached_keys_and_values" that will be of size + [batch_size, 2, num_attention_heads, seq_length, dim] + """ + batch_size_seq_length, dim = get_shape_list(x_flat, expected_rank=2) + + if dim != size_per_head * num_attention_heads: + raise ValueError("passed in a tensor of shape {} when size_per_head={} and num_attention_heads={}".format( + (batch_size_seq_length, dim), size_per_head, num_attention_heads + )) + + query = _attention_projection_and_transpose(x_flat, batch_size=batch_size, seq_length=seq_length, + num_attention_heads=num_attention_heads, size_per_head=size_per_head, + name='query_layer', + initializer_range=initializer_range) + key = _attention_projection_and_transpose(x_flat, batch_size=batch_size, seq_length=seq_length, + num_attention_heads=num_attention_heads, size_per_head=size_per_head, + name='key_layer', + initializer_range=initializer_range) + + value = _attention_projection_and_transpose(x_flat, batch_size=batch_size, seq_length=seq_length, + num_attention_heads=num_attention_heads, size_per_head=size_per_head, + name='value_layer', + initializer_range=initializer_range) + + # Add to cache + cached_keys_and_values = tf.stack([key, value], axis=1) if do_cache else None + + # Things that were relevant from the cache + if cache is not None: + pk, pv = tf.unstack(cache, axis=1) + key = tf.concat([pk, key], axis=-2) + value = tf.concat([pv, value], axis=-2) + + # Multiply [batch_size, num_attention_heads, seq_length, size_per_head] with + # [batch_size, num_attention_heads, size_per_head, seq_length+cached_length] -> + # [batch_size, num_attention_heads, seq_length, seq_length+cached_length] + attention_scores = tf.matmul(query, key, transpose_b=True) + attention_scores = tf.multiply(attention_scores, + 1.0 / math.sqrt(float(size_per_head))) + attention_scores = mask_attention_for_ltr(attention_scores, attention_mask) + attention_probs = tf.nn.softmax(attention_scores) + + # This is actually dropping out entire tokens to attend to, which might + # seem a bit unusual, but is taken from the original Transformer paper. + # NOPENOPENOPENOPE + # attention_probs = factoreddropout(attention_probs, attention_probs_dropout_prob) + + # Multiply [batch_size, num_attention_heads, seq_length, seq_length+cached_length] with + # [batch_size, num_attention_heads, seq_length+cached_length, size_per_head] -> + # [batch_size, num_attention_heads, seq_length, size_per_head] -> + context_layer = tf.matmul(attention_probs, value) + + # `context_layer` = [batch_size, seq_length, num_attention_heads, size_per_head] + context_layer = tf.transpose(context_layer, [0, 2, 1, 3]) + context_layer = tf.reshape(context_layer, [batch_size * seq_length, num_attention_heads * size_per_head]) + + context_layer_projected = tf.layers.dense( + context_layer, + num_attention_heads * size_per_head, + kernel_initializer=create_initializer(initializer_range), + name='context_projection_layer' + ) + context_layer_projected = dropout(context_layer_projected, hidden_dropout_prob) + + return context_layer_projected, cached_keys_and_values + + +def residual_mlp_layer(x_flat, intermediate_size, initializer_range=0.02, hidden_dropout_prob=0.1): + """ + :param x: The attention output. It should be [batch_size*seq_length, dim] + :param intermediate_size: the hidden projection. By default this is the input_dim * 4. + + in the original GPT we would return layer_norm(x_norm + h1) rather than layer_norm(x + h1) + + :return: + """ + batch_size_seq_length, hidden_size = get_shape_list(x_flat, expected_rank=2) + x_norm = layer_norm(x_flat, name='mlp_ln0') + + intermediate_output = tf.layers.dense( + x_norm, + intermediate_size, + activation=gelu, + kernel_initializer=create_initializer(initializer_range), + name='intermediate', + ) + + output_for_residual = tf.layers.dense( + intermediate_output, + hidden_size, + name='output', + kernel_initializer=create_initializer(initializer_range)) + output_for_residual = dropout(output_for_residual, hidden_dropout_prob) + + layer_output = layer_norm(x_flat + output_for_residual, name='mlp_ln1') + return layer_output + + +def embed(input_ids, + vocab_size, + embedding_size, + position_offset=0, + initializer_range=0.02, + max_position_embeddings=512, + use_one_hot_embeddings=True): + """reur and position embeddings + :param input_ids: int Tensor of shape [batch_size, seq_length]. + :param vocab_size: number of words in vocab + :param embedding_size: dimensionality of the embedding + :param position_offset: aka number of cached tokens. + :param initializer_range: float. Range of the weight initialization. + :param max_position_embeddings: int. Maximum sequence length. + :param use_one_hot_embeddings: probably want this to be true + :return: [batch_size, seq_length, embedding_size] embedded tensor + """ + (batch_size, seq_length) = get_shape_list(input_ids, expected_rank=2) + + embedding_table = tf.get_variable( + name='word_embed', + shape=[vocab_size, embedding_size], + initializer=create_initializer(initializer_range), + ) + + assert_op = tf.assert_less_equal(tf.reduce_max(input_ids), vocab_size - 1) + with tf.control_dependencies([assert_op]): + if use_one_hot_embeddings: + flat_input_ids = tf.reshape(input_ids, [-1]) + one_hot_input_ids = tf.one_hot(flat_input_ids, depth=vocab_size) + output_flat = tf.matmul(one_hot_input_ids, embedding_table) + else: + output_flat = tf.nn.embedding_lookup(embedding_table, input_ids) + + embedded_input = tf.reshape(output_flat, [batch_size, seq_length, embedding_size]) + + assert_op = tf.assert_less_equal(seq_length, max_position_embeddings) + + with tf.control_dependencies([assert_op]): + full_position_embeddings = tf.get_variable( + name='pos_embed', + shape=[max_position_embeddings, embedding_size], + initializer=create_initializer(initializer_range), + ) + # Since the position embedding table is a learned variable, we create it + # using a (long) sequence length `max_position_embeddings`. The actual + # sequence length might be shorter than this, for faster training of + # tasks that do not have long sequences. + # + # So `full_position_embeddings` is effectively an embedding table + # for position [0, 1, 2, ..., max_position_embeddings-1], and the current + # sequence has positions [0, 1, 2, ... seq_length-1], so we can just + # perform a slice. + if position_offset == 0: + embedded_input += tf.slice(full_position_embeddings, [0, 0], [seq_length, -1])[None] + else: + # Tensorflow is too stupid to allow slicing + flat_pos_ids = (tf.range(seq_length, dtype=tf.int32) + position_offset) + one_hot_pos_ids = tf.one_hot(flat_pos_ids, depth=max_position_embeddings) + + # [seq_length, full_position_embeddings], [full_position_embeddings, dim] + seq_embeds = tf.matmul(one_hot_pos_ids, full_position_embeddings) + embedded_input += seq_embeds[None] + + # embedded_input += tf.slice(full_position_embeddings[position_offset:], [0, 0], [seq_length, -1])[None] + + return layer_norm(embedded_input, name='embed_norm'), embedding_table + + +def _top_p_sample(logits, ignore_ids=None, num_samples=1, p=0.9): + """ + Does top-p sampling. if ignore_ids is on, then we will zero out those logits. + :param logits: [batch_size, vocab_size] tensor + :param ignore_ids: [vocab_size] one-hot representation of the indices we'd like to ignore and never predict, + like padding maybe + :param p: topp threshold to use, either a float or a [batch_size] vector + :return: [batch_size, num_samples] samples + + # TODO FIGURE OUT HOW TO DO THIS ON TPUS. IT'S HELLA SLOW RIGHT NOW, DUE TO ARGSORT I THINK + """ + with tf.variable_scope('top_p_sample'): + batch_size, vocab_size = get_shape_list(logits, expected_rank=2) + + probs = tf.nn.softmax(logits if ignore_ids is None else logits - tf.cast(ignore_ids[None], tf.float32) * 1e10, + axis=-1) + + if isinstance(p, float) and p > 0.999999: + # Don't do top-p sampling in this case + print("Top-p sampling DISABLED", flush=True) + return { + 'probs': probs, + 'sample': tf.random.categorical( + logits=logits if ignore_ids is None else logits - tf.cast(ignore_ids[None], tf.float32) * 1e10, + num_samples=num_samples, dtype=tf.int32), + } + + # [batch_size, vocab_perm] + indices = tf.argsort(probs, direction='DESCENDING') + cumulative_probabilities = tf.math.cumsum(tf.batch_gather(probs, indices), axis=-1, exclusive=False) + + # find the top pth index to cut off. careful we don't want to cutoff everything! + # result will be [batch_size, vocab_perm] + p_expanded = p if isinstance(p, float) else p[:, None] + exclude_mask = tf.logical_not( + tf.logical_or(cumulative_probabilities < p_expanded, tf.range(vocab_size)[None] < 1)) + + # OPTION A - sample in the sorted space, then unsort. + logits_to_use = tf.batch_gather(logits, indices) - tf.cast(exclude_mask, tf.float32) * 1e10 + sample_perm = tf.random.categorical(logits=logits_to_use, num_samples=num_samples) + sample = tf.batch_gather(indices, sample_perm) + + # OPTION B - unsort first - Indices need to go back to 0 -> N-1 -- then sample + # unperm_indices = tf.argsort(indices, direction='ASCENDING') + # include_mask_unperm = tf.batch_gather(include_mask, unperm_indices) + # logits_to_use = logits - (1 - tf.cast(include_mask_unperm, tf.float32)) * 1e10 + # sample = tf.random.categorical(logits=logits_to_use, num_samples=num_samples, dtype=tf.int32) + + return { + 'probs': probs, + 'sample': sample, + } + + +def _top_k_sample(logits, ignore_ids=None, num_samples=1, k=10): + """ + Does top-k sampling. if ignore_ids is on, then we will zero out those logits. + :param logits: [batch_size, vocab_size] tensor + :param ignore_ids: [vocab_size] one-hot representation of the indices we'd like to ignore and never predict, + like padding maybe + :param p: topp threshold to use, either a float or a [batch_size] vector + :return: [batch_size, num_samples] samples + + # TODO FIGURE OUT HOW TO DO THIS ON TPUS. IT'S HELLA SLOW RIGHT NOW, DUE TO ARGSORT I THINK + """ + with tf.variable_scope('top_p_sample'): + batch_size, vocab_size = get_shape_list(logits, expected_rank=2) + + probs = tf.nn.softmax(logits if ignore_ids is None else logits - tf.cast(ignore_ids[None], tf.float32) * 1e10, + axis=-1) + # [batch_size, vocab_perm] + indices = tf.argsort(probs, direction='DESCENDING') + + # find the top pth index to cut off. careful we don't want to cutoff everything! + # result will be [batch_size, vocab_perm] + k_expanded = k if isinstance(k, int) else k[:, None] + exclude_mask = tf.range(vocab_size)[None] >= k_expanded + + # OPTION A - sample in the sorted space, then unsort. + logits_to_use = tf.batch_gather(logits, indices) - tf.cast(exclude_mask, tf.float32) * 1e10 + sample_perm = tf.random.categorical(logits=logits_to_use, num_samples=num_samples) + sample = tf.batch_gather(indices, sample_perm) + + return { + 'probs': probs, + 'sample': sample, + } + + +class GroverModel(object): + def __init__(self, + config: GroverConfig, + is_training, + input_ids, + cache=None, + do_cache=False, + pad_token_id=0, + chop_off_last_token=True, + scope=None, + reuse=False): + """ + :param config: + :param is_training: + :param input_ids: Tensor thats of size [batch_size, seq_length] + :param cache: Optionally, a tensor to use that will contain cached information of the size + [batch_size, num_layers, 2, num_heads, cache_length, features] + :param do_cache: Whether to cache again. + :param pad_token_id: Which token will be used for padding (probably 0.) + :param chop_off_last_token: True if we will end up using this for TRAINING only. False if we want to generate. + it means the last token in input_ids will not be processed by the model as input + :param scope: scope to run this on + """ + self.config = copy.deepcopy(config) + self.is_training = is_training + self.pad_token_id = pad_token_id + + if not is_training: + self.config.hidden_dropout_prob = 0.0 + self.config.attention_probs_dropout_prob = 0.0 + + if chop_off_last_token: + self.target_ids = input_ids[:, 1:] + self.input_ids = input_ids[:, :-1] + else: + self.input_ids = input_ids + self.target_ids = tf.concat((input_ids[:, 1:], + tf.constant(self.pad_token_id, dtype=self.input_ids.dtype, + shape=[get_shape_list(self.input_ids, 2)[0], 1])), 1) + + self.batch_size, self.seq_length = get_shape_list(self.input_ids, 2) + + if cache is None: + caches = [None] * config.num_hidden_layers + self.cache_length = 0 + else: + batch_size_, num_layers_, two_, num_heads_, self.cache_length, features_ = get_shape_list( + cache, expected_rank=6) + assert batch_size_ == self.batch_size + assert num_layers_ == config.num_hidden_layers + assert two_ == 2 + assert num_heads_ == config.num_attention_heads + assert features_ == (config.hidden_size // config.num_attention_heads) + caches = tf.unstack(cache, axis=1) + + with tf.variable_scope(scope, default_name='newslm', reuse=reuse): + with tf.variable_scope("embeddings"): + embeddings, self.embedding_table = embed(self.input_ids, config.vocab_size, + config.hidden_size, + position_offset=self.cache_length, + initializer_range=config.initializer_range, + max_position_embeddings=config.max_position_embeddings, + use_one_hot_embeddings=True) + + mask = get_attention_mask(self.seq_length, self.seq_length + self.cache_length, dtype=embeddings.dtype) + + # We keep the representation as a 2D tensor to avoid re-shaping it back and + # forth from a 3D tensor to a 2D tensor. Re-shapes are normally free on + # the GPU/CPU but may not be free on the TPU, so we want to minimize them to + # help the optimizer. + hidden_state = tf.reshape(embeddings, [self.batch_size * self.seq_length, self.config.hidden_size]) + new_kvs = [] + for layer_idx, layer_cache in enumerate(caches): + with tf.variable_scope('layer{:02d}'.format(layer_idx)): + # [batch_size * seq_length, hidden_size] + attention_output, new_kv = attention_layer( + hidden_state, + mask, + batch_size=self.batch_size, + seq_length=self.seq_length, + size_per_head=config.hidden_size // config.num_attention_heads, + num_attention_heads=config.num_attention_heads, + initializer_range=config.initializer_range, + hidden_dropout_prob=self.config.hidden_dropout_prob, + attention_probs_dropout_prob=self.config.attention_probs_dropout_prob, + do_cache=do_cache, + cache=layer_cache, + ) + new_kvs.append(new_kv) + + # [batch_size * seq_length, hidden_size] + hidden_state = residual_mlp_layer(hidden_state + attention_output, + intermediate_size=config.intermediate_size, + hidden_dropout_prob=self.config.hidden_dropout_prob) + self.hidden_state = hidden_state + + self.new_kvs = tf.stack(new_kvs, axis=1) if do_cache else None + + # Note that the hidden state is still flat (batch_size*hidden_size) + self.logits_flat = tf.matmul(self.hidden_state, self.embedding_table, transpose_b=True) + + # THE OUTPUT BIAS DOES NOT SPARK JOY + # output_bias = tf.get_variable('output_bias', shape=[config.vocab_size], initializer=tf.zeros_initializer()) + # self.logits_flat = tf.nn.bias_add(self.logits_flat, output_bias) + + @property + def log_probs(self): + logprobs_flat = tf.nn.log_softmax(self.logits_flat, axis=-1) + return tf.reshape(logprobs_flat, [self.batch_size, self.seq_length, -1]) + + def lm_loss(self): + """ + :return: stuff + """ + target_ids_flat = tf.reshape(self.target_ids, [-1]) + + # 1 if it's valid and 0 otherwise. + label_weights = tf.cast(tf.not_equal(target_ids_flat, self.pad_token_id), dtype=self.logits_flat.dtype) + + # [batch_size * seq_length, vocab_size] + one_hot_labels = tf.one_hot(target_ids_flat, + depth=self.config.vocab_size, + dtype=self.logits_flat.dtype) + + # [batch_size * seq_length, vocab_size] + logprobs_flat = tf.nn.log_softmax(self.logits_flat, axis=-1) + + per_example_loss = -tf.reduce_sum(logprobs_flat * one_hot_labels, axis=[-1]) + + # per_example_loss = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=self.logits_flat, labels=target_ids_flat) + + numerator = tf.reduce_sum(label_weights * per_example_loss) + denominator = tf.reduce_sum(label_weights) + 1e-5 + loss = numerator / denominator + return loss + + def pooled_output(self, clf_token): + """ + Extract pooled output given a token that says where we should look + :param clf_token: + :return: + """ + pool_idx = tf.cast(tf.argmax(tf.cast(tf.equal(self.input_ids, clf_token), tf.float32), 1), tf.int32) + return tf.gather(self.hidden_state, tf.range(self.batch_size, dtype=tf.int32) * self.seq_length + pool_idx) + + +def model_fn_builder(config: GroverConfig, init_checkpoint, learning_rate, + num_train_steps, num_warmup_steps, use_tpu, num_tpu_cores=8 , eval_batch_size=1): + """Returns `model_fn` closure for TPUEstimator.""" + + def model_fn(features, labels, mode, params): # pylint: disable=unused-argument + """The `model_fn` for TPUEstimator.""" + + tf.logging.info("*** Features ***") + for name in sorted(features.keys()): + tf.logging.info(" name = %s, shape = %s" % (name, features[name].shape)) + + input_ids = features["input_ids"] + + is_training = (mode == tf.estimator.ModeKeys.TRAIN) + + model = GroverModel( + config=config, + is_training=is_training, + input_ids=input_ids, + pad_token_id=config.pad_token_id, + chop_off_last_token=True, + ) + + total_loss = model.lm_loss() + + if is_training: + train_op, train_metrics = optimization_adafactor.create_optimizer( + total_loss, learning_rate, num_train_steps, num_warmup_steps, use_tpu) + tvars = tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES) + else: + train_op = None + train_metrics = {} + tvars = tf.trainable_variables() + + initialized_variable_names = {} + scaffold_fn = None + if init_checkpoint: + (assignment_map, initialized_variable_names + ) = get_assignment_map_from_checkpoint(tvars, init_checkpoint) + if use_tpu: + def tpu_scaffold(): + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + return tf.train.Scaffold() + + scaffold_fn = tpu_scaffold + else: + tf.train.init_from_checkpoint(init_checkpoint, assignment_map) + + tf.logging.info("**** Trainable Variables ****") + for var in tvars: + init_string = "" + if var.name in initialized_variable_names: + init_string = ", *INIT_FROM_CKPT*" + tf.logging.info(" name = %s, shape = %s%s", var.name, var.shape, + init_string) + + output_spec = None + if mode == tf.estimator.ModeKeys.TRAIN: + if use_tpu: + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, + loss=total_loss, + train_op=train_op, + host_call=construct_scalar_host_call(metric_dict=train_metrics, model_dir=params['model_dir'], + prefix='training/'), + scaffold_fn=scaffold_fn) + else: + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, + loss=total_loss, + train_op=train_op, + training_hooks=[ + tf.train.LoggingTensorHook({'loss': tf.metrics.mean(total_loss)[1]}, every_n_iter=100)], + scaffold_fn=scaffold_fn) + + elif mode == tf.estimator.ModeKeys.EVAL: + def metric_fn(loss): + """Evaluation metric Fn which runs on CPU.""" + perplexity = tf.exp(tf.reduce_mean(loss)) + bpc = tf.reduce_mean(loss) / tf.constant(math.log(2)) + return { + "perplexity": tf.metrics.mean(perplexity), + "bpc": tf.metrics.mean(bpc), + } + + if use_tpu: + with tf.colocate_with(total_loss): + total_loss = tf.contrib.tpu.cross_replica_sum(total_loss) \ + / num_tpu_cores + metric_loss = tf.tile(tf.reshape(total_loss, [1, 1]), [eval_batch_size, 1]) + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, + loss=total_loss, + eval_metrics=(metric_fn, [metric_loss]), + scaffold_fn=scaffold_fn) + else: + gt_logprobs = tf.squeeze(tf.batch_gather(model.log_probs, model.target_ids[:, :, None]), axis=2) + + # Need top-p required under topp sampling! + better_than_gt = model.log_probs > gt_logprobs[:, :, None] + top_p_required = tf.reduce_sum(tf.cast(better_than_gt, tf.float32) * tf.exp(model.log_probs), axis=2) + + # No top-p sampling for now, since this seems to be too slow on TPUs + if use_tpu: + predictions = tf.reshape( + tf.random.categorical(logits=model.logits_flat, num_samples=1), + get_shape_list(model.target_ids), + ) + else: + # Argmax + # predictions = tf.math.argmax(model.log_probs, axis=-1, output_type=tf.int32) + predictions = tf.reshape( + _top_p_sample(model.logits_flat, num_samples=1, p=0.99)['sample'], + get_shape_list(model.target_ids), + ) + pred_logprobs = tf.squeeze(tf.batch_gather(model.log_probs, predictions[:, :, None]), axis=2) + + output_spec = tf.contrib.tpu.TPUEstimatorSpec( + mode=mode, + predictions={'gt_logprobs': gt_logprobs, + 'top_p_required': top_p_required, + 'predictions': predictions, + 'pred_logprobs': pred_logprobs, + 'labels': input_ids}, + scaffold_fn=scaffold_fn) + return output_spec + + return model_fn + + +def sample_step(tokens, ignore_ids, news_config, batch_size=1, p_for_topp=0.95, cache=None, do_topk=False): + """ + Helper function that samples from grover for a single step + :param tokens: [batch_size, n_ctx_b] tokens that we will predict from + :param ignore_ids: [n_vocab] mask of the tokens we don't want to predict + :param news_config: config for the GroverModel + :param batch_size: batch size to use + :param p_for_topp: top-p or top-k threshold + :param cache: [batch_size, news_config.num_hidden_layers, 2, + news_config.num_attention_heads, n_ctx_a, + news_config.hidden_size // news_config.num_attention_heads] OR, None + :return: new_tokens, size [batch_size] + new_probs, also size [batch_size] + new_cache, size [batch_size, news_config.num_hidden_layers, 2, n_ctx_b, + news_config.num_attention_heads, news_config.hidden_size // news_config.num_attention_heads] + """ + model = GroverModel( + config=news_config, + is_training=False, + input_ids=tokens, + reuse=tf.AUTO_REUSE, + scope='newslm', + chop_off_last_token=False, + do_cache=True, + cache=cache, + ) + + # Extract the FINAL SEQ LENGTH + batch_size_times_seq_length, vocab_size = get_shape_list(model.logits_flat, expected_rank=2) + next_logits = tf.reshape(model.logits_flat, [batch_size, -1, vocab_size])[:, -1] + + if do_topk: + sample_info = _top_k_sample(next_logits, num_samples=1, k=tf.cast(p_for_topp, dtype=tf.int32)) + else: + sample_info = _top_p_sample(next_logits, ignore_ids=ignore_ids, num_samples=1, p=p_for_topp) + + new_tokens = tf.squeeze(sample_info['sample'], 1) + new_probs = tf.squeeze(tf.batch_gather(sample_info['probs'], sample_info['sample']), 1) + return { + 'new_tokens': new_tokens, + 'new_probs': new_probs, + 'new_cache': model.new_kvs, + } + + +def initialize_from_context(initial_context, ignore_ids, news_config, p_for_topp=0.95, do_topk=False): + """ same signature as sample_step""" + batch_size, _ = get_shape_list(initial_context, expected_rank=2) + + context_output = sample_step(tokens=initial_context, ignore_ids=ignore_ids, news_config=news_config, + batch_size=batch_size, p_for_topp=p_for_topp, cache=None, do_topk=do_topk) + return { + 'tokens': tf.concat([initial_context, context_output['new_tokens'][:, None]], 1), + 'cache': context_output['new_cache'], + 'probs': context_output['new_probs'][:, None] + } + + +def sample(news_config: GroverConfig, initial_context, eos_token, min_len, ignore_ids=None, p_for_topp=0.95, + do_topk=False): + """ + V1 version of: sample outputs from a model, and do it all at once + :param news_config: Configuration used to construct the model + :param initial_context: [batch_size, seq_length] that we'll start generating with + :param eos_token: Stop generating if you see this (tf scalar) + :param min_len: min length of sample + :param ignore_ids: NEVER GENERATE THESE [vocab_size] + :return: + """ + batch_size, _ = get_shape_list(initial_context, expected_rank=2) + + if ignore_ids is None: + ignore_ids = tf.constant([x == 0 for x in range(news_config.vocab_size)], dtype=tf.bool) + + with tf.name_scope('sample_sequence'): + # Initial call to get cache + context_output = initialize_from_context(initial_context, ignore_ids=ignore_ids, news_config=news_config, + p_for_topp=p_for_topp, + do_topk=do_topk) + ctx = context_output['tokens'] + cache = context_output['cache'] + probs = context_output['probs'] + + def body(ctx, cache, probs): + """ for whatever reason this didn't work when I ran it on more than one at once... ugh.""" + next_outputs = sample_step(ctx[:, -1][:, None], ignore_ids=ignore_ids, news_config=news_config, + batch_size=batch_size, p_for_topp=p_for_topp, cache=cache, + do_topk=do_topk) + + # Update everything + new_cache = tf.concat([cache, next_outputs['new_cache']], axis=-2) + new_ids = tf.concat([ctx, next_outputs['new_tokens'][:, None]], axis=1) + new_probs = tf.concat([probs, next_outputs['new_probs'][:, None]], axis=1) + return [new_ids, new_cache, new_probs] + + def cond(ctx, cache, probs): + # ctx = tf.Print(ctx,[tf.shape(ctx)]) + is_eos = tf.reduce_all(tf.reduce_any(tf.equal(ctx[:,-1:], eos_token), axis=1)) + is_len = tf.greater(get_shape_list(ctx)[1], min_len) + return tf.logical_not(tf.logical_and(is_eos, is_len)) + + tokens, cache, probs = tf.while_loop( + cond=cond, body=body, maximum_iterations=1025 - get_shape_list(ctx)[1], + loop_vars=[ctx, cache, probs], + shape_invariants=[tf.TensorShape([batch_size, None]), + tf.TensorShape( + [batch_size, news_config.num_hidden_layers, 2, + news_config.num_attention_heads, + None, news_config.hidden_size // news_config.num_attention_heads]), + tf.TensorShape([batch_size, None]), + ], + back_prop=False, + ) + return tokens, probs diff --git a/arabert/aragpt2/grover/modeling_gpt2.py b/arabert/aragpt2/grover/modeling_gpt2.py new file mode 100644 index 0000000000000000000000000000000000000000..9790cee3c09e797d8231042a23c4becda04e8e31 --- /dev/null +++ b/arabert/aragpt2/grover/modeling_gpt2.py @@ -0,0 +1,1196 @@ +# coding=utf-8 +# Copyright 2018 The OpenAI Team Authors and HuggingFace Inc. team. +# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +""" +PyTorch OpenAI GPT-2 model. +Adapted from https://github.com/huggingface/transformers/blob/v4.0.1/src/transformers/models/gpt2/modeling_gpt2.py +and https://github.com/ghosthamlet/gpt2-ml-torch/blob/master/gpt2_ml_torch/modeling_gpt2.py +""" + + +import logging +import os + +from dataclasses import dataclass +from typing import List, Optional, Tuple + +import torch +import torch.nn as nn +from torch.nn import CrossEntropyLoss, MSELoss + + + +from transformers.activations import ACT2FN +from transformers import GPT2Config + +from transformers.modeling_utils import ( + Conv1D, + PreTrainedModel, + SequenceSummary, + prune_conv1d_layer, + find_pruneable_heads_and_indices +) + +from transformers import CONFIG_NAME, WEIGHTS_NAME, GPT2Config, GPT2Model + +from transformers.modeling_outputs import ( + BaseModelOutputWithPastAndCrossAttentions, + CausalLMOutputWithCrossAttentions, + SequenceClassifierOutputWithPast +) + +from transformers.file_utils import ( + ModelOutput, + add_start_docstrings, + add_start_docstrings_to_model_forward, + add_code_sample_docstrings, + replace_return_docstrings +) + +# THe Difference from Transformers is code under _USE_GROVER +_USE_GROVER = True + +logger = logging.getLogger(__name__) + +_CONFIG_FOR_DOC = "GPT2Config" +_TOKENIZER_FOR_DOC = "GPT2Tokenizer" + +GPT2_PRETRAINED_MODEL_ARCHIVE_LIST = [ + "gpt2", + "gpt2-medium", + "gpt2-large", + "gpt2-xl", + "distilgpt2", + # See all GPT-2 models at https://huggingface.co/models?filter=gpt2 +] + +logger.setLevel(logging.INFO) +console = logging.StreamHandler() +console.setLevel(logging.INFO) +logger.addHandler(console) + +_GPT2_ML_TF_TO_TORCH = { + 'LayerNorm_embed_norm': 'emb_norm', + 'pos_embed': 'wpe.weight', + 'word_embed': 'wte.weight', + + 'layer': 'h', + # Most importently This two layer norm must be put on the same position as gpt2-ml + # or generated data is bad, just repeat the last token + 'LayerNorm_mlp_ln0': 'ln_1', + 'LayerNorm_mlp_ln1': 'ln_2', + 'intermediate': 'mlp.c_fc', + 'output': 'mlp.c_proj', + 'query_layer': 'attn.c_attn', + 'key_layer': 'attn.c_attn', + 'value_layer': 'attn.c_attn', + 'context_projection_layer': 'attn.c_proj', + + 'gamma': 'weight', + 'kernel': 'weight', + 'beta': 'bias', + 'bias': 'bias', +} + + +def convert_gpt2_checkpoint_to_pytorch(gpt2_checkpoint_path, gpt2_config_file, pytorch_dump_folder_path): + # Construct model + if gpt2_config_file == "": + config = GPT2Config() + else: + config = GPT2Config.from_json_file(gpt2_config_file) + model = GPT2Model(config) + + # Load weights from numpy + load_tf_weights_in_gpt2(model, config, gpt2_checkpoint_path) + + # Save pytorch-model + pytorch_weights_dump_path = pytorch_dump_folder_path + "/" + WEIGHTS_NAME + pytorch_config_dump_path = pytorch_dump_folder_path + "/" + CONFIG_NAME + print("Save PyTorch model to {}".format(pytorch_weights_dump_path)) + torch.save(model.state_dict(), pytorch_weights_dump_path) + print("Save configuration file to {}".format(pytorch_config_dump_path)) + with open(pytorch_config_dump_path, "w", encoding="utf-8") as f: + f.write(config.to_json_string()) + + +# XXX: MUST do like: convert_gpt2_checkpoint_to_pytorch('./model.ckpt-100000', './mega.json', './') +# https://github.com/tensorflow/models/issues/2675#issuecomment-516595597 +def load_tf_weights_in_gpt2(model, config, gpt2_checkpoint_path): + """ Load tf checkpoints in a pytorch model + """ + try: + import re + import tensorflow as tf + except ImportError: + logger.error( + "Loading a TensorFlow model in PyTorch, requires TensorFlow to be installed. Please see " + "https://www.tensorflow.org/install/ for installation instructions." + ) + raise + tf_path = os.path.abspath(gpt2_checkpoint_path) + logger.info("Converting TensorFlow checkpoint from {}".format(tf_path)) + # Load weights from TF model + init_vars = tf.train.list_variables(tf_path) + names = [] + arrays = [] + for name, shape in init_vars: + logger.info("Loading TF weight {} with shape {}".format(name, shape)) + array = tf.train.load_variable(tf_path, name) + names.append(name) + arrays.append(array.squeeze()) + + import copy + orig_model = copy.deepcopy(model) + + for name, array in zip(names, arrays): + name = name[6:] # skip "model/" + name = name.split("/") + pointer = model + + attn_layer = '' + for m_name in name: + if re.fullmatch(r"[A-Za-z]+\d+", m_name): + scope_names = re.split(r"(\d+)", m_name) + else: + scope_names = [m_name] + sname = scope_names[0] + + if sname == '' or sname == 'embeddings': + continue + elif sname not in _GPT2_ML_TF_TO_TORCH: + print('=========================================================') + logger.info('Skip var name {}'.format(scope_names)) + pointer = None + break + else: + tname = _GPT2_ML_TF_TO_TORCH[sname] + if '.' in tname: + parent, child = tname.split('.') + pointer = getattr(pointer, parent) + pointer = getattr(pointer, child) + else: + pointer = getattr(pointer, tname) + + if tname == 'attn.c_attn': + attn_layer = sname + + if len(scope_names) >= 2: + num = int(scope_names[1]) + pointer = pointer[num] + + if pointer is None: + continue + if attn_layer == '': + try: + assert pointer.shape == array.shape + except AssertionError as e: + e.args += (pointer.shape, array.shape) + raise + logger.info("Initialize PyTorch weight {}, {}, {}".format(name, array.mean(), pointer.mean())) + if attn_layer == '': + pointer.data = torch.from_numpy(array) + else: + shape = pointer.shape + d = torch.from_numpy(array) + is_bias = len(shape) == 1 + end = int(shape[0 if is_bias else 1]/3) + m = dict( + query_layer=0, + key_layer=end, + value_layer=end*2, + ) + start = m[attn_layer] + end = start + end + if is_bias: + pointer.data[start:end] = d + else: + pointer.data[:, start:end] = d + logger.info("Initialize PyTorch weight {}, {}, {}".format(name, array.mean(), pointer.mean())) + + for name, params in orig_model.named_parameters(): + for n, p in model.named_parameters(): + if name == n: + if params.equal(p): + print('--------------------------') + print(' %s not changed!' % n) + return model + + +class Attention(nn.Module): + def __init__(self, nx, n_ctx, config, scale=False, is_cross_attention=False): + super().__init__() + + n_state = nx # in Attention: n_state=768 (nx=n_embd) + # [switch nx => n_state from Block to Attention to keep identical to TF implem] + assert n_state % config.n_head == 0 + self.register_buffer( + "bias", torch.tril(torch.ones((n_ctx, n_ctx), dtype=torch.uint8)).view(1, 1, n_ctx, n_ctx) + ) + self.register_buffer("masked_bias", torch.tensor(-1e4)) + self.n_head = config.n_head + self.split_size = n_state + self.scale = scale + self.is_cross_attention = is_cross_attention + if self.is_cross_attention: + self.c_attn = Conv1D(2 * n_state, nx) + self.q_attn = Conv1D(n_state, nx) + else: + self.c_attn = Conv1D(3 * n_state, nx) + self.c_proj = Conv1D(n_state, nx) + self.attn_dropout = nn.Dropout(config.attn_pdrop) + self.resid_dropout = nn.Dropout(config.resid_pdrop) + self.pruned_heads = set() + + def prune_heads(self, heads): + if len(heads) == 0: + return + heads, index = find_pruneable_heads_and_indices( + heads, self.n_head, self.split_size // self.n_head, self.pruned_heads + ) + index_attn = torch.cat([index, index + self.split_size, index + (2 * self.split_size)]) + + # Prune conv1d layers + self.c_attn = prune_conv1d_layer(self.c_attn, index_attn, dim=1) + self.c_proj = prune_conv1d_layer(self.c_proj, index, dim=0) + + # Update hyper params + self.split_size = (self.split_size // self.n_head) * (self.n_head - len(heads)) + self.n_head = self.n_head - len(heads) + self.pruned_heads = self.pruned_heads.union(heads) + + def _attn(self, q, k, v, attention_mask=None, head_mask=None, output_attentions=False): + w = torch.matmul(q, k) + if self.scale: + w = w / (float(v.size(-1)) ** 0.5) + nd, ns = w.size(-2), w.size(-1) + + if not self.is_cross_attention: + # if only "normal" attention layer implements causal mask + mask = self.bias[:, :, ns - nd : ns, :ns] + w = torch.where(mask.bool(), w, self.masked_bias.to(w.dtype)) + + if attention_mask is not None: + # Apply the attention mask + w = w + attention_mask + + w = nn.Softmax(dim=-1)(w) + w = self.attn_dropout(w) + + # Mask heads if we want to + if head_mask is not None: + w = w * head_mask + + outputs = [torch.matmul(w, v)] + if output_attentions: + outputs.append(w) + return outputs + + def merge_heads(self, x): + x = x.permute(0, 2, 1, 3).contiguous() + new_x_shape = x.size()[:-2] + (x.size(-2) * x.size(-1),) + return x.view(*new_x_shape) # in Tensorflow implem: fct merge_states + + def split_heads(self, x, k=False): + new_x_shape = x.size()[:-1] + (self.n_head, x.size(-1) // self.n_head) + x = x.view(*new_x_shape) # in Tensorflow implem: fct split_states + if k: + return x.permute(0, 2, 3, 1) # (batch, head, head_features, seq_length) + else: + return x.permute(0, 2, 1, 3) # (batch, head, seq_length, head_features) + + def forward( + self, + hidden_states, + layer_past=None, + attention_mask=None, + head_mask=None, + encoder_hidden_states=None, + encoder_attention_mask=None, + use_cache=False, + output_attentions=False, + ): + if encoder_hidden_states is not None: + assert hasattr( + self, "q_attn" + ), "If class is used as cross attention, the weights `q_attn` have to be defined. Please make sure to instantiate class with `Attention(..., is_cross_attention=True)`." + query = self.q_attn(hidden_states) + key, value = self.c_attn(encoder_hidden_states).split(self.split_size, dim=2) + attention_mask = encoder_attention_mask + else: + query, key, value = self.c_attn(hidden_states).split(self.split_size, dim=2) + + query = self.split_heads(query) + key = self.split_heads(key, k=True) + value = self.split_heads(value) + if layer_past is not None: + past_key, past_value = layer_past[0].transpose(-2, -1), layer_past[1] # transpose back cf below + key = torch.cat((past_key, key), dim=-1) + value = torch.cat((past_value, value), dim=-2) + + if use_cache is True: + present = torch.stack((key.transpose(-2, -1), value)) # transpose to have same shapes for stacking + else: + present = (None,) + + attn_outputs = self._attn(query, key, value, attention_mask, head_mask, output_attentions) + a = attn_outputs[0] + + a = self.merge_heads(a) + a = self.c_proj(a) + a = self.resid_dropout(a) + + outputs = [a, present] + attn_outputs[1:] + return outputs # a, present, (attentions) + + +class MLP(nn.Module): + def __init__(self, n_state, config): # in MLP: n_state=3072 (4 * n_embd) + super().__init__() + nx = config.n_embd + self.c_fc = Conv1D(n_state, nx) + self.c_proj = Conv1D(nx, n_state) + self.act = ACT2FN[config.activation_function] + self.dropout = nn.Dropout(config.resid_pdrop) + + def forward(self, x): + h = self.act(self.c_fc(x)) + h2 = self.c_proj(h) + return self.dropout(h2) + + +class Block(nn.Module): + def __init__(self, n_ctx, config, scale=False): + super().__init__() + hidden_size = config.n_embd + inner_dim = config.n_inner if config.n_inner is not None else 4 * hidden_size + self.ln_1 = nn.LayerNorm(hidden_size, eps=config.layer_norm_epsilon) + self.attn = Attention(hidden_size, n_ctx, config, scale) + self.ln_2 = nn.LayerNorm(hidden_size, eps=config.layer_norm_epsilon) + if config.add_cross_attention: + self.crossattention = Attention(hidden_size, n_ctx, config, scale, is_cross_attention=True) + self.ln_cross_attn = nn.LayerNorm(hidden_size, eps=config.layer_norm_epsilon) + self.mlp = MLP(inner_dim, config) + + def forward( + self, + hidden_states, + layer_past=None, + attention_mask=None, + head_mask=None, + encoder_hidden_states=None, + encoder_attention_mask=None, + use_cache=False, + output_attentions=False, + ): + attn_outputs = self.attn( + hidden_states, + layer_past=layer_past, + attention_mask=attention_mask, + head_mask=head_mask, + use_cache=use_cache, + output_attentions=output_attentions, + ) + attn_output = attn_outputs[0] # output_attn: a, present, (attentions) + outputs = attn_outputs[1:] + # residual connection + hidden_states = attn_output + hidden_states + + if encoder_hidden_states is not None: + # add one self-attention block for cross-attention + assert hasattr( + self, "crossattention" + ), f"If `encoder_hidden_states` are passed, {self} has to be instantiated with cross-attention layers by setting `config.add_cross_attention=True`" + cross_attn_outputs = self.crossattention( + self.ln_cross_attn(hidden_states), + attention_mask=attention_mask, + head_mask=head_mask, + encoder_hidden_states=encoder_hidden_states, + encoder_attention_mask=encoder_attention_mask, + output_attentions=output_attentions, + ) + attn_output = cross_attn_outputs[0] + # residual connection + hidden_states = hidden_states + attn_output + outputs = outputs + cross_attn_outputs[2:] # add cross attentions if we output attention weights + + feed_forward_hidden_states = self.mlp(self.ln_1(hidden_states)) + # residual connection + hidden_states = hidden_states + feed_forward_hidden_states + + hidden_states = self.ln_2(hidden_states) + + outputs = [hidden_states] + outputs + return outputs # hidden_states, present, (attentions, cross_attentions) + + +class GPT2PreTrainedModel(PreTrainedModel): + """ + An abstract class to handle weights initialization and a simple interface for downloading and loading pretrained + models. + """ + + config_class = GPT2Config + load_tf_weights = load_tf_weights_in_gpt2 + base_model_prefix = "transformer" + + def __init__(self, *inputs, **kwargs): + super().__init__(*inputs, **kwargs) + + def _init_weights(self, module): + """Initialize the weights.""" + if isinstance(module, (nn.Linear, nn.Embedding, Conv1D)): + # Slightly different from the TF version which uses truncated_normal for initialization + # cf https://github.com/pytorch/pytorch/pull/5617 + module.weight.data.normal_(mean=0.0, std=self.config.initializer_range) + if isinstance(module, (nn.Linear, Conv1D)) and module.bias is not None: + module.bias.data.zero_() + elif isinstance(module, nn.LayerNorm): + module.bias.data.zero_() + module.weight.data.fill_(1.0) + + +@dataclass +class GPT2DoubleHeadsModelOutput(ModelOutput): + """ + Base class for outputs of models predicting if two sentences are consecutive or not. + + Args: + loss (:obj:`torch.FloatTensor` of shape :obj:`(1,)`, `optional`, returned when ``labels`` is provided): + Language modeling loss. + mc_loss (:obj:`torch.FloatTensor` of shape :obj:`(1,)`, `optional`, returned when :obj:`mc_labels` is provided): + Multiple choice classification loss. + logits (:obj:`torch.FloatTensor` of shape :obj:`(batch_size, num_choices, sequence_length, config.vocab_size)`): + Prediction scores of the language modeling head (scores for each vocabulary token before SoftMax). + mc_logits (:obj:`torch.FloatTensor` of shape :obj:`(batch_size, num_choices)`): + Prediction scores of the multiple choice classification head (scores for each choice before SoftMax). + past_key_values (:obj:`List[torch.FloatTensor]`, `optional`, returned when ``use_cache=True`` is passed or when ``config.use_cache=True``): + List of :obj:`torch.FloatTensor` of length :obj:`config.n_layers`, with each tensor of shape :obj:`(2, + batch_size, num_heads, sequence_length, embed_size_per_head)`). + + Contains pre-computed hidden-states (key and values in the attention blocks) that can be used (see + :obj:`past_key_values` input) to speed up sequential decoding. + hidden_states (:obj:`tuple(torch.FloatTensor)`, `optional`, returned when ``output_hidden_states=True`` is passed or when ``config.output_hidden_states=True``): + Tuple of :obj:`torch.FloatTensor` (one for the output of the embeddings + one for the output of each layer) + of shape :obj:`(batch_size, sequence_length, hidden_size)`. + + Hidden-states of the model at the output of each layer plus the initial embedding outputs. + attentions (:obj:`tuple(torch.FloatTensor)`, `optional`, returned when ``output_attentions=True`` is passed or when ``config.output_attentions=True``): + Tuple of :obj:`torch.FloatTensor` (one for each layer) of shape :obj:`(batch_size, num_heads, + sequence_length, sequence_length)`. + + Attentions weights after the attention softmax, used to compute the weighted average in the self-attention + heads. + """ + + loss: Optional[torch.FloatTensor] = None + mc_loss: Optional[torch.FloatTensor] = None + logits: torch.FloatTensor = None + mc_logits: torch.FloatTensor = None + past_key_values: Optional[List[torch.FloatTensor]] = None + hidden_states: Optional[Tuple[torch.FloatTensor]] = None + attentions: Optional[Tuple[torch.FloatTensor]] = None + + +GPT2_START_DOCSTRING = r""" + + This model inherits from :class:`~transformers.PreTrainedModel`. Check the superclass documentation for the generic + methods the library implements for all its model (such as downloading or saving, resizing the input embeddings, + pruning heads etc.) + + This model is also a PyTorch `torch.nn.Module `__ + subclass. Use it as a regular PyTorch Module and refer to the PyTorch documentation for all matter related to + general usage and behavior. + + Parameters: + config (:class:`~transformers.GPT2Config`): Model configuration class with all the parameters of the model. + Initializing with a config file does not load the weights associated with the model, only the + configuration. Check out the :meth:`~transformers.PreTrainedModel.from_pretrained` method to load the model + weights. +""" + +GPT2_INPUTS_DOCSTRING = r""" + Args: + input_ids (:obj:`torch.LongTensor` of shape :obj:`(batch_size, input_ids_length)`): + :obj:`input_ids_length` = ``sequence_length`` if :obj:`past_key_values` is ``None`` else + ``past_key_values[0].shape[-2]`` (``sequence_length`` of input past key value states). Indices of input + sequence tokens in the vocabulary. + + If :obj:`past_key_values` is used, only ``input_ids`` that do not have their past calculated should be + passed as ``input_ids``. + + Indices can be obtained using :class:`~transformers.GPT2Tokenizer`. See + :meth:`transformers.PreTrainedTokenizer.encode` and :meth:`transformers.PreTrainedTokenizer.__call__` for + details. + + `What are input IDs? <../glossary.html#input-ids>`__ + past_key_values (:obj:`List[torch.FloatTensor]` of length :obj:`config.n_layers`): + Contains precomputed hidden-states (key and values in the attention blocks) as computed by the model (see + :obj:`past_key_values` output below). Can be used to speed up sequential decoding. The ``input_ids`` which + have their past given to this model should not be passed as ``input_ids`` as they have already been + computed. + attention_mask (:obj:`torch.FloatTensor` of shape :obj:`(batch_size, sequence_length)`, `optional`): + Mask to avoid performing attention on padding token indices. Mask values selected in ``[0, 1]``: + + - 1 for tokens that are **not masked**, + - 0 for tokens that are **masked**. + + `What are attention masks? <../glossary.html#attention-mask>`__ + token_type_ids (:obj:`torch.LongTensor` of shape :obj:`(batch_size, input_ids_length)`, `optional`): + Segment token indices to indicate first and second portions of the inputs. Indices are selected in ``[0, + 1]``: + + - 0 corresponds to a `sentence A` token, + - 1 corresponds to a `sentence B` token. + + `What are token type IDs? <../glossary.html#token-type-ids>`_ + position_ids (:obj:`torch.LongTensor` of shape :obj:`(batch_size, sequence_length)`, `optional`): + Indices of positions of each input sequence tokens in the position embeddings. Selected in the range ``[0, + config.max_position_embeddings - 1]``. + + `What are position IDs? <../glossary.html#position-ids>`_ + head_mask (:obj:`torch.FloatTensor` of shape :obj:`(num_heads,)` or :obj:`(num_layers, num_heads)`, `optional`): + Mask to nullify selected heads of the self-attention modules. Mask values selected in ``[0, 1]``: + + - 1 indicates the head is **not masked**, + - 0 indicates the head is **masked**. + + inputs_embeds (:obj:`torch.FloatTensor` of shape :obj:`(batch_size, sequence_length, hidden_size)`, `optional`): + Optionally, instead of passing :obj:`input_ids` you can choose to directly pass an embedded representation. + This is useful if you want more control over how to convert :obj:`input_ids` indices into associated + vectors than the model's internal embedding lookup matrix. + + If :obj:`past_key_values` is used, optionally only the last :obj:`inputs_embeds` have to be input (see + :obj:`past_key_values`). + use_cache (:obj:`bool`, `optional`): + If set to :obj:`True`, :obj:`past_key_values` key value states are returned and can be used to speed up + decoding (see :obj:`past_key_values`). + output_attentions (:obj:`bool`, `optional`): + Whether or not to return the attentions tensors of all attention layers. See ``attentions`` under returned + tensors for more detail. + output_hidden_states (:obj:`bool`, `optional`): + Whether or not to return the hidden states of all layers. See ``hidden_states`` under returned tensors for + more detail. + return_dict (:obj:`bool`, `optional`): + Whether or not to return a :class:`~transformers.file_utils.ModelOutput` instead of a plain tuple. +""" + + +@add_start_docstrings( + "The bare GPT2 Model transformer outputting raw hidden-states without any specific head on top.", + GPT2_START_DOCSTRING, +) +class GPT2Model(GPT2PreTrainedModel): + def __init__(self, config): + super().__init__(config) + + self.wte = nn.Embedding(config.vocab_size, config.n_embd) + self.wpe = nn.Embedding(config.n_positions, config.n_embd) + if _USE_GROVER: + self.emb_norm = nn.LayerNorm(config.n_embd, eps=config.layer_norm_epsilon) + + self.drop = nn.Dropout(config.embd_pdrop) + self.h = nn.ModuleList([Block(config.n_ctx, config, scale=True) for _ in range(config.n_layer)]) + if not _USE_GROVER: + self.ln_f = nn.LayerNorm(config.n_embd, eps=config.layer_norm_epsilon) + + self.init_weights() + + def get_input_embeddings(self): + return self.wte + + def set_input_embeddings(self, new_embeddings): + self.wte = new_embeddings + + def _prune_heads(self, heads_to_prune): + """ + Prunes heads of the model. heads_to_prune: dict of {layer_num: list of heads to prune in this layer} + """ + for layer, heads in heads_to_prune.items(): + self.h[layer].attn.prune_heads(heads) + + @add_start_docstrings_to_model_forward(GPT2_INPUTS_DOCSTRING) + @add_code_sample_docstrings( + tokenizer_class=_TOKENIZER_FOR_DOC, + checkpoint="gpt2", + output_type=BaseModelOutputWithPastAndCrossAttentions, + config_class=_CONFIG_FOR_DOC, + ) + def forward( + self, + input_ids=None, + past_key_values=None, + attention_mask=None, + token_type_ids=None, + position_ids=None, + head_mask=None, + inputs_embeds=None, + encoder_hidden_states=None, + encoder_attention_mask=None, + use_cache=None, + output_attentions=None, + output_hidden_states=None, + return_dict=None, + ): + output_attentions = output_attentions if output_attentions is not None else self.config.output_attentions + output_hidden_states = ( + output_hidden_states if output_hidden_states is not None else self.config.output_hidden_states + ) + use_cache = use_cache if use_cache is not None else self.config.use_cache + return_dict = return_dict if return_dict is not None else self.config.use_return_dict + + if input_ids is not None and inputs_embeds is not None: + raise ValueError("You cannot specify both input_ids and inputs_embeds at the same time") + elif input_ids is not None: + input_shape = input_ids.size() + input_ids = input_ids.view(-1, input_shape[-1]) + batch_size = input_ids.shape[0] + elif inputs_embeds is not None: + input_shape = inputs_embeds.size()[:-1] + batch_size = inputs_embeds.shape[0] + else: + raise ValueError("You have to specify either input_ids or inputs_embeds") + + if token_type_ids is not None: + token_type_ids = token_type_ids.view(-1, input_shape[-1]) + if position_ids is not None: + position_ids = position_ids.view(-1, input_shape[-1]) + + if past_key_values is None: + past_length = 0 + past_key_values = [None] * len(self.h) + else: + past_length = past_key_values[0][0].size(-2) + if position_ids is None: + device = input_ids.device if input_ids is not None else inputs_embeds.device + position_ids = torch.arange(past_length, input_shape[-1] + past_length, dtype=torch.long, device=device) + position_ids = position_ids.unsqueeze(0).view(-1, input_shape[-1]) + + # Attention mask. + if attention_mask is not None: + assert batch_size > 0, "batch_size has to be defined and > 0" + attention_mask = attention_mask.view(batch_size, -1) + # We create a 3D attention mask from a 2D tensor mask. + # Sizes are [batch_size, 1, 1, to_seq_length] + # So we can broadcast to [batch_size, num_heads, from_seq_length, to_seq_length] + # this attention mask is more simple than the triangular masking of causal attention + # used in OpenAI GPT, we just need to prepare the broadcast dimension here. + attention_mask = attention_mask[:, None, None, :] + + # Since attention_mask is 1.0 for positions we want to attend and 0.0 for + # masked positions, this operation will create a tensor which is 0.0 for + # positions we want to attend and -10000.0 for masked positions. + # Since we are adding it to the raw scores before the softmax, this is + # effectively the same as removing these entirely. + attention_mask = attention_mask.to(dtype=self.dtype) # fp16 compatibility + attention_mask = (1.0 - attention_mask) * -10000.0 + + # If a 2D ou 3D attention mask is provided for the cross-attention + # we need to make broadcastable to [batch_size, num_heads, seq_length, seq_length] + if self.config.add_cross_attention and encoder_hidden_states is not None: + encoder_batch_size, encoder_sequence_length, _ = encoder_hidden_states.size() + encoder_hidden_shape = (encoder_batch_size, encoder_sequence_length) + if encoder_attention_mask is None: + encoder_attention_mask = torch.ones(encoder_hidden_shape, device=device) + encoder_attention_mask = self.invert_attention_mask(encoder_attention_mask) + else: + encoder_attention_mask = None + + # Prepare head mask if needed + # 1.0 in head_mask indicate we keep the head + # attention_probs has shape bsz x n_heads x N x N + # head_mask has shape n_layer x batch x n_heads x N x N + head_mask = self.get_head_mask(head_mask, self.config.n_layer) + + if inputs_embeds is None: + inputs_embeds = self.wte(input_ids) + position_embeds = self.wpe(position_ids) + hidden_states = inputs_embeds + position_embeds + + if token_type_ids is not None: + token_type_embeds = self.wte(token_type_ids) + hidden_states = hidden_states + token_type_embeds + + hidden_states = self.drop(hidden_states) + if _USE_GROVER: + hidden_states = self.emb_norm(hidden_states) + output_shape = input_shape + (hidden_states.size(-1),) + + presents = () if use_cache else None + all_self_attentions = () if output_attentions else None + all_cross_attentions = () if output_attentions and self.config.add_cross_attention else None + all_hidden_states = () if output_hidden_states else None + for i, (block, layer_past) in enumerate(zip(self.h, past_key_values)): + if output_hidden_states: + all_hidden_states = all_hidden_states + (hidden_states.view(*output_shape),) + + if getattr(self.config, "gradient_checkpointing", False): + + def create_custom_forward(module): + def custom_forward(*inputs): + # checkpointing only works with tuple returns, not with lists + return tuple(output for output in module(*inputs, use_cache, output_attentions)) + + return custom_forward + + outputs = torch.utils.checkpoint.checkpoint( + create_custom_forward(block), + hidden_states, + layer_past, + attention_mask, + head_mask[i], + encoder_hidden_states, + encoder_attention_mask, + ) + else: + outputs = block( + hidden_states, + layer_past=layer_past, + attention_mask=attention_mask, + head_mask=head_mask[i], + encoder_hidden_states=encoder_hidden_states, + encoder_attention_mask=encoder_attention_mask, + use_cache=use_cache, + output_attentions=output_attentions, + ) + + hidden_states, present = outputs[:2] + if use_cache is True: + presents = presents + (present,) + + if output_attentions: + all_self_attentions = all_self_attentions + (outputs[2],) + if self.config.add_cross_attention: + all_cross_attentions = all_cross_attentions + (outputs[3],) + + if not _USE_GROVER: + hidden_states = self.ln_f(hidden_states) + + hidden_states = hidden_states.view(*output_shape) + # Add last hidden state + if output_hidden_states: + all_hidden_states = all_hidden_states + (hidden_states,) + + if not return_dict: + return tuple(v for v in [hidden_states, presents, all_hidden_states, all_self_attentions] if v is not None) + + return BaseModelOutputWithPastAndCrossAttentions( + last_hidden_state=hidden_states, + past_key_values=presents, + hidden_states=all_hidden_states, + attentions=all_self_attentions, + cross_attentions=all_cross_attentions, + ) + + +@add_start_docstrings( + """ + The GPT2 Model transformer with a language modeling head on top (linear layer with weights tied to the input + embeddings). + """, + GPT2_START_DOCSTRING, +) +class GPT2LMHeadModel(GPT2PreTrainedModel): + _keys_to_ignore_on_load_missing = [r"h\.\d+\.attn\.masked_bias", r"lm_head\.weight"] + + def __init__(self, config): + super().__init__(config) + self.transformer = GPT2Model(config) + self.lm_head = nn.Linear(config.n_embd, config.vocab_size, bias=False) + + self.init_weights() + + def get_output_embeddings(self): + return self.lm_head + + def prepare_inputs_for_generation(self, input_ids, past=None, **kwargs): + token_type_ids = kwargs.get("token_type_ids", None) + # only last token for inputs_ids if past is defined in kwargs + if past: + input_ids = input_ids[:, -1].unsqueeze(-1) + if token_type_ids is not None: + token_type_ids = token_type_ids[:, -1].unsqueeze(-1) + + attention_mask = kwargs.get("attention_mask", None) + position_ids = kwargs.get("position_ids", None) + + if attention_mask is not None and position_ids is None: + # create position_ids on the fly for batch generation + position_ids = attention_mask.long().cumsum(-1) - 1 + position_ids.masked_fill_(attention_mask == 0, 1) + if past: + position_ids = position_ids[:, -1].unsqueeze(-1) + else: + position_ids = None + return { + "input_ids": input_ids, + "past_key_values": past, + "use_cache": kwargs.get("use_cache"), + "position_ids": position_ids, + "attention_mask": attention_mask, + "token_type_ids": token_type_ids, + } + + @add_start_docstrings_to_model_forward(GPT2_INPUTS_DOCSTRING) + @add_code_sample_docstrings( + tokenizer_class=_TOKENIZER_FOR_DOC, + checkpoint="gpt2", + output_type= CausalLMOutputWithCrossAttentions, + config_class=_CONFIG_FOR_DOC, + ) + def forward( + self, + input_ids=None, + past_key_values=None, + attention_mask=None, + token_type_ids=None, + position_ids=None, + head_mask=None, + inputs_embeds=None, + encoder_hidden_states=None, + encoder_attention_mask=None, + labels=None, + use_cache=None, + output_attentions=None, + output_hidden_states=None, + return_dict=None, + ): + r""" + labels (:obj:`torch.LongTensor` of shape :obj:`(batch_size, sequence_length)`, `optional`): + Labels for language modeling. Note that the labels **are shifted** inside the model, i.e. you can set + ``labels = input_ids`` Indices are selected in ``[-100, 0, ..., config.vocab_size]`` All labels set to + ``-100`` are ignored (masked), the loss is only computed for labels in ``[0, ..., config.vocab_size]`` + """ + return_dict = return_dict if return_dict is not None else self.config.use_return_dict + + transformer_outputs = self.transformer( + input_ids, + past_key_values=past_key_values, + attention_mask=attention_mask, + token_type_ids=token_type_ids, + position_ids=position_ids, + head_mask=head_mask, + inputs_embeds=inputs_embeds, + encoder_hidden_states=encoder_hidden_states, + encoder_attention_mask=encoder_attention_mask, + use_cache=use_cache, + output_attentions=output_attentions, + output_hidden_states=output_hidden_states, + return_dict=return_dict, + ) + hidden_states = transformer_outputs[0] + + lm_logits = self.lm_head(hidden_states) + + loss = None + if labels is not None: + # Shift so that tokens < n predict n + shift_logits = lm_logits[..., :-1, :].contiguous() + shift_labels = labels[..., 1:].contiguous() + # Flatten the tokens + loss_fct = CrossEntropyLoss() + loss = loss_fct(shift_logits.view(-1, shift_logits.size(-1)), shift_labels.view(-1)) + + if not return_dict: + output = (lm_logits,) + transformer_outputs[1:] + return ((loss,) + output) if loss is not None else output + + return CausalLMOutputWithCrossAttentions( + loss=loss, + logits=lm_logits, + past_key_values=transformer_outputs.past_key_values, + hidden_states=transformer_outputs.hidden_states, + attentions=transformer_outputs.attentions, + cross_attentions=transformer_outputs.cross_attentions, + ) + + +@add_start_docstrings( + """ +The GPT2 Model transformer with a language modeling and a multiple-choice classification head on top e.g. for +RocStories/SWAG tasks. The two heads are two linear layers. The language modeling head has its weights tied to the +input embeddings, the classification head takes as input the input of a specified classification token index in the +input sequence). +""", + GPT2_START_DOCSTRING, +) +class GPT2DoubleHeadsModel(GPT2PreTrainedModel): + def __init__(self, config): + super().__init__(config) + config.num_labels = 1 + self.transformer = GPT2Model(config) + self.lm_head = nn.Linear(config.n_embd, config.vocab_size, bias=False) + self.multiple_choice_head = SequenceSummary(config) + + self.init_weights() + + def get_output_embeddings(self): + return self.lm_head + + def prepare_inputs_for_generation(self, input_ids, past=None, **kwargs): + token_type_ids = kwargs.get("token_type_ids", None) + # only last token for inputs_ids if past is defined in kwargs + if past: + input_ids = input_ids[:, -1].unsqueeze(-1) + if token_type_ids is not None: + token_type_ids = token_type_ids[:, -1].unsqueeze(-1) + + attention_mask = kwargs.get("attention_mask", None) + position_ids = kwargs.get("position_ids", None) + + if attention_mask is not None and position_ids is None: + # create position_ids on the fly for batch generation + position_ids = attention_mask.long().cumsum(-1) - 1 + position_ids.masked_fill_(attention_mask == 0, 1) + if past: + position_ids = position_ids[:, -1].unsqueeze(-1) + else: + position_ids = None + + return { + "input_ids": input_ids, + "past_key_values": past, + "use_cache": kwargs.get("use_cache"), + "position_ids": position_ids, + "attention_mask": attention_mask, + "token_type_ids": token_type_ids, + } + + @add_start_docstrings_to_model_forward(GPT2_INPUTS_DOCSTRING) + @replace_return_docstrings(output_type=GPT2DoubleHeadsModelOutput, config_class=_CONFIG_FOR_DOC) + def forward( + self, + input_ids=None, + past_key_values=None, + attention_mask=None, + token_type_ids=None, + position_ids=None, + head_mask=None, + inputs_embeds=None, + mc_token_ids=None, + labels=None, + mc_labels=None, + use_cache=None, + output_attentions=None, + output_hidden_states=None, + return_dict=None, + **kwargs, + ): + r""" + mc_token_ids (:obj:`torch.LongTensor` of shape :obj:`(batch_size, num_choices)`, `optional`, default to index of the last token of the input): + Index of the classification token in each input sequence. Selected in the range ``[0, input_ids.size(-1) - + 1[``. + labels (:obj:`torch.LongTensor` of shape :obj:`(batch_size, sequence_length)`, `optional`): + Labels for language modeling. Note that the labels **are shifted** inside the model, i.e. you can set + ``labels = input_ids`` Indices are selected in ``[-1, 0, ..., config.vocab_size]`` All labels set to + ``-100`` are ignored (masked), the loss is only computed for labels in ``[0, ..., config.vocab_size]`` + mc_labels (:obj:`torch.LongTensor` of shape :obj:`(batch_size)`, `optional`): + Labels for computing the multiple choice classification loss. Indices should be in ``[0, ..., + num_choices]`` where `num_choices` is the size of the second dimension of the input tensors. (see + `input_ids` above) + + Return: + + Example:: + + >>> import torch + >>> from transformers import GPT2Tokenizer, GPT2DoubleHeadsModel + + >>> tokenizer = GPT2Tokenizer.from_pretrained('gpt2') + >>> model = GPT2DoubleHeadsModel.from_pretrained('gpt2') + + >>> # Add a [CLS] to the vocabulary (we should train it also!) + >>> num_added_tokens = tokenizer.add_special_tokens({'cls_token': '[CLS]'}) + + >>> embedding_layer = model.resize_token_embeddings(len(tokenizer)) # Update the model embeddings with the new vocabulary size + + >>> choices = ["Hello, my dog is cute [CLS]", "Hello, my cat is cute [CLS]"] + >>> encoded_choices = [tokenizer.encode(s) for s in choices] + >>> cls_token_location = [tokens.index(tokenizer.cls_token_id) for tokens in encoded_choices] + + >>> input_ids = torch.tensor(encoded_choices).unsqueeze(0) # Batch size: 1, number of choices: 2 + >>> mc_token_ids = torch.tensor([cls_token_location]) # Batch size: 1 + + >>> outputs = model(input_ids, mc_token_ids=mc_token_ids) + >>> lm_logits = outputs.lm_logits + >>> mc_logits = outputs.mc_logits + + """ + return_dict = return_dict if return_dict is not None else self.config.use_return_dict + + transformer_outputs = self.transformer( + input_ids, + past_key_values=past_key_values, + attention_mask=attention_mask, + token_type_ids=token_type_ids, + position_ids=position_ids, + head_mask=head_mask, + inputs_embeds=inputs_embeds, + use_cache=use_cache, + output_attentions=output_attentions, + output_hidden_states=output_hidden_states, + return_dict=return_dict, + ) + + hidden_states = transformer_outputs[0] + + lm_logits = self.lm_head(hidden_states) + mc_logits = self.multiple_choice_head(hidden_states, mc_token_ids).squeeze(-1) + + mc_loss = None + if mc_labels is not None: + loss_fct = CrossEntropyLoss() + mc_loss = loss_fct(mc_logits.view(-1, mc_logits.size(-1)), mc_labels.view(-1)) + lm_loss = None + if labels is not None: + shift_logits = lm_logits[..., :-1, :].contiguous() + shift_labels = labels[..., 1:].contiguous() + loss_fct = CrossEntropyLoss() + lm_loss = loss_fct(shift_logits.view(-1, shift_logits.size(-1)), shift_labels.view(-1)) + + if not return_dict: + output = (lm_logits, mc_logits) + transformer_outputs[1:] + if mc_loss is not None: + output = (mc_loss,) + output + return ((lm_loss,) + output) if lm_loss is not None else output + + return GPT2DoubleHeadsModelOutput( + loss=lm_loss, + mc_loss=mc_loss, + logits=lm_logits, + mc_logits=mc_logits, + past_key_values=transformer_outputs.past_key_values, + hidden_states=transformer_outputs.hidden_states, + attentions=transformer_outputs.attentions, + ) + + +@add_start_docstrings( + """ + The GPT2 Model transformer with a sequence classification head on top (linear layer). + + :class:`~transformers.GPT2ForSequenceClassification` uses the last token in order to do the classification, as + other causal models (e.g. GPT-1) do. + + Since it does classification on the last token, it requires to know the position of the last token. If a + :obj:`pad_token_id` is defined in the configuration, it finds the last token that is not a padding token in each + row. If no :obj:`pad_token_id` is defined, it simply takes the last value in each row of the batch. Since it cannot + guess the padding tokens when :obj:`inputs_embeds` are passed instead of :obj:`input_ids`, it does the same (take + the last value in each row of the batch). + """, + GPT2_START_DOCSTRING, +) +class GPT2ForSequenceClassification(GPT2PreTrainedModel): + _keys_to_ignore_on_load_missing = [r"h\.\d+\.attn\.masked_bias", r"lm_head\.weight"] + + def __init__(self, config): + super().__init__(config) + self.num_labels = config.num_labels + self.transformer = GPT2Model(config) + self.score = nn.Linear(config.n_embd, self.num_labels, bias=False) + + self.init_weights() + + @add_start_docstrings_to_model_forward(GPT2_INPUTS_DOCSTRING) + @add_code_sample_docstrings( + tokenizer_class=_TOKENIZER_FOR_DOC, + checkpoint="microsoft/dialogrpt", + output_type=SequenceClassifierOutputWithPast, + config_class=_CONFIG_FOR_DOC, + ) + def forward( + self, + input_ids=None, + past_key_values=None, + attention_mask=None, + token_type_ids=None, + position_ids=None, + head_mask=None, + inputs_embeds=None, + labels=None, + use_cache=None, + output_attentions=None, + output_hidden_states=None, + return_dict=None, + ): + r""" + labels (:obj:`torch.LongTensor` of shape :obj:`(batch_size,)`, `optional`): + Labels for computing the sequence classification/regression loss. Indices should be in :obj:`[0, ..., + config.num_labels - 1]`. If :obj:`config.num_labels == 1` a regression loss is computed (Mean-Square loss), + If :obj:`config.num_labels > 1` a classification loss is computed (Cross-Entropy). + """ + return_dict = return_dict if return_dict is not None else self.config.use_return_dict + + transformer_outputs = self.transformer( + input_ids, + past_key_values=past_key_values, + attention_mask=attention_mask, + token_type_ids=token_type_ids, + position_ids=position_ids, + head_mask=head_mask, + inputs_embeds=inputs_embeds, + use_cache=use_cache, + output_attentions=output_attentions, + output_hidden_states=output_hidden_states, + return_dict=return_dict, + ) + hidden_states = transformer_outputs[0] + logits = self.score(hidden_states) + + if input_ids is not None: + batch_size, sequence_length = input_ids.shape[:2] + else: + batch_size, sequence_length = inputs_embeds.shape[:2] + + assert ( + self.config.pad_token_id is not None or batch_size == 1 + ), "Cannot handle batch sizes > 1 if no padding token is defined." + if self.config.pad_token_id is None: + sequence_lengths = -1 + else: + if input_ids is not None: + sequence_lengths = torch.ne(input_ids, self.config.pad_token_id).sum(-1) - 1 + else: + sequence_lengths = -1 + logger.warning( + f"{self.__class__.__name__} will not detect padding tokens in `inputs_embeds`. Results may be " + f"unexpected if using padding tokens in conjunction with `inputs_embeds.`" + ) + + pooled_logits = logits[range(batch_size), sequence_lengths] + + loss = None + if labels is not None: + if self.num_labels == 1: + # We are doing regression + loss_fct = MSELoss() + loss = loss_fct(pooled_logits.view(-1), labels.to(self.dtype).view(-1)) + else: + loss_fct = CrossEntropyLoss() + loss = loss_fct(pooled_logits.view(-1, self.num_labels), labels.view(-1)) + + if not return_dict: + output = (pooled_logits,) + transformer_outputs[1:] + return ((loss,) + output) if loss is not None else output + + return SequenceClassifierOutputWithPast( + loss=loss, + logits=pooled_logits, + past_key_values=transformer_outputs.past_key_values, + hidden_states=transformer_outputs.hidden_states, + attentions=transformer_outputs.attentions, + ) + diff --git a/arabert/aragpt2/grover/optimization_adafactor.py b/arabert/aragpt2/grover/optimization_adafactor.py new file mode 100644 index 0000000000000000000000000000000000000000..d28554ff7090f32a3b4e2985d8701fb77e4c3beb --- /dev/null +++ b/arabert/aragpt2/grover/optimization_adafactor.py @@ -0,0 +1,234 @@ +# Original work Copyright 2018 The Google AI Language Team Authors. +# Modified work Copyright 2019 Rowan Zellers +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +import re +import tensorflow as tf +from grover.utils import get_shape_list + + +def create_optimizer(loss, init_lr, num_train_steps, num_warmup_steps, use_tpu): + """Creates an optimizer training op.""" + global_step = tf.train.get_or_create_global_step() + + learning_rate = tf.constant(value=init_lr, shape=[], dtype=tf.float32) + + # Implements linear decay of the learning rate. + learning_rate = tf.train.polynomial_decay( + learning_rate, + global_step, + num_train_steps, + end_learning_rate=0.0, + power=1.0, + cycle=False) + + # Implements linear warmup. I.e., if global_step < num_warmup_steps, the + # learning rate will be `global_step/num_warmup_steps * init_lr`. + if num_warmup_steps: + global_steps_int = tf.cast(global_step, tf.int32) + warmup_steps_int = tf.constant(num_warmup_steps, dtype=tf.int32) + + global_steps_float = tf.cast(global_steps_int, tf.float32) + warmup_steps_float = tf.cast(warmup_steps_int, tf.float32) + + warmup_percent_done = global_steps_float / warmup_steps_float + warmup_learning_rate = init_lr * warmup_percent_done + + is_warmup = tf.cast(global_steps_int < warmup_steps_int, tf.float32) + learning_rate = ( + (1.0 - is_warmup) * learning_rate + is_warmup * warmup_learning_rate) + + # It is recommended that you use this optimizer for fine tuning, since this + # is how the model was trained (note that the Adam m/v variables are NOT + # loaded from init_checkpoint.) + optimizer = AdaFactorOptimizer( + learning_rate=learning_rate, + weight_decay_rate=0.01, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=["LayerNorm", "layer_norm", "bias"]) + + if use_tpu: + optimizer = tf.contrib.tpu.CrossShardOptimizer(optimizer) + + tvars = tf.trainable_variables() + grads = tf.gradients(loss, tvars) + + # You could do this, but instead we don't because a) it's slow and b) we already did the 'update clipping' + # (grads, _) = tf.clip_by_global_norm(grads, clip_norm=1.0) + + train_op = optimizer.apply_gradients( + zip(grads, tvars), global_step=global_step) + + # Normally the global step update is done inside of `apply_gradients`. + # However, `AdaFactorOptimizer` doesn't do this. But if you use + # a different optimizer, you should probably take this line out. + new_global_step = global_step + 1 + train_op = tf.group(train_op, [global_step.assign(new_global_step)]) + + train_metrics = { + 'learning_rate': learning_rate, + 'minibatch_loss': loss, + # 'minibatch_ppl': tf.math.exp(loss), + } + return train_op, train_metrics + + +class AdaFactorOptimizer(tf.compat.v1.train.Optimizer): + """here's the optimizer we'll use""" + + def __init__(self, + learning_rate, + weight_decay_rate=0.0, + beta_1=0.9, + beta_2=0.999, + epsilon=1e-6, + exclude_from_weight_decay=None, + clipping_rate=1.0, + name="AdaFactorOptimizer"): + """Constructs a AdaFactorOptimizer.""" + super(AdaFactorOptimizer, self).__init__(False, name) + + self.learning_rate = learning_rate + self.weight_decay_rate = weight_decay_rate + self.beta_1 = beta_1 + self.beta_2 = beta_2 + self.epsilon = epsilon + self.epsilon1 = 1e-30 + self.epsilon2 = 0.001 + self.clipping_rate = clipping_rate + self.exclude_from_weight_decay = exclude_from_weight_decay + self.use_locking = False + + def _use_factored(self, shape): + return len(shape) >= 2 + + def _parameter_scale(self, var): + """Estimate the scale of the parameters from the current values. + We include a minimum value of 0.001 to give it a chance to escape 0 + if it was zero-initialized. + Instead of using the value, we could impute the scale from the shape, + as initializers do. + Args: + var: a variable or Tensor. + Returns: + a Scalar + """ + return tf.maximum(reduce_rms(var), self.epsilon2) + + def apply_gradients(self, grads_and_vars, global_step=None, name=None): + """See base class.""" + assignments = [] + for (grad, param) in grads_and_vars: + if grad is None or param is None: + continue + + param_name = self._get_variable_name(param.name) + shape_list = get_shape_list(param, expected_rank=[1, 2]) + + # decay_rate = 1 - tf.pow(tf.cast(tf.train.get_or_create_global_step(), tf.float32) + 1.0, -0.8) + decay_rate = self.beta_2 + grad_squared = tf.square(grad) + self.epsilon1 + + update_scale = self.learning_rate + # update_scale = self.learning_rate * tf.cast(self._parameter_scale(param), dtype=tf.float32) + + # HACK: Make things dependent on grad. + # This confounds the XLA rewriter and keeps it from fusing computations + # across different variables. This fusion is a bad for HBM usage, since + # it causes the gradients to persist in memory. + grad_squared_mean = tf.reduce_mean(grad_squared) + decay_rate += grad_squared_mean * 1e-30 + update_scale += grad_squared_mean * 1e-30 + + # END HACK + + if self._use_factored(shape_list): + num_rows, num_columns = shape_list + + vr = tf.get_variable( + name=param_name + "/adafactor_vr", + shape=[num_rows], + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer()) + vc = tf.get_variable( + name=param_name + "/adafactor_vc", + shape=[num_columns], + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer()) + + next_vr = decay_rate * vr + (1 - decay_rate) * tf.reduce_mean(grad_squared, 1) + next_vc = decay_rate * vc + (1 - decay_rate) * tf.reduce_mean(grad_squared, 0) + + long_term_mean = tf.reduce_mean(next_vr, -1, keepdims=True) + r_factor = tf.rsqrt(next_vr / long_term_mean + self.epsilon1) + c_factor = tf.rsqrt(next_vc + self.epsilon1) + update = grad * tf.expand_dims(r_factor, -1) * tf.expand_dims(c_factor, -2) + + assignments.append(vr.assign(next_vr, use_locking=self.use_locking)) + assignments.append(vc.assign(next_vc, use_locking=self.use_locking)) + else: + v = tf.get_variable( + name=param_name + "/adafactor_v", + shape=shape_list, + dtype=tf.float32, + trainable=False, + initializer=tf.zeros_initializer()) + next_v = decay_rate * v + (1 - decay_rate) * grad_squared + + assignments.append(v.assign(next_v, use_locking=self.use_locking)) + update = grad * tf.rsqrt(next_v + self.epsilon1) + + clipping_denom = tf.maximum(1.0, reduce_rms(update) / self.clipping_rate) + update /= clipping_denom + + # Do weight decay + # Just adding the square of the weights to the loss function is *not* + # the correct way of using L2 regularization/weight decay with Adam, + # since that will interact with the m and v parameters in strange ways. + # + # Instead we want ot decay the weights in a manner that doesn't interact + # with the m/v parameters. This is equivalent to adding the square + # # of the weights to the loss with plain (non-momentum) SGD. + if self._do_use_weight_decay(param_name): + update += self.weight_decay_rate * param + + update_with_lr = update_scale * update + next_param = param - update_with_lr + + assignments.append(param.assign(next_param, use_locking=self.use_locking)) + return tf.group(*assignments, name=name) + + def _do_use_weight_decay(self, param_name): + """Whether to use L2 weight decay for `param_name`.""" + if not self.weight_decay_rate: + return False + if self.exclude_from_weight_decay: + for r in self.exclude_from_weight_decay: + if re.search(r, param_name) is not None: + return False + return True + + def _get_variable_name(self, param_name): + """Get the variable name from the tensor name.""" + m = re.match("^(.*):\\d+$", param_name) + if m is not None: + param_name = m.group(1) + return param_name + + +def reduce_rms(x): + return tf.sqrt(tf.reduce_mean(tf.square(x))) diff --git a/arabert/aragpt2/grover/train_tpu.py b/arabert/aragpt2/grover/train_tpu.py new file mode 100644 index 0000000000000000000000000000000000000000..97ab95770720e3e0ef4b1ad63145af10370927c1 --- /dev/null +++ b/arabert/aragpt2/grover/train_tpu.py @@ -0,0 +1,187 @@ +# Original work Copyright 2018 The Google AI Language Team Authors. +# Modified work Copyright 2019 Rowan Zellers +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +""" Training script! From https://github.com/imcaspar/gpt2-ml""" + +import tensorflow as tf +import os + +from grover.dataloader import input_fn_builder +from grover.modeling import model_fn_builder, GroverConfig + +flags = tf.flags + +FLAGS = flags.FLAGS + +## Required parameters +flags.DEFINE_string( + "config_file", 'configs/base.json', + "The config json file corresponding to the pre-trained news model. " + "This specifies the model architecture.") + +flags.DEFINE_string( + "input_file", None, + "Input TF example files (can be a glob or comma separated).") + +flags.DEFINE_string( + "output_dir", None, + "The output directory where the model checkpoints will be written.") + +## Other parameters +flags.DEFINE_string( + "init_checkpoint", None, + "Initial checkpoint (usually from a pre-trained model).") + +flags.DEFINE_integer( + "max_seq_length", 1024, + "The maximum total input sequence length after BPE tokenization. " + "Sequences longer than this will be truncated, and sequences shorter " + "than this will be padded. Must match data generation.") + +flags.DEFINE_bool("do_train", False, "Whether to run training.") + +flags.DEFINE_bool("do_eval", False, "Whether to run eval on the dev set.") + +flags.DEFINE_integer("train_batch_size", 32, "Total batch size for training.") + +flags.DEFINE_integer("eval_batch_size", 8, "Total batch size for evaluation.") + +flags.DEFINE_float("learning_rate", 5e-5, "The initial learning rate for adafactor.") + +flags.DEFINE_integer("num_train_steps", 100000, "Number of training steps.") + +flags.DEFINE_integer("num_warmup_steps", 10000, "Number of warmup steps.") + +flags.DEFINE_integer("save_checkpoints_steps", 1000, + "How often to save the model checkpoint.") + +flags.DEFINE_integer("iterations_per_loop", 1000, + "How many steps to make in each estimator call.") + +flags.DEFINE_integer("max_eval_steps", 100, "Maximum number of eval steps.") + +flags.DEFINE_bool("use_tpu", False, "Whether to use TPU or GPU/CPU.") + +flags.DEFINE_string( + "tpu_name", None, + "The Cloud TPU to use for training. This should be either the name " + "used when creating the Cloud TPU, or a grpc://ip.address.of.tpu:8470 " + "url.") + +flags.DEFINE_string( + "tpu_zone", None, + "[Optional] GCE zone where the Cloud TPU is located in. If not " + "specified, we will attempt to automatically detect the GCE project from " + "metadata.") + +flags.DEFINE_string( + "gcp_project", None, + "[Optional] Project name for the Cloud TPU-enabled project. If not " + "specified, we will attempt to automatically detect the GCE project from " + "metadata.") + +flags.DEFINE_string("master", None, "[Optional] TensorFlow master URL.") + +flags.DEFINE_integer( + "num_tpu_cores", 8, + "Only used if `use_tpu` is True. Total number of TPU cores to use.") + + +def main(_): + tf.logging.set_verbosity(tf.logging.INFO) + logger = tf.get_logger() + logger.propagate = False + + news_config = GroverConfig.from_json_file(FLAGS.config_file) + + tf.gfile.MakeDirs(FLAGS.output_dir) + + input_files = [] + for input_pattern in FLAGS.input_file.split(","): + input_files.extend(tf.gfile.Glob(input_pattern)) + + # tf.logging.info("*** Input Files ***") + # for input_file in input_files: + # tf.logging.info(" %s" % input_file) + + tpu_cluster_resolver = None + if FLAGS.use_tpu and FLAGS.tpu_name: + tpu_cluster_resolver = tf.contrib.cluster_resolver.TPUClusterResolver( + FLAGS.tpu_name, zone=FLAGS.tpu_zone, project=FLAGS.gcp_project) + + is_per_host = tf.contrib.tpu.InputPipelineConfig.PER_HOST_V2 + run_config = tf.contrib.tpu.RunConfig( + cluster=tpu_cluster_resolver, + master=FLAGS.master, + model_dir=FLAGS.output_dir, + save_checkpoints_steps=FLAGS.save_checkpoints_steps, + keep_checkpoint_max=None, + tpu_config=tf.contrib.tpu.TPUConfig( + iterations_per_loop=FLAGS.iterations_per_loop, + num_shards=FLAGS.num_tpu_cores, + per_host_input_for_training=is_per_host)) + + model_fn = model_fn_builder(news_config, init_checkpoint=FLAGS.init_checkpoint, + learning_rate=FLAGS.learning_rate, + num_train_steps=FLAGS.num_train_steps, + num_warmup_steps=FLAGS.num_warmup_steps, + use_tpu=FLAGS.use_tpu, + num_tpu_cores=FLAGS.num_tpu_cores, + eval_batch_size=FLAGS.eval_batch_size + ) + + # If TPU is not available, this will fall back to normal Estimator on CPU + # or GPU. + estimator = tf.contrib.tpu.TPUEstimator( + use_tpu=FLAGS.use_tpu, + model_fn=model_fn, + config=run_config, + train_batch_size=FLAGS.train_batch_size, + eval_batch_size=FLAGS.eval_batch_size, + params={'model_dir': FLAGS.output_dir} + ) + if FLAGS.do_train: + tf.logging.info("***** Running training *****") + tf.logging.info(" Batch size = %d", FLAGS.train_batch_size) + train_input_fn = input_fn_builder( + input_files=input_files, + seq_length=FLAGS.max_seq_length, + is_training=True) + + estimator.train(input_fn=train_input_fn, max_steps=FLAGS.num_train_steps) + + if FLAGS.do_eval: + tf.logging.info("***** Running evaluation *****") + tf.logging.info(" Batch size = %d", FLAGS.eval_batch_size) + + eval_input_fn = input_fn_builder( + input_files=input_files, + seq_length=FLAGS.max_seq_length, + is_training=False, + ) + + result = estimator.evaluate(input_fn=eval_input_fn, steps=FLAGS.max_eval_steps) + + output_eval_file = os.path.join(FLAGS.output_dir, "eval_results.txt") + with tf.gfile.GFile(output_eval_file, "w") as writer: + tf.logging.info("***** Eval results *****") + for key in sorted(result.keys()): + tf.logging.info(" %s = %s", key, str(result[key])) + writer.write("%s = %s\n" % (key, str(result[key]))) + +if __name__ == "__main__": + flags.mark_flag_as_required("input_file") + flags.mark_flag_as_required("output_dir") + tf.app.run() diff --git a/arabert/aragpt2/grover/utils.py b/arabert/aragpt2/grover/utils.py new file mode 100644 index 0000000000000000000000000000000000000000..aa75c71bfc519549b66f466c2644c4c6fdeab198 --- /dev/null +++ b/arabert/aragpt2/grover/utils.py @@ -0,0 +1,234 @@ +# Original work Copyright 2018 The Google AI Language Team Authors. +# Modified work Copyright 2019 Rowan Zellers +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. + +import collections +import re + +import six +import tensorflow as tf +import numpy as np +from tensorflow.python.lib.io import file_io + + +def _save_np(absolute_fn, array): + if absolute_fn.startswith('gs://'): + with file_io.FileIO(absolute_fn, 'w') as f: + np.save(f, array) + else: + np.save(absolute_fn, array) + + +def assert_rank(tensor, expected_rank, name=None): + """Raises an exception if the tensor rank is not of the expected rank. + + Args: + tensor: A tf.Tensor to check the rank of. + expected_rank: Python integer or list of integers, expected rank. + name: Optional name of the tensor for the error message. + + Raises: + ValueError: If the expected shape doesn't match the actual shape. + """ + if name is None: + name = tensor.name + + expected_rank_dict = {} + if isinstance(expected_rank, six.integer_types): + expected_rank_dict[expected_rank] = True + else: + for x in expected_rank: + expected_rank_dict[x] = True + + actual_rank = tensor.shape.ndims + if actual_rank not in expected_rank_dict: + scope_name = tf.get_variable_scope().name + raise ValueError( + "For the tensor `%s` in scope `%s`, the actual rank " + "`%d` (shape = %s) is not equal to the expected rank `%s`" % + (name, scope_name, actual_rank, str(tensor.shape), str(expected_rank))) + + +def get_shape_list(tensor, expected_rank=None, name=None): + """Returns a list of the shape of tensor, preferring static dimensions. + + Args: + tensor: A tf.Tensor object to find the shape of. + expected_rank: (optional) int. The expected rank of `tensor`. If this is + specified and the `tensor` has a different rank, and exception will be + thrown. + name: Optional name of the tensor for the error message. + + Returns: + A list of dimensions of the shape of tensor. All static dimensions will + be returned as python integers, and dynamic dimensions will be returned + as tf.Tensor scalars. + """ + if name is None: + name = tensor.name + + if expected_rank is not None: + assert_rank(tensor, expected_rank, name) + + shape = tensor.shape.as_list() + + non_static_indexes = [] + for (index, dim) in enumerate(shape): + if dim is None: + non_static_indexes.append(index) + + if not non_static_indexes: + return shape + + dyn_shape = tf.shape(tensor) + for index in non_static_indexes: + shape[index] = dyn_shape[index] + return shape + + +def gelu(input_tensor): + """Gaussian Error Linear Unit. + + This is a smoother version of the RELU. + Original paper: https://arxiv.org/abs/1606.08415 + + Args: + input_tensor: float Tensor to perform activation. + + Returns: + `input_tensor` with the GELU activation applied. + """ + cdf = 0.5 * (1.0 + tf.erf(input_tensor / tf.sqrt(2.0))) + return input_tensor * cdf + + +def layer_norm(input_tensor, name=None, epsilon=1e-5): + """Run layer normalization on the last dimension of the tensor.""" + name2use = f'LayerNorm_{name}' if name is not None else name + with tf.variable_scope(name2use, default_name='LayerNorm'): + dim = input_tensor.shape[-1].value + gamma = tf.get_variable('gamma', [dim], initializer=tf.constant_initializer(1)) + beta = tf.get_variable('beta', [dim], initializer=tf.constant_initializer(0)) + mean = tf.reduce_mean(input_tensor, axis=-1, keepdims=True) + std = tf.reduce_mean(tf.square(input_tensor - mean), axis=-1, keepdims=True) + input_tensor = (input_tensor - mean) * tf.rsqrt(std + epsilon) + input_tensor = input_tensor * gamma + beta + return input_tensor + + +def dropout(input_tensor, dropout_prob): + """Perform dropout. + + Args: + input_tensor: float Tensor. + dropout_prob: Python float. The probability of dropping out a value (NOT of + *keeping* a dimension as in `tf.nn.dropout`). + + Returns: + A version of `input_tensor` with dropout applied. + """ + if dropout_prob is None or dropout_prob == 0.0: + return input_tensor + output = tf.nn.dropout(input_tensor, rate=dropout_prob) + return output + + +def get_attention_mask(nd, ns, *, dtype): + """ + this is a TPU compatible version of tf.matrix_band_part(tf.ones([nd, ns]), -1, ns-nd) + where the lower right triangle contains 1s + """ + i = tf.range(nd)[:, None] + j = tf.range(ns) + m = i >= j - ns + nd + return tf.cast(m, dtype) + + +def get_assignment_map_from_checkpoint(tvars, init_checkpoint): + """Compute the union of the current variables and checkpoint variables.""" + assignment_map = {} + initialized_variable_names = {} + + name_to_variable = collections.OrderedDict() + for var in tvars: + name = var.name + m = re.match("^(.*):\\d+$", name) + if m is not None: + name = m.group(1) + name_to_variable[name] = var + + init_vars = tf.train.list_variables(init_checkpoint) + + assignment_map = collections.OrderedDict() + for x in init_vars: + (name, var) = (x[0], x[1]) + if name not in name_to_variable: + continue + assignment_map[name] = name + initialized_variable_names[name] = 1 + initialized_variable_names[name + ":0"] = 1 + return (assignment_map, initialized_variable_names) + + +def construct_scalar_host_call(metric_dict, model_dir, prefix=""): + """Construct a host call to log scalars when training on TPU. + + Args: + metric_dict: A dict of the tensors to be logged. + model_dir: The location to write the summary. + prefix: The prefix (if any) to prepend to the metric names. + + Returns: + A tuple of (function, args_to_be_passed_to_said_function) + """ + metric_names = list(metric_dict.keys()) + + def host_call_fn(global_step, *args): + """Training host call. Creates scalar summaries for training metrics. + + This function is executed on the CPU and should not directly reference + any Tensors in the rest of the `model_fn`. To pass Tensors from the + model to the `metric_fn`, provide as part of the `host_call`. See + https://www.tensorflow.org/api_docs/python/tf/contrib/tpu/TPUEstimatorSpec + for more information. + + Arguments should match the list of `Tensor` objects passed as the second + element in the tuple passed to `host_call`. + + Args: + global_step: `Tensor with shape `[batch]` for the global_step + *args: Remaining tensors to log. + + Returns: + List of summary ops to run on the CPU host. + """ + step = global_step[0] + with tf.contrib.summary.create_file_writer( + logdir=model_dir, filename_suffix=".host_call").as_default(): + with tf.contrib.summary.always_record_summaries(): + for i, name in enumerate(metric_names): + tf.contrib.summary.scalar(prefix + name, args[i][0], step=step) + + return tf.contrib.summary.all_summary_ops() + + # To log the current learning rate, and gradient norm for Tensorboard, the + # summary op needs to be run on the host CPU via host_call. host_call + # expects [batch_size, ...] Tensors, thus reshape to introduce a batch + # dimension. These Tensors are implicitly concatenated to + # [params['batch_size']]. + global_step_tensor = tf.reshape( + tf.compat.v1.train.get_or_create_global_step(), [1]) + other_tensors = [tf.reshape(metric_dict[key], [1]) for key in metric_names] + + return host_call_fn, [global_step_tensor] + other_tensors diff --git a/arabert/aragpt2/requirements.txt b/arabert/aragpt2/requirements.txt new file mode 100644 index 0000000000000000000000000000000000000000..e1cf39f4dbc46340031069506cc3e3a85b4a2358 --- /dev/null +++ b/arabert/aragpt2/requirements.txt @@ -0,0 +1 @@ +gpt-2-simple==0.7.1 \ No newline at end of file diff --git a/arabert/aragpt2/results/AraGPT2-mega_corona_vaccine.pdf b/arabert/aragpt2/results/AraGPT2-mega_corona_vaccine.pdf new file mode 100644 index 0000000000000000000000000000000000000000..164e7df7cdb1130686ebcda40a665d5494e2527f Binary files /dev/null and b/arabert/aragpt2/results/AraGPT2-mega_corona_vaccine.pdf differ diff --git a/arabert/aragpt2/results/AraGPT2-mega_misc.pdf b/arabert/aragpt2/results/AraGPT2-mega_misc.pdf new file mode 100644 index 0000000000000000000000000000000000000000..89c29c10cb88aabd24840a8bf6717df6e548e619 Binary files /dev/null and b/arabert/aragpt2/results/AraGPT2-mega_misc.pdf differ diff --git a/arabert/aragpt2/results/AraGPT2-mega_stories.pdf b/arabert/aragpt2/results/AraGPT2-mega_stories.pdf new file mode 100644 index 0000000000000000000000000000000000000000..e569cba4f734b84abff90c9463c1d8cfc56cd36c Binary files /dev/null and b/arabert/aragpt2/results/AraGPT2-mega_stories.pdf differ diff --git a/arabert/aragpt2/results/AraGPT2-zero-shot-ARCD.txt b/arabert/aragpt2/results/AraGPT2-zero-shot-ARCD.txt new file mode 100644 index 0000000000000000000000000000000000000000..703fc802cbf0da7128319858c27558fb830386e9 --- /dev/null +++ b/arabert/aragpt2/results/AraGPT2-zero-shot-ARCD.txt @@ -0,0 +1,4122 @@ +context : حمزة بن عبد المطلب الهاشمي القرشي صحابي من صحابة رسول الإسلام محمد ، وعمه وأخوه من الرضاعة وأحد وزرائه الأربعة عشر ، وهو خير أعمامه لقوله : « خير إخوتي علي ، وخير أعمامي حمزة رضي الله عنهما » . +question : من هو حمزة بن عبد المطلب ؟ +prompt : أجب عن السؤال التالي : من هو حمزة بن عبد المطلب ؟ الجواب هو +pred_answer : : أبو طالب عم النبي صلى الله عليه وسلم ، وهو أول من آمن به وصدقه قبل +answer : صحابي من صحابة رسول الإسلام محمد وعمه وأخوه من الرضاعة وأحد وزرائه الأربعة عشر + +context : حمزة بن عبد المطلب الهاشمي القرشي صحابي من صحابة رسول الإسلام محمد ، وعمه وأخوه من الرضاعة وأحد وزرائه الأربعة عشر ، وهو خير أعمامه لقوله : « خير إخوتي علي ، وخير أعمامي حمزة رضي الله عنهما » . +question : بما وصفه رسول الله ؟ +prompt : أجب عن السؤال التالي : بما وصفه رسول الله ؟ الجواب هو +pred_answer : : نعم ، لقد +answer : وخير أعمامي + +context : حمزة بن عبد المطلب الهاشمي القرشي صحابي من صحابة رسول الإسلام محمد ، وعمه وأخوه من الرضاعة وأحد وزرائه الأربعة عشر ، وهو خير أعمامه لقوله : « خير إخوتي علي ، وخير أعمامي حمزة رضي الله عنهما » . +question : بما وصف رسول الله على ؟ +prompt : أجب عن السؤال التالي : بما وصف رسول الله على ؟ الجواب هو +pred_answer : ما جاء في الحديث +answer : خير إخوتي علي + +context : أسلم حمزة في السنة الثانية من بعثة النبي محمد ، فلما أسلم علمت قريش أن الرسول محمدا قد عز وامتنع وأن حمزة سيمنعه ، فكفوا عن بعض ما كانوا ينالون منه . ثم هاجر حمزة إلى المدينة المنورة ، فآخى الرسول بينه وبين زيد بن حارثة . وكان أول لواء عقده الرسول محمد هو اللواء الذي عقده لحمزة ، وشهد حمزة غزوة بدر ، وقتل فيها شيبة بن ربيعة مبارزة ، وقتل غيره كثيرا من المشركين ، كما شهد غزوة أحد ، فقتل بها سنة 3 ه ، وكان قد قتل من المشركين قبل أن يقتل واحدا وثلاثين نفسا ، وكان الذي قتله هو وحشي بن حرب الحبشي غلام جبير بن مطعم ، ومثل به المشركون ، وبقرت هند بنت عتبة بطنه فأخرجت كبده ، فجعلت تلوكها فلم تسغها فلفظتها ، فقال الرسول محمد : ، وخرج الرسول يلتمس حمزة ، فوجده ببطن الوادي قد مثل به ، فلم ير منظرا كان أوجع لقلبه منه فقال : . ودفن حمزة وابن أخته عبد الله بن جحش في قبر واحد . +question : متى اسلم حمزة ؟ +prompt : أجب عن السؤال التالي : متى اسلم حمزة ؟ الجواب هو +pred_answer : ان حمزة بن عبد المطلب أسلم عام +answer : السنة الثانية من بعثة النبي محمد + +context : أسلم حمزة في السنة الثانية من بعثة النبي محمد ، فلما أسلم علمت قريش أن الرسول محمدا قد عز وامتنع وأن حمزة سيمنعه ، فكفوا عن بعض ما كانوا ينالون منه . ثم هاجر حمزة إلى المدينة المنورة ، فآخى الرسول بينه وبين زيد بن حارثة . وكان أول لواء عقده الرسول محمد هو اللواء الذي عقده لحمزة ، وشهد حمزة غزوة بدر ، وقتل فيها شيبة بن ربيعة مبارزة ، وقتل غيره كثيرا من المشركين ، كما شهد غزوة أحد ، فقتل بها سنة 3 ه ، وكان قد قتل من المشركين قبل أن يقتل واحدا وثلاثين نفسا ، وكان الذي قتله هو وحشي بن حرب الحبشي غلام جبير بن مطعم ، ومثل به المشركون ، وبقرت هند بنت عتبة بطنه فأخرجت كبده ، فجعلت تلوكها فلم تسغها فلفظتها ، فقال الرسول محمد : ، وخرج الرسول يلتمس حمزة ، فوجده ببطن الوادي قد مثل به ، فلم ير منظرا كان أوجع لقلبه منه فقال : . ودفن حمزة وابن أخته عبد الله بن جحش في قبر واحد . +question : و ماذا فعل فى غزوة بدر ؟ +prompt : أجب عن السؤال التالي : و ماذا فعل فى غزوة بدر ؟ الجواب هو +pred_answer : أن رسول الله صلى الله عليه و سلم لم يقاتل أحدا إلا بعد +answer : وقتل فيها شيبة بن ربيعة مبارزة وقتل غيره كثيرا من المشركين + +context : أسلم حمزة في السنة الثانية من بعثة النبي محمد ، فلما أسلم علمت قريش أن الرسول محمدا قد عز وامتنع وأن حمزة سيمنعه ، فكفوا عن بعض ما كانوا ينالون منه . ثم هاجر حمزة إلى المدينة المنورة ، فآخى الرسول بينه وبين زيد بن حارثة . وكان أول لواء عقده الرسول محمد هو اللواء الذي عقده لحمزة ، وشهد حمزة غزوة بدر ، وقتل فيها شيبة بن ربيعة مبارزة ، وقتل غيره كثيرا من المشركين ، كما شهد غزوة أحد ، فقتل بها سنة 3 ه ، وكان قد قتل من المشركين قبل أن يقتل واحدا وثلاثين نفسا ، وكان الذي قتله هو وحشي بن حرب الحبشي غلام جبير بن مطعم ، ومثل به المشركون ، وبقرت هند بنت عتبة بطنه فأخرجت كبده ، فجعلت تلوكها فلم تسغها فلفظتها ، فقال الرسول محمد : ، وخرج الرسول يلتمس حمزة ، فوجده ببطن الوادي قد مثل به ، فلم ير منظرا كان أوجع لقلبه منه فقال : . ودفن حمزة وابن أخته عبد الله بن جحش في قبر واحد . +question : من قتل حمزة ؟ +prompt : أجب عن السؤال التالي : من قتل حمزة ؟ الجواب هو +pred_answer : : معاوية بن أبي سفيان . +answer : وحشي بن حرب الحبشي + +context : تربى حمزة بن عبد المطلب في كنف والده عبد المطلب بن هاشم الذي كان سيد قريش وبني هاشم ، ونشأ مع تربه وابن أخيه عبد الله وأخيه من الرضاعة محمد بن عبد الله بن عبد المطلب ، وعاشا ينهلان من الشمائل والقيم العربية الأصيلة ، من بطولة وشجاعة وكرم ونجدة وغيرها ، وارتبطت بينهما صداقة متينة ووثيقة العرا . +question : من هو عبد المطلب بن هاشم ؟ +prompt : أجب عن السؤال التالي : من هو عبد المطلب بن هاشم ؟ الجواب هو +pred_answer : أن عبد المطلب كان +answer : سيد قريش وبني هاشم + +context : تربى حمزة بن عبد المطلب في كنف والده عبد المطلب بن هاشم الذي كان سيد قريش وبني هاشم ، ونشأ مع تربه وابن أخيه عبد الله وأخيه من الرضاعة محمد بن عبد الله بن عبد المطلب ، وعاشا ينهلان من الشمائل والقيم العربية الأصيلة ، من بطولة وشجاعة وكرم ونجدة وغيرها ، وارتبطت بينهما صداقة متينة ووثيقة العرا . +question : من اخو حمزة فى الرضاعة ؟ +prompt : أجب عن السؤال التالي : من اخو حمزة فى الرضاعة ؟ الجواب هو +pred_answer : محمد بن عبد الله صلى الله عليه +answer : محمد بن عبد الله بن عبد المطلب + +context : تربى حمزة بن عبد المطلب في كنف والده عبد المطلب بن هاشم الذي كان سيد قريش وبني هاشم ، ونشأ مع تربه وابن أخيه عبد الله وأخيه من الرضاعة محمد بن عبد الله بن عبد المطلب ، وعاشا ينهلان من الشمائل والقيم العربية الأصيلة ، من بطولة وشجاعة وكرم ونجدة وغيرها ، وارتبطت بينهما صداقة متينة ووثيقة العرا . +question : ماذا جمع بين حمزة و محمد بن عبد الله ؟ +prompt : أجب عن السؤال التالي : ماذا جمع بين حمزة و محمد بن عبد الله ؟ الجواب هو +pred_answer : ما يلي : ( 1 ) +answer : صداقة متينة ووثيقة العرا + +context : القمر هو القمر الطبيعي الوحيد للأرض بالإضافة إلى أنه خامس أكبر قمر طبيعي في المجموعة الشمسية . فهو يعد أكبر قمر طبيعي في المجموعة الشمسية من ناحية نسبة حجمه إلى كوكبه التابع له ، حيث أن قطره يصل إلى ربع قطر الأرض ، كما أن كتلته تصل إلى 1 على 81 من كتلة الأرض ، هذا بالإضافة إلى أنه يعد ثاني أعلى قمر من ناحية الكثافة بعد قمر إيو . +question : ما هو القمر ؟ +prompt : أجب عن السؤال التالي : ما هو القمر ؟ الجواب هو +pred_answer : أن هناك ثلاثة أنواع من +answer : القمر الطبيعي الوحيد للأرض + +context : القمر هو القمر الطبيعي الوحيد للأرض بالإضافة إلى أنه خامس أكبر قمر طبيعي في المجموعة الشمسية . فهو يعد أكبر قمر طبيعي في المجموعة الشمسية من ناحية نسبة حجمه إلى كوكبه التابع له ، حيث أن قطره يصل إلى ربع قطر الأرض ، كما أن كتلته تصل إلى 1 على 81 من كتلة الأرض ، هذا بالإضافة إلى أنه يعد ثاني أعلى قمر من ناحية الكثافة بعد قمر إيو . +question : كم يبلغ قطره ؟ +prompt : أجب عن السؤال التالي : كم يبلغ قطره ؟ الجواب هو +pred_answer : 1 . 5 +answer : ربع قطر الأرض + +context : القمر هو القمر الطبيعي الوحيد للأرض بالإضافة إلى أنه خامس أكبر قمر طبيعي في المجموعة الشمسية . فهو يعد أكبر قمر طبيعي في المجموعة الشمسية من ناحية نسبة حجمه إلى كوكبه التابع له ، حيث أن قطره يصل إلى ربع قطر الأرض ، كما أن كتلته تصل إلى 1 على 81 من كتلة الأرض ، هذا بالإضافة إلى أنه يعد ثاني أعلى قمر من ناحية الكثافة بعد قمر إيو . +question : م تبلغ كتلته ؟ +prompt : أجب عن السؤال التالي : م تبلغ كتلته ؟ الجواب هو +pred_answer : واحد على عشرة آلاف من كتلة +answer : 1 على 81 من كتلة الأرض + +context : ويعد القمر الجرم السماوي الوحيد الذي هبط عليه البشر بأقدامهم . حيث أنه على الرغم من أن برنامج لونا التابع للإتحاد السوفيتي كان الأول من نوعه لينجح في الوصول إلى سطح القمر بواسطة مركبة فضائية غير مأهولة برواد الفضاء في عام 1959 ، إلا أن برنامج أبولو التابع لوكالة ناسا الأمريكية استطاع تحقيق إنجاز السفر بالبعثات البشرية الوحيدة ، والتي بدأت بأول بعثة بشرية مدارية حول القمر هي بعثة أبولو 8 في عام 1968 ، والتي تبعها ستة رحلات بشرية إلى القمر فيما بين عامي 1969 و 1972 – والتي كانت الأولى منها هي رحلة أبولو 11 في عام 1969 . هذا وقد جلبت تلك الرحلات في طريق عودتها نحو 380 كيلوغراما من الصخور القمرية ، والتي استخدمت بعد ذلك في تطوير التفهم الجيولوجي المفصل لأصول نشأة القمر ( والذي ساد المعتقد أن أصول نشأته وتكوينه ترجع إلى 4 . 5 مليارات سنة وذلك في إطار فرضية الاصطدام العملاق والتي شملت في إطارها تكون كوكب الأرض ) ، وكذلك في فهم تكوين البنية الداخلية للقمر ، وكذلك جيولوجيا القمر . +question : لمن اول سفينة فضائية وصلت للقمر ؟ +prompt : أجب عن السؤال التالي : لمن اول سفينة فضائية وصلت للقمر ؟ الجواب هو +pred_answer : لوكالة الفضاء الامريكية ناسا +answer : للإتحاد السوفيتي + +context : ويعد القمر الجرم السماوي الوحيد الذي هبط عليه البشر بأقدامهم . حيث أنه على الرغم من أن برنامج لونا التابع للإتحاد السوفيتي كان الأول من نوعه لينجح في الوصول إلى سطح القمر بواسطة مركبة فضائية غير مأهولة برواد الفضاء في عام 1959 ، إلا أن برنامج أبولو التابع لوكالة ناسا الأمريكية استطاع تحقيق إنجاز السفر بالبعثات البشرية الوحيدة ، والتي بدأت بأول بعثة بشرية مدارية حول القمر هي بعثة أبولو 8 في عام 1968 ، والتي تبعها ستة رحلات بشرية إلى القمر فيما بين عامي 1969 و 1972 – والتي كانت الأولى منها هي رحلة أبولو 11 في عام 1969 . هذا وقد جلبت تلك الرحلات في طريق عودتها نحو 380 كيلوغراما من الصخور القمرية ، والتي استخدمت بعد ذلك في تطوير التفهم الجيولوجي المفصل لأصول نشأة القمر ( والذي ساد المعتقد أن أصول نشأته وتكوينه ترجع إلى 4 . 5 مليارات سنة وذلك في إطار فرضية الاصطدام العملاق والتي شملت في إطارها تكون كوكب الأرض ) ، وكذلك في فهم تكوين البنية الداخلية للقمر ، وكذلك جيولوجيا القمر . +question : متى وصلت اول بعثة بشرية للقمر ؟ +prompt : أجب عن السؤال التالي : متى وصلت اول بعثة بشرية للقمر ؟ الجواب هو في عام +pred_answer : 1969 +answer : 1968 + +context : ويعد القمر الجرم السماوي الوحيد الذي هبط عليه البشر بأقدامهم . حيث أنه على الرغم من أن برنامج لونا التابع للإتحاد السوفيتي كان الأول من نوعه لينجح في الوصول إلى سطح القمر بواسطة مركبة فضائية غير مأهولة برواد الفضاء في عام 1959 ، إلا أن برنامج أبولو التابع لوكالة ناسا الأمريكية استطاع تحقيق إنجاز السفر بالبعثات البشرية الوحيدة ، والتي بدأت بأول بعثة بشرية مدارية حول القمر هي بعثة أبولو 8 في عام 1968 ، والتي تبعها ستة رحلات بشرية إلى القمر فيما بين عامي 1969 و 1972 – والتي كانت الأولى منها هي رحلة أبولو 11 في عام 1969 . هذا وقد جلبت تلك الرحلات في طريق عودتها نحو 380 كيلوغراما من الصخور القمرية ، والتي استخدمت بعد ذلك في تطوير التفهم الجيولوجي المفصل لأصول نشأة القمر ( والذي ساد المعتقد أن أصول نشأته وتكوينه ترجع إلى 4 . 5 مليارات سنة وذلك في إطار فرضية الاصطدام العملاق والتي شملت في إطارها تكون كوكب الأرض ) ، وكذلك في فهم تكوين البنية الداخلية للقمر ، وكذلك جيولوجيا القمر . +question : الى متى يرجع اصل نشأة و تكوين القمر ؟ +prompt : أجب عن السؤال التالي : الى متى يرجع اصل نشأة و تكوين القمر ؟ الجواب هو +pred_answer : : يعود أصل نشأة +answer : 4 5 مليارات سنة + +context : مكة المكرمة هي مدينة مقدسة لدى المسلمين ، بها المسجد الحرام ، والكعبة التي تعد قبلة المسلمين في صلاتهم . تقع غرب المملكة العربية السعودية ، تبعد عن المدينة المنورة حوالي 400 كيلومتر في الاتجاه الجنوبي الغربي ، وعن مدينة الطائف حوالي 120 كيلومترا في الاتجاه الشرقي ، وعلى بعد 72 كيلومترا من مدينة جدة وساحل البحر الأحمر ، وأقرب الموانئ لها هو ميناء جدة الإسلامي ، وأقرب المطارات الدولية لها هو مطار الملك عبد العزيز الدولي . +question : اين تقع مكة المكرمة ؟ +prompt : أجب عن السؤال التالي : اين تقع مكة المكرمة ؟ الجواب هو +pred_answer : في وسط المملكة العربية السعودية ، +answer : تقع غرب المملكة العربية السعودية + +context : مكة المكرمة هي مدينة مقدسة لدى المسلمين ، بها المسجد الحرام ، والكعبة التي تعد قبلة المسلمين في صلاتهم . تقع غرب المملكة العربية السعودية ، تبعد عن المدينة المنورة حوالي 400 كيلومتر في الاتجاه الجنوبي الغربي ، وعن مدينة الطائف حوالي 120 كيلومترا في الاتجاه الشرقي ، وعلى بعد 72 كيلومترا من مدينة جدة وساحل البحر الأحمر ، وأقرب الموانئ لها هو ميناء جدة الإسلامي ، وأقرب المطارات الدولية لها هو مطار الملك عبد العزيز الدولي . +question : كم تبعد مكة المكرمة عن المدينةالمنورة ؟ +prompt : أجب عن السؤال التالي : كم تبعد مكة المكرمة عن المدينةالمنورة ؟ الجواب هو +pred_answer : : المسافة بين مكة المكرمة والمدينة المنورة هي +answer : حوالي 400 كيلومتر في الاتجاه الجنوبي الغربي + +context : مكة المكرمة هي مدينة مقدسة لدى المسلمين ، بها المسجد الحرام ، والكعبة التي تعد قبلة المسلمين في صلاتهم . تقع غرب المملكة العربية السعودية ، تبعد عن المدينة المنورة حوالي 400 كيلومتر في الاتجاه الجنوبي الغربي ، وعن مدينة الطائف حوالي 120 كيلومترا في الاتجاه الشرقي ، وعلى بعد 72 كيلومترا من مدينة جدة وساحل البحر الأحمر ، وأقرب الموانئ لها هو ميناء جدة الإسلامي ، وأقرب المطارات الدولية لها هو مطار الملك عبد العزيز الدولي . +question : كم تبعد مكة المكرمة عن الطائف ؟ +prompt : أجب عن السؤال التالي : كم تبعد مكة المكرمة عن الطائف ؟ الجواب هو +pred_answer : أن المسافة بين الطائف ومكة المكرمة هي +answer : حوالي 120 كيلومترا في الاتجاه الشرقي + +context : مكة المكرمة هي مدينة مقدسة لدى المسلمين ، بها المسجد الحرام ، والكعبة التي تعد قبلة المسلمين في صلاتهم . تقع غرب المملكة العربية السعودية ، تبعد عن المدينة المنورة حوالي 400 كيلومتر في الاتجاه الجنوبي الغربي ، وعن مدينة الطائف حوالي 120 كيلومترا في الاتجاه الشرقي ، وعلى بعد 72 كيلومترا من مدينة جدة وساحل البحر الأحمر ، وأقرب الموانئ لها هو ميناء جدة الإسلامي ، وأقرب المطارات الدولية لها هو مطار الملك عبد العزيز الدولي . تقع مكة المكرمة عند تقاطع درجتي العرض 25 21 شمالا ، والطول 49 39 شرقا ، ويعتبر هذا الموقع من أصعب التكوينات الجيولوجية ، فأغلب صخورها جرانيتية شديدة الصلابة . تبلغ مساحة مدينة مكة المكرمة حوالي 850 كم ، منها 88 كم مأهولة بالسكان ، وتبلغ مساحة المنطقة المركزية المحيطة بالمسجد الحرام حوالي 6 كم ، ويبلغ ارتفاع مكة عن مستوى سطح البحر حوالي 277 مترا . +question : م تبعد مكة المكرمة عن جدة ؟ +prompt : أجب عن السؤال التالي : م تبعد مكة المكرمة عن جدة ؟ الجواب هو +pred_answer : أن المسافة بين المدينتين هي +answer : وعلى بعد 72 كيلومترا + +context : مكة المكرمة هي مدينة مقدسة لدى المسلمين ، بها المسجد الحرام ، والكعبة التي تعد قبلة المسلمين في صلاتهم . تقع غرب المملكة العربية السعودية ، تبعد عن المدينة المنورة حوالي 400 كيلومتر في الاتجاه الجنوبي الغربي ، وعن مدينة الطائف حوالي 120 كيلومترا في الاتجاه الشرقي ، وعلى بعد 72 كيلومترا من مدينة جدة وساحل البحر الأحمر ، وأقرب الموانئ لها هو ميناء جدة الإسلامي ، وأقرب المطارات الدولية لها هو مطار الملك عبد العزيز الدولي . تقع مكة المكرمة عند تقاطع درجتي العرض 25 21 شمالا ، والطول 49 39 شرقا ، ويعتبر هذا الموقع من أصعب التكوينات الجيولوجية ، فأغلب صخورها جرانيتية شديدة الصلابة . تبلغ مساحة مدينة مكة المكرمة حوالي 850 كم ، منها 88 كم مأهولة بالسكان ، وتبلغ مساحة المنطقة المركزية المحيطة بالمسجد الحرام حوالي 6 كم ، ويبلغ ارتفاع مكة عن مستوى سطح البحر حوالي 277 مترا . +question : كم يبلغ ارتفاع مكة عن سطح البحر ؟ +prompt : أجب عن السؤال التالي : كم يبلغ ارتفاع مكة عن سطح البحر ؟ الجواب هو +pred_answer : أن المسافة بين مكة +answer : حوالي 277 مترا + +context : مكة المكرمة هي مدينة مقدسة لدى المسلمين ، بها المسجد الحرام ، والكعبة التي تعد قبلة المسلمين في صلاتهم . تقع غرب المملكة العربية السعودية ، تبعد عن المدينة المنورة حوالي 400 كيلومتر في الاتجاه الجنوبي الغربي ، وعن مدينة الطائف حوالي 120 كيلومترا في الاتجاه الشرقي ، وعلى بعد 72 كيلومترا من مدينة جدة وساحل البحر الأحمر ، وأقرب الموانئ لها هو ميناء جدة الإسلامي ، وأقرب المطارات الدولية لها هو مطار الملك عبد العزيز الدولي . تقع مكة المكرمة عند تقاطع درجتي العرض 25 21 شمالا ، والطول 49 39 شرقا ، ويعتبر هذا الموقع من أصعب التكوينات الجيولوجية ، فأغلب صخورها جرانيتية شديدة الصلابة . تبلغ مساحة مدينة مكة المكرمة حوالي 850 كم ، منها 88 كم مأهولة بالسكان ، وتبلغ مساحة المنطقة المركزية المحيطة بالمسجد الحرام حوالي 6 كم ، ويبلغ ارتفاع مكة عن مستوى سطح البحر حوالي 277 مترا . +question : اين تقع مكة ؟ +prompt : أجب عن السؤال التالي : اين تقع مكة ؟ الجواب هو +pred_answer : انها تقع في الجزء الجنوبي الغربي من شبه الجزيرة العربية ، حيث يحدها +answer : عند تقاطع درجتي العرض 25 21 شمالا والطول 49 39 شرقا + +context : يبلغ عدد سكان مكة بحسب إحصائيات عام 2010 ، حوالي 1675000 نسمة موزعين على أحياء مكة القديمة والجديدة . تضم مكة العديد من المعالم الإسلامية المقدسة ، لعل من أبرزها المسجد الحرام وهو أقدس الأماكن في الأرض بالنسبة للمسلمين ، ذلك لأنه يضم الكعبة المشرفة قبلة المسلمين في الصلاة ، كما أنه أحد المساجد الثلاثة التي تشد إليها الرحال ، وذلك حسب قول النبي محمد : " لا تشد الرحال إلا إلى ثلاثة مساجد مسجدي هذا والمسجد الحرام والمسجد الأقصى " ، بالإضافة إلى ذلك ، تعد مكة مقصد المسلمين في موسم الحج والعمرة إذ أنها تضم المناطق التي يقصدها المسلمون خلاله وهي مزدلفة ، منى وعرفة . +question : كم يبلغ عدد سكان مكة عام 2010 +prompt : أجب عن السؤال التالي : كم يبلغ عدد سكان مكة عام 2010 الجواب هو +pred_answer : 1 . 6 مليون نسمة +answer : 1675000 نسمة + +context : يبلغ عدد سكان مكة بحسب إحصائيات عام 2010 ، حوالي 1675000 نسمة موزعين على أحياء مكة القديمة والجديدة . تضم مكة العديد من المعالم الإسلامية المقدسة ، لعل من أبرزها المسجد الحرام وهو أقدس الأماكن في الأرض بالنسبة للمسلمين ، ذلك لأنه يضم الكعبة المشرفة قبلة المسلمين في الصلاة ، كما أنه أحد المساجد الثلاثة التي تشد إليها الرحال ، وذلك حسب قول النبي محمد : " لا تشد الرحال إلا إلى ثلاثة مساجد مسجدي هذا والمسجد الحرام والمسجد الأقصى " ، بالإضافة إلى ذلك ، تعد مكة مقصد المسلمين في موسم الحج والعمرة إذ أنها تضم المناطق التي يقصدها المسلمون خلاله وهي مزدلفة ، منى وعرفة . +question : ما اهمية مكة المكرمة ؟ +prompt : أجب عن السؤال التالي : ما اهمية مكة المكرمة ؟ الجواب هو +pred_answer : ان مكة المكرمة هي مهبط الوحي على سيدنا محمد صلى الله عليه وسلم ، وهي +answer : الإسلامية المقدسة لعل من أبرزها المسجد الحرام وهو أقدس الأماكن في الأرض بالنسبة للمسلمين + +context : يبلغ عدد سكان مكة بحسب إحصائيات عام 2010 ، حوالي 1675000 نسمة موزعين على أحياء مكة القديمة والجديدة . تضم مكة العديد من المعالم الإسلامية المقدسة ، لعل من أبرزها المسجد الحرام وهو أقدس الأماكن في الأرض بالنسبة للمسلمين ، ذلك لأنه يضم الكعبة المشرفة قبلة المسلمين في الصلاة ، كما أنه أحد المساجد الثلاثة التي تشد إليها الرحال ، وذلك حسب قول النبي محمد : " لا تشد الرحال إلا إلى ثلاثة مساجد مسجدي هذا والمسجد الحرام والمسجد الأقصى " ، بالإضافة إلى ذلك ، تعد مكة مقصد المسلمين في موسم الحج والعمرة إذ أنها تضم المناطق التي يقصدها المسلمون خلاله وهي مزدلفة ، منى وعرفة . +question : لما 1 ا يقصد المسلمون مكة المكرمة ؟ +prompt : أجب عن السؤال التالي : لما 1 ا يقصد المسلمون مكة المكرمة ؟ الجواب هو +pred_answer : أن المسلمين عندما هاجروا من مكة المكرمة إلى المدينة المنورة في السنة الأولى للهجرة ، +answer : المسجد الحرام وهو أقدس الأماكن في الأرض بالنسبة للمسلمين ذلك لأنه يضم الكعبة المشرفة + +context : الأبراج الفلكية هي تقسيمات دائرة البروج أو مسار الشمس باثن عشر قسم سماوي ، وما يميز الأبراج عن الكوكبات أن الكوكبات هي تقسيمات وضعت لتحديد خريطة للسماء مع جميع أجرامها ، و هي تجمعات لنجوم مرئية بالعين المجردة ، و الأبراج هي تقس مات للدائرة التي تمر فيها الشمس والقمر والكواكب الثمانية . +question : ما هى الابراج الفلكية ؟ +prompt : أجب عن السؤال التالي : ما هى الابراج الفلكية ؟ الجواب هو +pred_answer : : برج الحمل ( 21 آذار – 20 +answer : هي تقسيمات دائرة البروج أو مسار الشمس + +context : الأبراج الفلكية هي تقسيمات دائرة البروج أو مسار الشمس باثن عشر قسم سماوي ، وما يميز الأبراج عن الكوكبات أن الكوكبات هي تقسيمات وضعت لتحديد خريطة للسماء مع جميع أجرامها ، و هي تجمعات لنجوم مرئية بالعين المجردة ، و الأبراج هي تقس مات للدائرة التي تمر فيها الشمس والقمر والكواكب الثمانية . +question : كم عدد الابراج الفلكية ؟ +prompt : أجب عن السؤال التالي : كم عدد الابراج الفلكية ؟ الجواب هو +pred_answer : 12 برجا ، وكل برج له +answer : باثن عشر قسم سماوي + +context : الأبراج الفلكية هي تقسيمات دائرة البروج أو مسار الشمس باثن عشر قسم سماوي ، وما يميز الأبراج عن الكوكبات أن الكوكبات هي تقسيمات وضعت لتحديد خريطة للسماء مع جميع أجرامها ، و هي تجمعات لنجوم مرئية بالعين المجردة ، و الأبراج هي تقس مات للدائرة التي تمر فيها الشمس والقمر والكواكب الثمانية . +question : مازا يميز الابراج عن الكوكبات ؟ +prompt : أجب عن السؤال التالي : مازا يميز الابراج عن الكوكبات ؟ الجواب هو +pred_answer : أن لكل برج خصائصه التي تميزه عن غيره من الأبراج الأخرى ، فالبرج الذي ولد فيه الإنسان يتميز +answer : بالعين المجردة و الأبراج هي تقس مات للدائرة التي تمر فيها الشمس والقمر والكواكب الثمانية + +context : الأبراج الفلكية هي تقسيمات دائرة البروج أو مسار الشمس باثن عشر قسم سماوي ، وما يميز الأبراج عن الكوكبات أن الكوكبات هي تقسيمات وضعت لتحديد خريطة للسماء مع جميع أجرامها ، و هي تجمعات لنجوم مرئية بالعين المجردة ، و الأبراج هي تقس مات للدائرة التي تمر فيها الشمس والقمر والكواكب الثمانية . وعدد الأبراج عل دائرة البروج 12 برجا ، وهي تغطي جزءا منها . تحمل الأبراج أسماء حيوانات وأشياء وشخصيات دينية وأسطورية . ل ل منها 30 درجة قوس ة علي مسار الشمس ، والشمس تمر ببرج واحد في شهر شمسي وتسمى الشهور الشمسية في التقو م الهجر ة الشمس ة بهذا البروج الاثن عشر ة . +question : ما هى الابراج الفلكية ؟ +prompt : أجب عن السؤال التالي : ما هى الابراج الفلكية ؟ الجواب هو +pred_answer : : برج الحمل ( 21 آذار – +answer : تقسيمات دائرة البروج أو مسار الشمس + +context : الأبراج الفلكية هي تقسيمات دائرة البروج أو مسار الشمس باثن عشر قسم سماوي ، وما يميز الأبراج عن الكوكبات أن الكوكبات هي تقسيمات وضعت لتحديد خريطة للسماء مع جميع أجرامها ، و هي تجمعات لنجوم مرئية بالعين المجردة ، و الأبراج هي تقس مات للدائرة التي تمر فيها الشمس والقمر والكواكب الثمانية . وعدد الأبراج عل دائرة البروج 12 برجا ، وهي تغطي جزءا منها . تحمل الأبراج أسماء حيوانات وأشياء وشخصيات دينية وأسطورية . ل ل منها 30 درجة قوس ة علي مسار الشمس ، والشمس تمر ببرج واحد في شهر شمسي وتسمى الشهور الشمسية في التقو م الهجر ة الشمس ة بهذا البروج الاثن عشر ة . +question : كم عد الابراج الفلكية ؟ +prompt : أجب عن السؤال التالي : كم عد الابراج الفلكية ؟ الجواب هو +pred_answer : ان عدد الابراج الفلكية هي اثنى عشر بر +answer : وعدد الأبراج عل دائرة البروج 12 برجا + +context : الأبراج الفلكية هي تقسيمات دائرة البروج أو مسار الشمس باثن عشر قسم سماوي ، وما يميز الأبراج عن الكوكبات أن الكوكبات هي تقسيمات وضعت لتحديد خريطة للسماء مع جميع أجرامها ، و هي تجمعات لنجوم مرئية بالعين المجردة ، و الأبراج هي تقس مات للدائرة التي تمر فيها الشمس والقمر والكواكب الثمانية . وعدد الأبراج عل دائرة البروج 12 برجا ، وهي تغطي جزءا منها . تحمل الأبراج أسماء حيوانات وأشياء وشخصيات دينية وأسطورية . ل ل منها 30 درجة قوس ة علي مسار الشمس ، والشمس تمر ببرج واحد في شهر شمسي وتسمى الشهور الشمسية في التقو م الهجر ة الشمس ة بهذا البروج الاثن عشر ة . +question : بمازا تسمى الابراج ؟ +prompt : أجب عن السؤال التالي : بمازا تسمى الابراج ؟ الجواب هو +pred_answer : ما يلي : 1 - الأبراج هي مجموعة من النجوم +answer : تحمل الأبراج أسماء حيوانات وأشياء وشخصيات دينية وأسطورية + +context : 30 . تتقاطع دائرتي الأبراج والدائرة الاستوائية السماوية عند نقطتين : النقطة الأولى وهي الحمل ( ) وعند النقطة الثاني وهي الميزان ( ) . وتتقاطع الدائرة السماوية الكبرى التي تحوي القطبين السماويين ( P and P ' ) مع دائرة الأراج عند نقطة 0 السرطان ( ) وعند 0 الجدي ( ) . في هذا الشكل تشغل الشمس مكان بداية برج الدلو +question : كم ع نقط تقاطع دائرتى الابراج و الدائرة الاستوائية ؟ +prompt : أجب عن السؤال التالي : كم ع نقط تقاطع دائرتى الابراج و الدائرة الاستوائية ؟ الجواب هو +pred_answer : ( 1 ) +answer : نقطتين + +context : 30 . تتقاطع دائرتي الأبراج والدائرة الاستوائية السماوية عند نقطتين : النقطة الأولى وهي الحمل ( ) وعند النقطة الثاني وهي الميزان ( ) . وتتقاطع الدائرة السماوية الكبرى التي تحوي القطبين السماويين ( P and P ' ) مع دائرة الأراج عند نقطة 0 السرطان ( ) وعند 0 الجدي ( ) . في هذا الشكل تشغل الشمس مكان بداية برج الدلو +question : بمازا تسمى نقطة تقاطع دائرة الابراج و الدائرة الاستوائية الاولى ؟ +prompt : أجب عن السؤال التالي : بمازا تسمى نقطة تقاطع دائرة الابراج و الدائرة الاستوائية الاولى ؟ الجواب هو +pred_answer : ان النقطة +answer : الحمل + +context : 30 . تتقاطع دائرتي الأبراج والدائرة الاستوائية السماوية عند نقطتين : النقطة الأولى وهي الحمل ( ) وعند النقطة الثاني وهي الميزان ( ) . وتتقاطع الدائرة السماوية الكبرى التي تحوي القطبين السماويين ( P and P ' ) مع دائرة الأراج عند نقطة 0 السرطان ( ) وعند 0 الجدي ( ) . في هذا الشكل تشغل الشمس مكان بداية برج الدلو +question : بمازا تسمى نقطة تقاطع دائرة الابراج و الجائرة الاستوائية الثانية ؟ +prompt : أجب عن السؤال التالي : بمازا تسمى نقطة تقاطع دائرة الابراج و الجائرة الاستوائية الثانية ؟ الجواب هو +pred_answer : ان النقطة +answer : الميزان + +context : شاكيرا إيزابيل مبارك ريبول اسمها الفني شاكيرا ( بالإنجليزية : Shakira ) تلفظ إسباني : ( t ) a ki a isa el me a ak ri pol ; English ki r ولدت في ( 2 فبراير 1977 ) بمدينة بارانكيا في كولومبيا ، هي مغنية بوب وروك من أصل لبناني معروفة بالرقص . +question : ما اسم شاكيرا بالكامل ؟ +prompt : أجب عن السؤال التالي : ما اسم شاكيرا بالكامل ؟ الجواب هو +pred_answer : : شاكيرا .وإذا +answer : شاكيرا إيزابيل مبارك ريبول + +context : شاكيرا إيزابيل مبارك ريبول اسمها الفني شاكيرا ( بالإنجليزية : Shakira ) تلفظ إسباني : ( t ) a ki a isa el me a ak ri pol ; English ki r ولدت في ( 2 فبراير 1977 ) بمدينة بارانكيا في كولومبيا ، هي مغنية بوب وروك من أصل لبناني معروفة بالرقص . +question : متى ولدت شاكيرا ؟ +prompt : أجب عن السؤال التالي : متى ولدت شاكيرا ؟ الجواب هو +pred_answer : عندما كانت في السادسة من عمرها +answer : ولدت في 2 فبراير 1977 + +context : شاكيرا إيزابيل مبارك ريبول اسمها الفني شاكيرا ( بالإنجليزية : Shakira ) تلفظ إسباني : ( t ) a ki a isa el me a ak ri pol ; English ki r ولدت في ( 2 فبراير 1977 ) بمدينة بارانكيا في كولومبيا ، هي مغنية بوب وروك من أصل لبناني معروفة بالرقص . +question : اين ولدت شاكيرا ؟ +prompt : أجب عن السؤال التالي : اين ولدت شاكيرا ؟ الجواب هو +pred_answer : في مدينة بارانكيا الكولومبية ، +answer : بمدينة بارانكيا في كولومبيا + +context : شاكيرا ولدت في بارانكيا ( Barranquilla ) وفي عمر الثالثة عشرة انتقلت إلى بوغوتا ( Bogot ) . بعد سنة أصدرت ألبومها الأول Magia ( سحر ) ثم أصدرت ألبومها الثاني Peligro ( خطر ) . بعد ذلك اتجهت إلى التمثيل وحصلت لها على دور في رواية تلفزيونية كولومبية . في عام 1995 عادت إلى الغناء : ألبومها Pies Descalzos ( حافية القدمين ) كان له دور كبير في نجاحها . أغنيتها المفردة Estoy Aqu ( أنا هنا ) حصلت على المرتبة الأولى في كولومبيا وجذبت انتباه عالمي إليها . +question : اين ولدت شاكيرا . +prompt : أجب عن السؤال التالي : اين ولدت شاكيرا . الجواب هو +pred_answer : انها ولدت في +answer : بارانكيا + +context : شاكيرا ولدت في بارانكيا ( Barranquilla ) وفي عمر الثالثة عشرة انتقلت إلى بوغوتا ( Bogot ) . بعد سنة أصدرت ألبومها الأول Magia ( سحر ) ثم أصدرت ألبومها الثاني Peligro ( خطر ) . بعد ذلك اتجهت إلى التمثيل وحصلت لها على دور في رواية تلفزيونية كولومبية . في عام 1995 عادت إلى الغناء : ألبومها Pies Descalzos ( حافية القدمين ) كان له دور كبير في نجاحها . أغنيتها المفردة Estoy Aqu ( أنا هنا ) حصلت على المرتبة الأولى في كولومبيا وجذبت انتباه عالمي إليها . +question : متى انتقلت شاكيرا الى بوغوتا ؟ +prompt : أجب عن السؤال التالي : متى انتقلت شاكيرا الى بوغوتا ؟ الجواب هو +pred_answer : عندما كانت تبلغ من +answer : وفي عمر الثالثة عشرة + +context : شاكيرا ولدت في بارانكيا ( Barranquilla ) وفي عمر الثالثة عشرة انتقلت إلى بوغوتا ( Bogot ) . بعد سنة أصدرت ألبومها الأول Magia ( سحر ) ثم أصدرت ألبومها الثاني Peligro ( خطر ) . بعد ذلك اتجهت إلى التمثيل وحصلت لها على دور في رواية تلفزيونية كولومبية . في عام 1995 عادت إلى الغناء : ألبومها Pies Descalzos ( حافية القدمين ) كان له دور كبير في نجاحها . أغنيتها المفردة Estoy Aqu ( أنا هنا ) حصلت على المرتبة الأولى في كولومبيا وجذبت انتباه عالمي إليها . +question : ما اسم الابوم الاول لشاكيرا ؟ +prompt : أجب عن السؤال التالي : ما اسم الابوم الاول لشاكيرا ؟ الجواب هو +pred_answer : شاك +answer : عمر + +context : تقابلت مع Emilio Estefan الذي كان المنتج لألبومها التالي : D nde est n los ladrones ? ( أين هم اللصوص ؟ ) . كلف هذا الألبوم حوالي ثلاثة ملايين دولار . احتوى الألبوم على أغنية Inevitable ( لا يمكن تجنبه ) وأغنية Ojos As ( كهذه العيون ) . خلط شاكيرا لغناء الروك واللاتيني ، أعطاها شعبية كبيرة في إسبانيا وفي الدول التي تتحدث الإسبانية . +question : ما اسم المنتج لالبوم شاكيرا اين هم اللصوص ؟ +prompt : أجب عن السؤال التالي : ما اسم المنتج لالبوم شاكيرا اين هم اللصوص ؟ الجواب هو +pred_answer : ان البوم شاكيرا تم سرقته +answer : Emilio Estefan + +context : تقابلت مع Emilio Estefan الذي كان المنتج لألبومها التالي : D nde est n los ladrones ? ( أين هم اللصوص ؟ ) . كلف هذا الألبوم حوالي ثلاثة ملايين دولار . احتوى الألبوم على أغنية Inevitable ( لا يمكن تجنبه ) وأغنية Ojos As ( كهذه العيون ) . خلط شاكيرا لغناء الروك واللاتيني ، أعطاها شعبية كبيرة في إسبانيا وفي الدول التي تتحدث الإسبانية . +question : كم تكلفة البوم شاكيرا ( اين هم اللصوص ) ؟ +prompt : أجب عن السؤال التالي : كم تكلفة البوم شاكيرا ( اين هم اللصوص ) ؟ الجواب هو +pred_answer : ان هذا الالبوم كلف +answer : حوالي ثلاثة ملايين دولار + +context : تقابلت مع Emilio Estefan الذي كان المنتج لألبومها التالي : D nde est n los ladrones ? ( أين هم اللصوص ؟ ) . كلف هذا الألبوم حوالي ثلاثة ملايين دولار . احتوى الألبوم على أغنية Inevitable ( لا يمكن تجنبه ) وأغنية Ojos As ( كهذه العيون ) . خلط شاكيرا لغناء الروك واللاتيني ، أعطاها شعبية كبيرة في إسبانيا وفي الدول التي تتحدث الإسبانية . +question : مازا اعطى خلط شاكيرا لغناء الروك و اللاتينى ؟ +prompt : أجب عن السؤال التالي : مازا اعطى خلط شاكيرا لغناء الروك و اللاتينى ؟ الجواب هو +pred_answer : نعم ، لقد اعطاها الكثير من الشهرة و النجاح .لقد +answer : أعطاها شعبية كبيرة في إسبانيا وفي الدول التي تتحدث الإسبانية + +context : التوحد كما يعرف باسم الذاتوية أو اضطراب التوحد الكلاسيكي . ويستخدم بعض الكتاب كلمة " توحد أو ذاتوية " عند الإشارة إلى مجموعة من اضطرابات طيف التوحد أو مختلف اضطرابات النمو المتفشية ، هو اضطراب النمو العصبي الذي يتصف بضعف التفاعل الاجتماعي ، والتواصل اللفظي وغير اللفظي ، وبأنماط سلوكية مقيدة ومتكررة . +question : بماذا يعرف التوحد ؟ +prompt : أجب عن السؤال التالي : بماذا يعرف التوحد ؟ الجواب هو +pred_answer : أنه اضطراب في النمو العصبي يظهر على شكل تأخر +answer : يعرف باسم الذاتوية أو اضطراب التوحد الكلاسيكي + +context : التوحد كما يعرف باسم الذاتوية أو اضطراب التوحد الكلاسيكي . ويستخدم بعض الكتاب كلمة " توحد أو ذاتوية " عند الإشارة إلى مجموعة من اضطرابات طيف التوحد أو مختلف اضطرابات النمو المتفشية ، هو اضطراب النمو العصبي الذي يتصف بضعف التفاعل الاجتماعي ، والتواصل اللفظي وغير اللفظي ، وبأنماط سلوكية مقيدة ومتكررة . +question : ما هو التوحد ؟ +prompt : أجب عن السؤال التالي : ما هو التوحد ؟ الجواب هو +pred_answer : أن الطفل المصاب بالتوحد يكون غير قادر على التواصل مع الآخرين ، كما أنه لا يستطيع التعبير عن +answer : العصبي الذي يتصف بضعف التفاعل الاجتماعي والتواصل اللفظي وغير اللفظي وبأنماط سلوكية مقيدة ومتكررة + +context : التوحد كما يعرف باسم الذاتوية أو اضطراب التوحد الكلاسيكي . ويستخدم بعض الكتاب كلمة " توحد أو ذاتوية " عند الإشارة إلى مجموعة من اضطرابات طيف التوحد أو مختلف اضطرابات النمو المتفشية ، هو اضطراب النمو العصبي الذي يتصف بضعف التفاعل الاجتماعي ، والتواصل اللفظي وغير اللفظي ، وبأنماط سلوكية مقيدة ومتكررة . +question : متى تستخدم كلمة " توحد او ذاتوية " ؟ +prompt : أجب عن السؤال التالي : متى تستخدم كلمة " توحد او ذاتوية " ؟ الجواب هو +pred_answer : عندما يكون هناك شيء مشترك بينك وبين شخص آخر .عندما تتحدث مع شخص ما +answer : عند الإشارة إلى مجموعة من اضطرابات طيف التوحد أو مختلف اضطرابات النمو المتفشية + +context : التوحد كما يعرف باسم الذاتوية أو اضطراب التوحد الكلاسيكي . ويستخدم بعض الكتاب كلمة " توحد أو ذاتوية " عند الإشارة إلى مجموعة من اضطرابات طيف التوحد أو مختلف اضطرابات النمو المتفشية ، هو اضطراب النمو العصبي الذي يتصف بضعف التفاعل الاجتماعي ، والتواصل اللفظي وغير اللفظي ، وبأنماط سلوكية مقيدة ومتكررة . وتتطلب معايير التشخيص ضرورة أن تصبح الأعراض واضحة قبل أن يبلغ الطفل من العمر ثلاث سنوات . ويؤثر التوحد على عملية معالجة البيانات في المخ وذلك بتغييره لكيفية ارتباط وانتظام الخلايا العصبية ونقاط اشتباكها ؛ ولم يفهم جيدا كيف يحدث هذا الأمر . ويعتبر التوحد أحد ثلاثة اضطرابات تندرج تحت مرض طيف التوحد ( ASDs ) ، ويكون الاضطرابان الثاني والثالث معا متلازمة أسبرجر ، التي تفتقر إلى التأخر في النمو المعرفي وفي اللغة ، وما يعرف باضطراب النمو المتفشي ( يختصر عادة باسم PDD NOS ) ويتم تشخيصه في حالة عدم تواجد معايير تحديد مرض التوحد أو متلازمة أسبرجر . +question : ما هو التوحد ؟ +prompt : أجب عن السؤال التالي : ما هو التوحد ؟ الجواب هو +pred_answer : أن الطفل المصاب بالتوحد يكون غير قادر على التواصل مع الآخرين ، كما أنه لا يستطيع التعبير عن +answer : العصبي الذي يتصف بضعف التفاعل الاجتماعي والتواصل اللفظي وغير اللفظي وبأنماط سلوكية مقيدة ومتكررة + +context : التوحد كما يعرف باسم الذاتوية أو اضطراب التوحد الكلاسيكي . ويستخدم بعض الكتاب كلمة " توحد أو ذاتوية " عند الإشارة إلى مجموعة من اضطرابات طيف التوحد أو مختلف اضطرابات النمو المتفشية ، هو اضطراب النمو العصبي الذي يتصف بضعف التفاعل الاجتماعي ، والتواصل اللفظي وغير اللفظي ، وبأنماط سلوكية مقيدة ومتكررة . وتتطلب معايير التشخيص ضرورة أن تصبح الأعراض واضحة قبل أن يبلغ الطفل من العمر ثلاث سنوات . ويؤثر التوحد على عملية معالجة البيانات في المخ وذلك بتغييره لكيفية ارتباط وانتظام الخلايا العصبية ونقاط اشتباكها ؛ ولم يفهم جيدا كيف يحدث هذا الأمر . ويعتبر التوحد أحد ثلاثة اضطرابات تندرج تحت مرض طيف التوحد ( ASDs ) ، ويكون الاضطرابان الثاني والثالث معا متلازمة أسبرجر ، التي تفتقر إلى التأخر في النمو المعرفي وفي اللغة ، وما يعرف باضطراب النمو المتفشي ( يختصر عادة باسم PDD NOS ) ويتم تشخيصه في حالة عدم تواجد معايير تحديد مرض التوحد أو متلازمة أسبرجر . +question : متى يتم تشخيص اضطراب النمو المتفشى ؟ +prompt : أجب عن السؤال التالي : متى يتم تشخيص اضطراب النمو المتفشى ؟ الجواب هو +pred_answer : عندما يكون هناك شك في أن الطفل يعاني من هذا الاضطراب . +answer : حالة عدم تواجد معايير تحديد مرض التوحد أو متلازمة أسبرجر + +context : التوحد كما يعرف باسم الذاتوية أو اضطراب التوحد الكلاسيكي . ويستخدم بعض الكتاب كلمة " توحد أو ذاتوية " عند الإشارة إلى مجموعة من اضطرابات طيف التوحد أو مختلف اضطرابات النمو المتفشية ، هو اضطراب النمو العصبي الذي يتصف بضعف التفاعل الاجتماعي ، والتواصل اللفظي وغير اللفظي ، وبأنماط سلوكية مقيدة ومتكررة . وتتطلب معايير التشخيص ضرورة أن تصبح الأعراض واضحة قبل أن يبلغ الطفل من العمر ثلاث سنوات . ويؤثر التوحد على عملية معالجة البيانات في المخ وذلك بتغييره لكيفية ارتباط وانتظام الخلايا العصبية ونقاط اشتباكها ؛ ولم يفهم جيدا كيف يحدث هذا الأمر . ويعتبر التوحد أحد ثلاثة اضطرابات تندرج تحت مرض طيف التوحد ( ASDs ) ، ويكون الاضطرابان الثاني والثالث معا متلازمة أسبرجر ، التي تفتقر إلى التأخر في النمو المعرفي وفي اللغة ، وما يعرف باضطراب النمو المتفشي ( يختصر عادة باسم PDD NOS ) ويتم تشخيصه في حالة عدم تواجد معايير تحديد مرض التوحد أو متلازمة أسبرجر . +question : على مازا يؤثر التوحد ؟ +prompt : أجب عن السؤال التالي : على مازا يؤثر التوحد ؟ الجواب هو +pred_answer : نعم ، حيث أظهرت الدراسات أن +answer : عملية معالجة البيانات في المخ + +context : ويصاب بمرض التوحد حوالي 1 - 2 من كل 1000 شخص في جميع أنحاء العالم ، ويصاب به الأولاد 4 مرات أكثر من البنات . وأفادت مراكز السيطرة على الأمراض والوقاية منها ( CDC ) أنه تم إصابة 1 . 5 % من أطفال الأمم المتحدة ( واحد من كل 68 ) بالتوحد ، وذلك اعتبارا من عام 2014 ، بزيادة بلغت نسبتها 30 % عن عام 2012 ، حيث كان يصاب فرد من كل 88 . ولقد زاد عدد المصابين بالمرض بشكل كبير منذ الثمانينات ، ويرجع ذلك جزئيا إلى التغيرات التي حدت في تشخيص المرض ، وإلى الحوافز المالية التي خصصتها الدولة لتحديد أسبابه ؛ ولم تتم الإجابة عما إذا كان انتشار المرض قد زاد فعليا أم لا . +question : ما هى نسبة الاصابة بالتوحد ؟ +prompt : أجب عن السؤال التالي : ما هى نسبة الاصابة بالتوحد ؟ الجواب هو +pred_answer : 1 . 5 % من الاطفال الذين +answer : 1 2 من كل 1000 شخص + +context : ويصاب بمرض التوحد حوالي 1 - 2 من كل 1000 شخص في جميع أنحاء العالم ، ويصاب به الأولاد 4 مرات أكثر من البنات . وأفادت مراكز السيطرة على الأمراض والوقاية منها ( CDC ) أنه تم إصابة 1 . 5 % من أطفال الأمم المتحدة ( واحد من كل 68 ) بالتوحد ، وذلك اعتبارا من عام 2014 ، بزيادة بلغت نسبتها 30 % عن عام 2012 ، حيث كان يصاب فرد من كل 88 . ولقد زاد عدد المصابين بالمرض بشكل كبير منذ الثمانينات ، ويرجع ذلك جزئيا إلى التغيرات التي حدت في تشخيص المرض ، وإلى الحوافز المالية التي خصصتها الدولة لتحديد أسبابه ؛ ولم تتم الإجابة عما إذا كان انتشار المرض قد زاد فعليا أم لا . +question : ما نسبة اصاية الاولاد بالتوحد ؟ +prompt : أجب عن السؤال التالي : ما نسبة اصاية الاولاد بالتوحد ؟ الجواب هو +pred_answer : 1 . 5 % من +answer : 4 مرات أكثر من البنات + +context : ويصاب بمرض التوحد حوالي 1 - 2 من كل 1000 شخص في جميع أنحاء العالم ، ويصاب به الأولاد 4 مرات أكثر من البنات . وأفادت مراكز السيطرة على الأمراض والوقاية منها ( CDC ) أنه تم إصابة 1 . 5 % من أطفال الأمم المتحدة ( واحد من كل 68 ) بالتوحد ، وذلك اعتبارا من عام 2014 ، بزيادة بلغت نسبتها 30 % عن عام 2012 ، حيث كان يصاب فرد من كل 88 . ولقد زاد عدد المصابين بالمرض بشكل كبير منذ الثمانينات ، ويرجع ذلك جزئيا إلى التغيرات التي حدت في تشخيص المرض ، وإلى الحوافز المالية التي خصصتها الدولة لتحديد أسبابه ؛ ولم تتم الإجابة عما إذا كان انتشار المرض قد زاد فعليا أم لا . +question : ما نسبة اصابة اطفال الولايات المتحدة بالتوحد ؟ +prompt : أجب عن السؤال التالي : ما نسبة اصابة اطفال الولايات المتحدة بالتوحد ؟ الجواب هو +pred_answer : واحد من +answer : 1 5 + +context : نادي مانشستر يونايتد لكرة القدم ( بالإنجليزية : Manchester United Football Club ) ويعرف رسميا باسم مانشستر يونايتد ( بالإنجليزية : Manchester United F . C ) هو نادي كرة قدم إنجليزي يعد من أعرق أندية العالم وأميزها وواحدا من أنجح الفرق الإنجليزية والعالمية على مر التاريخ ، ملعبه هو أولد ترافورد مسرح الأحلام بمدينة مانشستر إنجلترا . +question : ما اسم النادى بالانجليزية ؟ +prompt : أجب عن السؤال التالي : ما اسم النادى بالانجليزية ؟ الجواب هو +pred_answer : ( Western Union ) ، وهو نادى +answer : Manchester United Football Club + +context : نادي مانشستر يونايتد لكرة القدم ( بالإنجليزية : Manchester United Football Club ) ويعرف رسميا باسم مانشستر يونايتد ( بالإنجليزية : Manchester United F . C ) هو نادي كرة قدم إنجليزي يعد من أعرق أندية العالم وأميزها وواحدا من أنجح الفرق الإنجليزية والعالمية على مر التاريخ ، ملعبه هو أولد ترافورد مسرح الأحلام بمدينة مانشستر إنجلترا . +question : ما الاسم الرسمى للنادى ؟ +prompt : أجب عن السؤال التالي : ما الاسم الرسمى للنادى ؟ الجواب هو +pred_answer : " نادى الزمالك " لأنه هو الاسم الرسمى +answer : Manchester United F C + +context : نادي مانشستر يونايتد لكرة القدم ( بالإنجليزية : Manchester United Football Club ) ويعرف رسميا باسم مانشستر يونايتد ( بالإنجليزية : Manchester United F . C ) هو نادي كرة قدم إنجليزي يعد من أعرق أندية العالم وأميزها وواحدا من أنجح الفرق الإنجليزية والعالمية على مر التاريخ ، ملعبه هو أولد ترافورد مسرح الأحلام بمدينة مانشستر إنجلترا . +question : ما بلد منشا النادى ؟ +prompt : أجب عن السؤال التالي : ما بلد منشا النادى ؟ الجواب هو +pred_answer : مصر .سؤال آخر +answer : نادي كرة قدم إنجليزي + +context : نادي مانشستر يونايتد لكرة القدم ويعرف رسميا باسم مانشستر يونايتد هو نادي كرة قدم إنجليزي يعد من أعرق أندية العالم وأميزها وواحدا من أنجح الفرق الإنجليزية والعالمية على مر التاريخ ، ملعبه هو أولد ترافورد " مسرح الأحلام " بمدينة مانشستر إنجلترا . فاز بالعديد من الكؤوس في الكرة الإنجليزية وهذا يشمل الرقم القياسي لعدد ألقاب الدوري الإنجليزي وهو 20 لقبا و 12 لقبا من كأس الإتحاد الإنجليزي و 5 ألقاب من كأس رابطة الأندية الإنجليزية المحترفة وكذلك 21 لقبا بدرع الاتحاد الإنجليزي . فاز النادي أيضا ب 3 ألقاب من دوري أبطال أوروبا و 1 من كل من هذه الكؤوس : الدوري الأوروبي ، كأس أبطال الكؤوس الأوروبي ، كأس السوبر الأوروبي ، كأس الإنتركونتيننتال وكأس العالم للأندية ، مالكه الحالي هو مالكوم جليزر . +question : ما ملعب نادى مانشستر ؟ +prompt : أجب عن السؤال التالي : ما ملعب نادى مانشستر ؟ الجواب هو +pred_answer : ملعب أولد ترافورد +answer : أولد ترافورد + +context : نادي مانشستر يونايتد لكرة القدم ويعرف رسميا باسم مانشستر يونايتد هو نادي كرة قدم إنجليزي يعد من أعرق أندية العالم وأميزها وواحدا من أنجح الفرق الإنجليزية والعالمية على مر التاريخ ، ملعبه هو أولد ترافورد " مسرح الأحلام " بمدينة مانشستر إنجلترا . فاز بالعديد من الكؤوس في الكرة الإنجليزية وهذا يشمل الرقم القياسي لعدد ألقاب الدوري الإنجليزي وهو 20 لقبا و 12 لقبا من كأس الإتحاد الإنجليزي و 5 ألقاب من كأس رابطة الأندية الإنجليزية المحترفة وكذلك 21 لقبا بدرع الاتحاد الإنجليزي . فاز النادي أيضا ب 3 ألقاب من دوري أبطال أوروبا و 1 من كل من هذه الكؤوس : الدوري الأوروبي ، كأس أبطال الكؤوس الأوروبي ، كأس السوبر الأوروبي ، كأس الإنتركونتيننتال وكأس العالم للأندية ، مالكه الحالي هو مالكوم جليزر . +question : ما معنى اولد ترافود اسم نادى مانشستر ؟ +prompt : أجب عن السؤال التالي : ما معنى اولد ترافود اسم نادى مانشستر ؟ الجواب هو +pred_answer : : ولد تراف +answer : مسرح الأحلام + +context : نادي مانشستر يونايتد لكرة القدم ويعرف رسميا باسم مانشستر يونايتد هو نادي كرة قدم إنجليزي يعد من أعرق أندية العالم وأميزها وواحدا من أنجح الفرق الإنجليزية والعالمية على مر التاريخ ، ملعبه هو أولد ترافورد " مسرح الأحلام " بمدينة مانشستر إنجلترا . فاز بالعديد من الكؤوس في الكرة الإنجليزية وهذا يشمل الرقم القياسي لعدد ألقاب الدوري الإنجليزي وهو 20 لقبا و 12 لقبا من كأس الإتحاد الإنجليزي و 5 ألقاب من كأس رابطة الأندية الإنجليزية المحترفة وكذلك 21 لقبا بدرع الاتحاد الإنجليزي . فاز النادي أيضا ب 3 ألقاب من دوري أبطال أوروبا و 1 من كل من هذه الكؤوس : الدوري الأوروبي ، كأس أبطال الكؤوس الأوروبي ، كأس السوبر الأوروبي ، كأس الإنتركونتيننتال وكأس العالم للأندية ، مالكه الحالي هو مالكوم جليزر . +question : اين يقع نادى فرقة مانشستر ؟ +prompt : أجب عن السؤال التالي : اين يقع نادى فرقة مانشستر ؟ الجواب هو +pred_answer : فى مدينة مانشيستر +answer : بمدينة مانشستر إنجلترا + +context : تأسس نادي مانشستر يونايتد في 1 مارس 1878 م وكان يسمى النادي آنذاك باسم نويتن هيث " سكة حديد لانكشاير ويوركشاير " وتم تأسيسه من قبل مجموعة من عمال سكة حديد في مانشستر وتم إختصار الاسم بعد ذلك إلى نيوتن هيث وإنضموا إلى الدوري الإنجليزي الممتاز في 1892 م واجه النادي الإفلاس عام 1902 م ولكن جون هنري ديفيز أنقذ النادي ودفع الديون وغير الاسم إلى مانشستر يونايتد وغير ألوان الفريق من الذهبي والأخضر إلى الأحمر والأبيض وفاز النادي بالدوري عام 1908 م وبالمعونة المالية من ديفيز إنتقل النادي إلى الملعب الجديد ملعب أولد ترافورد في 1909 م وعين اليونايتد السير مات بسبي كمدرب للفريق بعد الحرب العالمية الثانية وكانت سياسته التي تعتمد على لاعبين من نادي الشباب جلبت نجاحا عظيما للنادي وفاز الفريق بالدوري عامين 1956 م و 1957 م لكن هذا النجاح تأثر بعد كارثة ميونخ الجوية عام 1958 م ومات 8 من لاعبين الفريق لكن عندما تعافى السير بسبي من إصابته جراء حادثة ميونخ بنى فريقا عظيما آخر إستطاع الفوز بالدوري عامين 1965 م و 1967 م ومن ثم أصبح مانشستر يونايتد أول نادي إنجليزي يفوز بدوري الإبطال عام 1968 م بعد الفوز على بنفيكا في النهائي ولم يرى النادي نجاح عظيم مرة أخرى حتى التسعينيات عندما قاد السير أليكس فيرغسون الفريق إلى 8 بطولات دوري في إحدى عشرة سنة وفي 1999 م أصبح مانشستر يونايتد أول فريق يفوز بالدوري وكأس إنجلترا ودوري أبطال أوروبا في موسم واحد . +question : متى تاسس نادى مانشستر ؟ +prompt : أجب عن السؤال التالي : متى تاسس نادى مانشستر ؟ الجواب هو +pred_answer : في عام 1902 +answer : 1 مارس 1878 + +context : تأسس نادي مانشستر يونايتد في 1 مارس 1878 م وكان يسمى النادي آنذاك باسم نويتن هيث " سكة حديد لانكشاير ويوركشاير " وتم تأسيسه من قبل مجموعة من عمال سكة حديد في مانشستر وتم إختصار الاسم بعد ذلك إلى نيوتن هيث وإنضموا إلى الدوري الإنجليزي الممتاز في 1892 م واجه النادي الإفلاس عام 1902 م ولكن جون هنري ديفيز أنقذ النادي ودفع الديون وغير الاسم إلى مانشستر يونايتد وغير ألوان الفريق من الذهبي والأخضر إلى الأحمر والأبيض وفاز النادي بالدوري عام 1908 م وبالمعونة المالية من ديفيز إنتقل النادي إلى الملعب الجديد ملعب أولد ترافورد في 1909 م وعين اليونايتد السير مات بسبي كمدرب للفريق بعد الحرب العالمية الثانية وكانت سياسته التي تعتمد على لاعبين من نادي الشباب جلبت نجاحا عظيما للنادي وفاز الفريق بالدوري عامين 1956 م و 1957 م لكن هذا النجاح تأثر بعد كارثة ميونخ الجوية عام 1958 م ومات 8 من لاعبين الفريق لكن عندما تعافى السير بسبي من إصابته جراء حادثة ميونخ بنى فريقا عظيما آخر إستطاع الفوز بالدوري عامين 1965 م و 1967 م ومن ثم أصبح مانشستر يونايتد أول نادي إنجليزي يفوز بدوري الإبطال عام 1968 م بعد الفوز على بنفيكا في النهائي ولم يرى النادي نجاح عظيم مرة أخرى حتى التسعينيات عندما قاد السير أليكس فيرغسون الفريق إلى 8 بطولات دوري في إحدى عشرة سنة وفي 1999 م أصبح مانشستر يونايتد أول فريق يفوز بالدوري وكأس إنجلترا ودوري أبطال أوروبا في موسم واحد . +question : ماذا كان يسمى النادى قبل ؟ +prompt : أجب عن السؤال التالي : ماذا كان يسمى النادى قبل ؟ الجواب هو +pred_answer : " نادى الجزيرة الرياضى " +answer : نويتن هيث + +context : تأسس نادي مانشستر يونايتد في 1 مارس 1878 م وكان يسمى النادي آنذاك باسم نويتن هيث " سكة حديد لانكشاير ويوركشاير " وتم تأسيسه من قبل مجموعة من عمال سكة حديد في مانشستر وتم إختصار الاسم بعد ذلك إلى نيوتن هيث وإنضموا إلى الدوري الإنجليزي الممتاز في 1892 م واجه النادي الإفلاس عام 1902 م ولكن جون هنري ديفيز أنقذ النادي ودفع الديون وغير الاسم إلى مانشستر يونايتد وغير ألوان الفريق من الذهبي والأخضر إلى الأحمر والأبيض وفاز النادي بالدوري عام 1908 م وبالمعونة المالية من ديفيز إنتقل النادي إلى الملعب الجديد ملعب أولد ترافورد في 1909 م وعين اليونايتد السير مات بسبي كمدرب للفريق بعد الحرب العالمية الثانية وكانت سياسته التي تعتمد على لاعبين من نادي الشباب جلبت نجاحا عظيما للنادي وفاز الفريق بالدوري عامين 1956 م و 1957 م لكن هذا النجاح تأثر بعد كارثة ميونخ الجوية عام 1958 م ومات 8 من لاعبين الفريق لكن عندما تعافى السير بسبي من إصابته جراء حادثة ميونخ بنى فريقا عظيما آخر إستطاع الفوز بالدوري عامين 1965 م و 1967 م ومن ثم أصبح مانشستر يونايتد أول نادي إنجليزي يفوز بدوري الإبطال عام 1968 م بعد الفوز على بنفيكا في النهائي ولم يرى النادي نجاح عظيم مرة أخرى حتى التسعينيات عندما قاد السير أليكس فيرغسون الفريق إلى 8 بطولات دوري في إحدى عشرة سنة وفي 1999 م أصبح مانشستر يونايتد أول فريق يفوز بالدوري وكأس إنجلترا ودوري أبطال أوروبا في موسم واحد . +question : متى واجه النادى الافلاس ؟ +prompt : أجب عن السؤال التالي : متى واجه النادى الافلاس ؟ الجواب هو في عام +pred_answer : 1896 +answer : 1908 + +context : المسيحية ، أو النصرانية ، هي ديانة إبراهيمية ، وتوحيدية ، متمحورة في تعاليمها حول الكتاب المقدس ، وبشكل خاص يسوع ، الذي هو في العقيدة متمم النبؤات المنتظر ، وابن الله المتجسد ؛ الذي قدم في العهد الجديد ذروة التعاليم الروحية والاجتماعية والأخلاقية ، وأيد أقواله بمعجزاته ؛ وكان مخلص العالم بموته على الصليب وقيامته ، والوسيط الوحيد بين الله والبشر ؛ وينتظر معظم المسيحيين مجيئه الثاني ، الذي يختم بقيامة الموتى ، حيث يثيب الله الأبرار والصالحين بملكوت أبدي سعيد . +question : ما هى المسيحية ؟ +prompt : أجب عن السؤال التالي : ما هى المسيحية ؟ الجواب هو +pred_answer : أنها ديانة سماوية أنزلت على سيدنا عيسى عليه السلام من الله عز وجل ، وقد جاء في +answer : هي ديانة إبراهيمية وتوحيدية متمحورة في تعاليمها حول الكتاب المقدس وبشكل خاص يسوع + +context : المسيحية ، أو النصرانية ، هي ديانة إبراهيمية ، وتوحيدية ، متمحورة في تعاليمها حول الكتاب المقدس ، وبشكل خاص يسوع ، الذي هو في العقيدة متمم النبؤات المنتظر ، وابن الله المتجسد ؛ الذي قدم في العهد الجديد ذروة التعاليم الروحية والاجتماعية والأخلاقية ، وأيد أقواله بمعجزاته ؛ وكان مخلص العالم بموته على الصليب وقيامته ، والوسيط الوحيد بين الله والبشر ؛ وينتظر معظم المسيحيين مجيئه الثاني ، الذي يختم بقيامة الموتى ، حيث يثيب الله الأبرار والصالحين بملكوت أبدي سعيد . +question : ما الاسم الاخر للمسيحية ؟ +prompt : أجب عن السؤال التالي : ما الاسم الاخر للمسيحية ؟ الجواب هو +pred_answer : ان المسيحية هي +answer : النصرانية + +context : المسيحية ، أو النصرانية ، هي ديانة إبراهيمية ، وتوحيدية ، متمحورة في تعاليمها حول الكتاب المقدس ، وبشكل خاص يسوع ، الذي هو في العقيدة متمم النبؤات المنتظر ، وابن الله المتجسد ؛ الذي قدم في العهد الجديد ذروة التعاليم الروحية والاجتماعية والأخلاقية ، وأيد أقواله بمعجزاته ؛ وكان مخلص العالم بموته على الصليب وقيامته ، والوسيط الوحيد بين الله والبشر ؛ وينتظر معظم المسيحيين مجيئه الثاني ، الذي يختم بقيامة الموتى ، حيث يثيب الله الأبرار والصالحين بملكوت أبدي سعيد . +question : ما نوع ديانة المسيجية ؟ +prompt : أجب عن السؤال التالي : ما نوع ديانة المسيجية ؟ الجواب هو +pred_answer : : المسيحية ، الإسلام +answer : هي ديانة إبراهيمية + +context : المسيحية تعد أكبر دين معتنق في البشرية ، ويبلغ عدد أتباعها 2 . 4 مليار أي حوالي ثلث البشر ، كذلك فالمسيحية دين الأغلبية السكانية في 126 بلدا من أصل 197 بلدا في العالم ؛ ويعرف أتباعها باسم " المسيحيين " ؛ جذر كلمة " مسيحية " يأتي من كلمة " المسيح " التي تعني " من وقع دهنه " أو " الممسوح بالدهن المقدس " ؛ وتعرف أيضا لناطقي العربية باسم " النصرانية " ، من كلمة " الناصرة " بلدة المسيح . نشأت المسيحية من جذور وبيئة يهودية فلسطينية ، وخلال أقل من قرن بعد المسيح وجدت جماعات مسيحية في مناطق مختلفة من العالم القديم حتى الهند شرقا بفضل التبشير ، وخلال القرنين التاليين ورغم الاضطهادات الرومانية ، غدت المسيحية دين الإمبراطورية ؛ وساهم انتشارها ومن ثم اكتسابها الثقافة اليونانية لا بانفصالها عن اليهودية فحسب ، بل بتطوير سمتها الحضارية الخاصة . المسيحية تصنف في أربع عائلات كبيرة : الكاثوليكية ، الأرثوذكسية المشرقية ، الأرثوذكسية الشرقية والبروتستانتية ؛ وإلى جانب الطوائف ، فإن للمسيحية إرثا ثقافيا دينيا واسعا يدعى " طقسا " ، حيث أن أشهر التصنيفات ، وأعرقها في هذا الخصوص ، هي المسيحية الشرقية ، والمسيحية الغربية . +question : ما ترتيب المسيحية من حيث العدد ؟ +prompt : أجب عن السؤال التالي : ما ترتيب المسيحية من حيث العدد ؟ الجواب هو +pred_answer : 1 ، 2 ، 3 ، 4 ، +answer : تعد أكبر دين معتنق في البشرية + +context : المسيحية تعد أكبر دين معتنق في البشرية ، ويبلغ عدد أتباعها 2 . 4 مليار أي حوالي ثلث البشر ، كذلك فالمسيحية دين الأغلبية السكانية في 126 بلدا من أصل 197 بلدا في العالم ؛ ويعرف أتباعها باسم " المسيحيين " ؛ جذر كلمة " مسيحية " يأتي من كلمة " المسيح " التي تعني " من وقع دهنه " أو " الممسوح بالدهن المقدس " ؛ وتعرف أيضا لناطقي العربية باسم " النصرانية " ، من كلمة " الناصرة " بلدة المسيح . نشأت المسيحية من جذور وبيئة يهودية فلسطينية ، وخلال أقل من قرن بعد المسيح وجدت جماعات مسيحية في مناطق مختلفة من العالم القديم حتى الهند شرقا بفضل التبشير ، وخلال القرنين التاليين ورغم الاضطهادات الرومانية ، غدت المسيحية دين الإمبراطورية ؛ وساهم انتشارها ومن ثم اكتسابها الثقافة اليونانية لا بانفصالها عن اليهودية فحسب ، بل بتطوير سمتها الحضارية الخاصة . المسيحية تصنف في أربع عائلات كبيرة : الكاثوليكية ، الأرثوذكسية المشرقية ، الأرثوذكسية الشرقية والبروتستانتية ؛ وإلى جانب الطوائف ، فإن للمسيحية إرثا ثقافيا دينيا واسعا يدعى " طقسا " ، حيث أن أشهر التصنيفات ، وأعرقها في هذا الخصوص ، هي المسيحية الشرقية ، والمسيحية الغربية . +question : ما عدد اتباع المسيحية ؟ +prompt : أجب عن السؤال التالي : ما عدد اتباع المسيحية ؟ الجواب هو +pred_answer : : 1 . +answer : 2 4 مليار + +context : المسيحية تعد أكبر دين معتنق في البشرية ، ويبلغ عدد أتباعها 2 . 4 مليار أي حوالي ثلث البشر ، كذلك فالمسيحية دين الأغلبية السكانية في 126 بلدا من أصل 197 بلدا في العالم ؛ ويعرف أتباعها باسم " المسيحيين " ؛ جذر كلمة " مسيحية " يأتي من كلمة " المسيح " التي تعني " من وقع دهنه " أو " الممسوح بالدهن المقدس " ؛ وتعرف أيضا لناطقي العربية باسم " النصرانية " ، من كلمة " الناصرة " بلدة المسيح . نشأت المسيحية من جذور وبيئة يهودية فلسطينية ، وخلال أقل من قرن بعد المسيح وجدت جماعات مسيحية في مناطق مختلفة من العالم القديم حتى الهند شرقا بفضل التبشير ، وخلال القرنين التاليين ورغم الاضطهادات الرومانية ، غدت المسيحية دين الإمبراطورية ؛ وساهم انتشارها ومن ثم اكتسابها الثقافة اليونانية لا بانفصالها عن اليهودية فحسب ، بل بتطوير سمتها الحضارية الخاصة . المسيحية تصنف في أربع عائلات كبيرة : الكاثوليكية ، الأرثوذكسية المشرقية ، الأرثوذكسية الشرقية والبروتستانتية ؛ وإلى جانب الطوائف ، فإن للمسيحية إرثا ثقافيا دينيا واسعا يدعى " طقسا " ، حيث أن أشهر التصنيفات ، وأعرقها في هذا الخصوص ، هي المسيحية الشرقية ، والمسيحية الغربية . +question : فى كم بلد يسود الدين المسيحى ؟ +prompt : أجب عن السؤال التالي : فى كم بلد يسود الدين المسيحى ؟ الجواب هو +pred_answer : في الولايات المتحدة الأمريكية ، حيث يبلغ عدد المسيحيين حوالي 20 مليون +answer : فالمسيحية دين الأغلبية السكانية في 126 بلدا من أصل 197 + +context : كلمة مسيحية ( باليونانية : ) ومسيحي ( باليونانية : ؛ وأيضا ) هي نسبة إلى " المسيح " ، ومعناها في العهد القديم الممسوح بالدهن المقدس ، وربما تكون مشتقة من الكلمة الآرامية السريانية ( ، نقحرة : " مشيحا " ) وتكتسب الآرامية أهمية دينية خاصة في المسيحية ، وذلك لأن يسوع قد تكلم بها ، وكلمة مسيحي في معظم اللغات الهندوأوروبية مشتقة من الكلمة اليونانية " ، نقحرة : خريستوس " واللاتينية " Christos ، نقحرة : كريستوس " بمعنى المسيح ، وهو أصل المصطلح المتعارف عليه اليوم في تلك اللغات . +question : ما اسم المسيحية فى اللغة اليونانية ؟ +prompt : أجب عن السؤال التالي : ما اسم المسيحية فى اللغة اليونانية ؟ الجواب هو +pred_answer : " +answer : ) + +context : كلمة مسيحية ( باليونانية : ) ومسيحي ( باليونانية : ؛ وأيضا ) هي نسبة إلى " المسيح " ، ومعناها في العهد القديم الممسوح بالدهن المقدس ، وربما تكون مشتقة من الكلمة الآرامية السريانية ( ، نقحرة : " مشيحا " ) وتكتسب الآرامية أهمية دينية خاصة في المسيحية ، وذلك لأن يسوع قد تكلم بها ، وكلمة مسيحي في معظم اللغات الهندوأوروبية مشتقة من الكلمة اليونانية " ، نقحرة : خريستوس " واللاتينية " Christos ، نقحرة : كريستوس " بمعنى المسيح ، وهو أصل المصطلح المتعارف عليه اليوم في تلك اللغات . +question : ما معنى المسيحية فى العهد القديم ؟ +prompt : أجب عن السؤال التالي : ما معنى المسيحية فى العهد القديم ؟ الجواب هو +pred_answer : أن المسيحيين هم أتباع يسوع المسيح +answer : الممسوح بالدهن المقدس + +context : كلمة مسيحية ( باليونانية : ) ومسيحي ( باليونانية : ؛ وأيضا ) هي نسبة إلى " المسيح " ، ومعناها في العهد القديم الممسوح بالدهن المقدس ، وربما تكون مشتقة من الكلمة الآرامية السريانية ( ، نقحرة : " مشيحا " ) وتكتسب الآرامية أهمية دينية خاصة في المسيحية ، وذلك لأن يسوع قد تكلم بها ، وكلمة مسيحي في معظم اللغات الهندوأوروبية مشتقة من الكلمة اليونانية " ، نقحرة : خريستوس " واللاتينية " Christos ، نقحرة : كريستوس " بمعنى المسيح ، وهو أصل المصطلح المتعارف عليه اليوم في تلك اللغات . +question : من اى كلمة مشتقة كلمة المسيح فى معظم اللغات الهندواوروبية ؟ +prompt : أجب عن السؤال التالي : من اى كلمة مشتقة كلمة المسيح فى معظم اللغات الهندواوروبية ؟ الجواب هو +pred_answer : يسوع ( عيسى ) . هل +answer : الممسوح بالدهن المقدس + +context : جندح بن حجر بن الحارث الكندي ( 500 - 540 م ) اشتهر بلقب امرؤ القيس ، هو شاعرعربي من مكانة رفيعة ، برز في فترة الجاهلية ، ويعد رأس شعراء العرب ، وأحد أبرزهم في التاريخ ، اختلفت المصادر في تسميته ، فورد باسم جندح وحندج ومليكة وعدي ، وهو من قبيلة كندة . +question : من هو والد جندح ؟ +prompt : أجب عن السؤال التالي : من هو والد جندح ؟ الجواب هو +pred_answer : محمد بن +answer : حجر + +context : جندح بن حجر بن الحارث الكندي ( 500 - 540 م ) اشتهر بلقب امرؤ القيس ، هو شاعرعربي من مكانة رفيعة ، برز في فترة الجاهلية ، ويعد رأس شعراء العرب ، وأحد أبرزهم في التاريخ ، اختلفت المصادر في تسميته ، فورد باسم جندح وحندج ومليكة وعدي ، وهو من قبيلة كندة . +question : متى ولد جندح ؟ +prompt : أجب عن السؤال التالي : متى ولد جندح ؟ الجواب هو في عام +pred_answer : 12 +answer : 500 + +context : جندح بن حجر بن الحارث الكندي ( 500 - 540 م ) اشتهر بلقب امرؤ القيس ، هو شاعرعربي من مكانة رفيعة ، برز في فترة الجاهلية ، ويعد رأس شعراء العرب ، وأحد أبرزهم في التاريخ ، اختلفت المصادر في تسميته ، فورد باسم جندح وحندج ومليكة وعدي ، وهو من قبيلة كندة . +question : متى توفى جندح بن حجر ؟ +prompt : أجب عن السؤال التالي : متى توفى جندح بن حجر ؟ الجواب هو +pred_answer : : توفي في خلافة عمر +answer : 540 م + +context : جندح بن حجر بن الحارث الكندي ( 500 - 540 م ) اشتهر بلقب امرؤ القيس ، هو شاعرعربي من مكانة رفيعة ، برز في فترة الجاهلية ، ويعد رأس شعراء العرب ، وأحد أبرزهم في التاريخ ، اختلفت المصادر في تسميته ، فورد باسم جندح وحندج ومليكة وعدي ، وهو من قبيلة كندة . يعرف في كتب التراث العربية بألقاب عدة ، منها : " الملك الضليل " و " ذو القروح " " " ، وكني بأبي وهب ، وأبي زيد ، وأبي الحارث . +question : ما جنسية جندح بن حجر ؟ +prompt : أجب عن السؤال التالي : ما جنسية جندح بن حجر ؟ الجواب هو +pred_answer : أنه من قبيلة الأز +answer : هو شاعرعربي + +context : جندح بن حجر بن الحارث الكندي ( 500 - 540 م ) اشتهر بلقب امرؤ القيس ، هو شاعرعربي من مكانة رفيعة ، برز في فترة الجاهلية ، ويعد رأس شعراء العرب ، وأحد أبرزهم في التاريخ ، اختلفت المصادر في تسميته ، فورد باسم جندح وحندج ومليكة وعدي ، وهو من قبيلة كندة . يعرف في كتب التراث العربية بألقاب عدة ، منها : " الملك الضليل " و " ذو القروح " " " ، وكني بأبي وهب ، وأبي زيد ، وأبي الحارث . +question : فى اى فترة برز جندح ؟ +prompt : أجب عن السؤال التالي : فى اى فترة برز جندح ؟ الجواب هو +pred_answer : في الفترة ما بين +answer : برز في فترة الجاهلية + +context : جندح بن حجر بن الحارث الكندي ( 500 - 540 م ) اشتهر بلقب امرؤ القيس ، هو شاعرعربي من مكانة رفيعة ، برز في فترة الجاهلية ، ويعد رأس شعراء العرب ، وأحد أبرزهم في التاريخ ، اختلفت المصادر في تسميته ، فورد باسم جندح وحندج ومليكة وعدي ، وهو من قبيلة كندة . يعرف في كتب التراث العربية بألقاب عدة ، منها : " الملك الضليل " و " ذو القروح " " " ، وكني بأبي وهب ، وأبي زيد ، وأبي الحارث . +question : ما الاسماء الاخرى اللتى اعطت لجندح ؟ +prompt : أجب عن السؤال التالي : ما الاسماء الاخرى اللتى اعطت لجندح ؟ الجواب هو +pred_answer : : 1 - ابو دجانة الانصاري 2 - سعد بن +answer : فورد باسم جندح وحندج ومليكة وعدي + +context : ولد في نجد لقبيلة كندة اليمنية ، نشأ مترفا ميالا للترف ؛ كان أبوه حجر ملكا على بني أسد وغطفان ، وأمه هي فاطمة بنت ربيعة أخت كليب والشاعر المهلهل التغلبيين ، تعلم الشعر منذ صغره من خاله المهلهل ، ولم يكف عن تنظيم الشعر الإباحي ومخالطة الصعاليك بالرغم من نهي والده له بذلك ، فطرده إلى موطن قبيلته ؛ دمون بحضرموت عندما كان في العشرين من عمره ، فما إن قضى فيها 5 سنوات حتى مضى سائرا في بلاد العرب مع أصحابه ، ساعيا وراء اللهو والعبث والغزو والطرب . +question : اين ولد جندح ؟ +prompt : أجب عن السؤال التالي : اين ولد جندح ؟ الجواب هو +pred_answer : في قرية صغيرة من قرى نجد اسمها +answer : ولد في نجد لقبيلة كندة اليمنية + +context : ولد في نجد لقبيلة كندة اليمنية ، نشأ مترفا ميالا للترف ؛ كان أبوه حجر ملكا على بني أسد وغطفان ، وأمه هي فاطمة بنت ربيعة أخت كليب والشاعر المهلهل التغلبيين ، تعلم الشعر منذ صغره من خاله المهلهل ، ولم يكف عن تنظيم الشعر الإباحي ومخالطة الصعاليك بالرغم من نهي والده له بذلك ، فطرده إلى موطن قبيلته ؛ دمون بحضرموت عندما كان في العشرين من عمره ، فما إن قضى فيها 5 سنوات حتى مضى سائرا في بلاد العرب مع أصحابه ، ساعيا وراء اللهو والعبث والغزو والطرب . +question : ماذا كان يعمل ابو جندح ؟ +prompt : أجب عن السؤال التالي : ماذا كان يعمل ابو جندح ؟ الجواب هو +pred_answer : انه لم يكن موظفا في الدولة ، بل كان +answer : كان أبوه حجر ملكا على بني أسد وغطفان + +context : ولد في نجد لقبيلة كندة اليمنية ، نشأ مترفا ميالا للترف ؛ كان أبوه حجر ملكا على بني أسد وغطفان ، وأمه هي فاطمة بنت ربيعة أخت كليب والشاعر المهلهل التغلبيين ، تعلم الشعر منذ صغره من خاله المهلهل ، ولم يكف عن تنظيم الشعر الإباحي ومخالطة الصعاليك بالرغم من نهي والده له بذلك ، فطرده إلى موطن قبيلته ؛ دمون بحضرموت عندما كان في العشرين من عمره ، فما إن قضى فيها 5 سنوات حتى مضى سائرا في بلاد العرب مع أصحابه ، ساعيا وراء اللهو والعبث والغزو والطرب . +question : من ام جندح ؟ +prompt : أجب عن السؤال التالي : من ام جندح ؟ الجواب هو +pred_answer : نعم ، أم جندح هي +answer : فاطمة بنت ربيعة أخت كليب + +context : محمد علي باشا المسعود بن إبراهيم آغا القوللي ( بالتركية العثمانية : قوللى محمد على اشا ؛ وبالتركية الحديثة : Kavalal Mehmet Ali Pa a ؛ وبالألبانية : Mehmet Ali Pasha ) ، الملقب بالعزيز أو عزيز مصر ، هو مؤسس الأسرة العلوية وحاكم مصر ما بين عامي 1805 إلى 1848 ، ويشيع وصفه بأنه " مؤسس مصر الحديثة " وهي مقولة كان هو نفسه أول من روج لها واستمرت بعده بشكل منظم وملفت . +question : ما اسم محمد على باشا بالتركية الحديثة ؟ +prompt : أجب عن السؤال التالي : ما اسم محمد على باشا بالتركية الحديثة ؟ الجواب هو +pred_answer : : محمد علي باشا ، ولد عام 1769 � +answer : Kavalal Mehmet Ali Pa a + +context : محمد علي باشا المسعود بن إبراهيم آغا القوللي ( بالتركية العثمانية : قوللى محمد على اشا ؛ وبالتركية الحديثة : Kavalal Mehmet Ali Pa a ؛ وبالألبانية : Mehmet Ali Pasha ) ، الملقب بالعزيز أو عزيز مصر ، هو مؤسس الأسرة العلوية وحاكم مصر ما بين عامي 1805 إلى 1848 ، ويشيع وصفه بأنه " مؤسس مصر الحديثة " وهي مقولة كان هو نفسه أول من روج لها واستمرت بعده بشكل منظم وملفت . +question : ما اسم محمد على بالالبانية ؟ +prompt : أجب عن السؤال التالي : ما اسم محمد على بالالبانية ؟ الجواب هو +pred_answer : " Mohamed " ، وهو الاسم الذي +answer : Mehmet Ali Pasha + +context : محمد علي باشا المسعود بن إبراهيم آغا القوللي ( بالتركية العثمانية : قوللى محمد على اشا ؛ وبالتركية الحديثة : Kavalal Mehmet Ali Pa a ؛ وبالألبانية : Mehmet Ali Pasha ) ، الملقب بالعزيز أو عزيز مصر ، هو مؤسس الأسرة العلوية وحاكم مصر ما بين عامي 1805 إلى 1848 ، ويشيع وصفه بأنه " مؤسس مصر الحديثة " وهي مقولة كان هو نفسه أول من روج لها واستمرت بعده بشكل منظم وملفت . +question : بماذا كان يلقب محمد على ؟ +prompt : أجب عن السؤال التالي : بماذا كان يلقب محمد على ؟ الجواب هو +pred_answer : أنه كان يلقب ب " +answer : بالعزيز أو عزيز مصر + +context : محمد علي ( 17 يناير 1942 – 3 يونيو 2016 ) ملاكم أمريكي ولد باسم ( كاسيوس مارسيلوس كلاي جونيور ) في 17 يناير 1942 في مدينة لويفيل بولاية كنتاكي وتوفي يوم 3 يونيو 2016 عن عمر ناهز 74 عاما بعد صراع طويل مع مرض شلل الرعاش ( باركنسون ) ، ولد لعائلة أميركية سوداء من الطبقة المتوسطة وكان والده ميثوديا ، لكن أمه ربته وأخاه على المذهب المعمداني ، بعد أن اعتنق الإسلام في عام 1964 م وغير اسمه إلى محمد علي دون اسمه الأخير - كلاي - ، فاز كلاي ببطولة العالم للوزن الثقيل ثلاث مرات على مدى عشرين عاما في 1964 و 1974 و 1978 ، وفي عام 1999 توج بلقب " رياضي القرن " ، وهي جائزة مقدمة من مجلة " سبورتس ايلاستريتد " ، كما حصل على نفس اللقب بعد استفتاء أقامته صحيفة لاغازيتا ديلو سبورت الإيطالية بعدما حصل على 71 . 2 % من الأصوات متفوقا على العديد من الرياضين ومنهم دييغو مارادونا . كان يصف نفسه بأنه " يطير كالفراشة ويلسع كالنحلة " ، +question : متى ولد محمد على ؟ +prompt : أجب عن السؤال التالي : متى ولد محمد على ؟ الجواب هو +pred_answer : : ولد في +answer : 17 يناير 1942 + +context : محمد علي ( 17 يناير 1942 – 3 يونيو 2016 ) ملاكم أمريكي ولد باسم ( كاسيوس مارسيلوس كلاي جونيور ) في 17 يناير 1942 في مدينة لويفيل بولاية كنتاكي وتوفي يوم 3 يونيو 2016 عن عمر ناهز 74 عاما بعد صراع طويل مع مرض شلل الرعاش ( باركنسون ) ، ولد لعائلة أميركية سوداء من الطبقة المتوسطة وكان والده ميثوديا ، لكن أمه ربته وأخاه على المذهب المعمداني ، بعد أن اعتنق الإسلام في عام 1964 م وغير اسمه إلى محمد علي دون اسمه الأخير - كلاي - ، فاز كلاي ببطولة العالم للوزن الثقيل ثلاث مرات على مدى عشرين عاما في 1964 و 1974 و 1978 ، وفي عام 1999 توج بلقب " رياضي القرن " ، وهي جائزة مقدمة من مجلة " سبورتس ايلاستريتد " ، كما حصل على نفس اللقب بعد استفتاء أقامته صحيفة لاغازيتا ديلو سبورت الإيطالية بعدما حصل على 71 . 2 % من الأصوات متفوقا على العديد من الرياضين ومنهم دييغو مارادونا . كان يصف نفسه بأنه " يطير كالفراشة ويلسع كالنحلة " ، +question : متى توفى محمد على ؟ +prompt : أجب عن السؤال التالي : متى توفى محمد على ؟ الجواب هو +pred_answer : : توفي في +answer : 3 يونيو 2016 + +context : محمد علي ( 17 يناير 1942 – 3 يونيو 2016 ) ملاكم أمريكي ولد باسم ( كاسيوس مارسيلوس كلاي جونيور ) في 17 يناير 1942 في مدينة لويفيل بولاية كنتاكي وتوفي يوم 3 يونيو 2016 عن عمر ناهز 74 عاما بعد صراع طويل مع مرض شلل الرعاش ( باركنسون ) ، ولد لعائلة أميركية سوداء من الطبقة المتوسطة وكان والده ميثوديا ، لكن أمه ربته وأخاه على المذهب المعمداني ، بعد أن اعتنق الإسلام في عام 1964 م وغير اسمه إلى محمد علي دون اسمه الأخير - كلاي - ، فاز كلاي ببطولة العالم للوزن الثقيل ثلاث مرات على مدى عشرين عاما في 1964 و 1974 و 1978 ، وفي عام 1999 توج بلقب " رياضي القرن " ، وهي جائزة مقدمة من مجلة " سبورتس ايلاستريتد " ، كما حصل على نفس اللقب بعد استفتاء أقامته صحيفة لاغازيتا ديلو سبورت الإيطالية بعدما حصل على 71 . 2 % من الأصوات متفوقا على العديد من الرياضين ومنهم دييغو مارادونا . كان يصف نفسه بأنه " يطير كالفراشة ويلسع كالنحلة " ، +question : بماذا توج محمد على فى 1999 ؟ +prompt : أجب عن السؤال التالي : بماذا توج محمد على فى 1999 ؟ الجواب هو +pred_answer : ما يلى : +answer : رياضي القرن + +context : وهو صاحب أسرع وأقوى لكمة في العالم حيث تعادل قوتها حوالي 1 , 000 باوند . اعتزل الملاكمة عام 1981 وقد كان عمره 39 عاما ، بعد مسيرة حافلة تضمنت 56 فوزا منها 37 بالضربة القاضية وخمس هزائم ، وتوج باللقب العالمي ثلاث مرات مختلفة . +question : كم تبلغ قوة لكمة محمد على ؟ +prompt : أجب عن السؤال التالي : كم تبلغ قوة لكمة محمد على ؟ الجواب هو +pred_answer : ( 10 ) عشرة آلاف +answer : 1 000 باوند + +context : وهو صاحب أسرع وأقوى لكمة في العالم حيث تعادل قوتها حوالي 1 , 000 باوند . اعتزل الملاكمة عام 1981 وقد كان عمره 39 عاما ، بعد مسيرة حافلة تضمنت 56 فوزا منها 37 بالضربة القاضية وخمس هزائم ، وتوج باللقب العالمي ثلاث مرات مختلفة . +question : متى اعتزل محمد على الملاكمة ؟ +prompt : أجب عن السؤال التالي : متى اعتزل محمد على الملاكمة ؟ الجواب هو +pred_answer : في عام +answer : عام 1981 + +context : وهو صاحب أسرع وأقوى لكمة في العالم حيث تعادل قوتها حوالي 1 , 000 باوند . اعتزل الملاكمة عام 1981 وقد كان عمره 39 عاما ، بعد مسيرة حافلة تضمنت 56 فوزا منها 37 بالضربة القاضية وخمس هزائم ، وتوج باللقب العالمي ثلاث مرات مختلفة . +question : كم كان عمر محمد على عندما اعتزل ؟ +prompt : أجب عن السؤال التالي : كم كان عمر محمد على عندما اعتزل ؟ الجواب هو +pred_answer : أن عمره +answer : 39 عاما + +context : إنجلترا أو إنكلترا ( بالإنجليزية : England إن لاند ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق ، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبا . +question : ما اسم انجلترا بالانجليزى ؟ +prompt : أجب عن السؤال التالي : ما اسم انجلترا بالانجليزى ؟ الجواب هو +pred_answer : British +answer : England + +context : إنجلترا أو إنكلترا ( بالإنجليزية : England إن لاند ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق ، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبا . +question : ما ترتيب انجلترا من حيث المساحة فى المملكة المتحدة ؟ +prompt : أجب عن السؤال التالي : ما ترتيب انجلترا من حيث المساحة فى المملكة المتحدة ؟ الجواب هو +pred_answer : المرتبة الثانية بعد ويلز ، و +answer : هي أكبر دولة في المملكة المتحدة + +context : إنجلترا أو إنكلترا ( بالإنجليزية : England إن لاند ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق ، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبا . +question : مع ماذا تشترك انجلترا فى الحدود ؟ +prompt : أجب عن السؤال التالي : مع ماذا تشترك انجلترا فى الحدود ؟ الجواب هو +pred_answer : : 1 - بريطانيا . 2 - ايرلندا الشمالية . 3 - ويلز . 4 - اسكتلندا . +answer : الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي + +context : إنجلترا أو إنكلترا ( بالإنجليزية : ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق ، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبا . ويتكون البر الرئيسي من إنجلترا من الأجزاء الوسطى والجنوبية من جزيرة بريطانيا العظمى في شمال المحيط الأطلسي ، كما تشمل أيضا أكثر من 100 جزيرة صغيرة ، مثل جزر سيلي وجزيرة وايت . +question : ماذا يفصل انجلترا عن القارة الاوروبية ؟ +prompt : أجب عن السؤال التالي : ماذا يفصل انجلترا عن القارة الاوروبية ؟ الجواب هو +pred_answer : ما يلي : +answer : القناة الإنجليزية + +context : إنجلترا أو إنكلترا ( بالإنجليزية : ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق ، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبا . ويتكون البر الرئيسي من إنجلترا من الأجزاء الوسطى والجنوبية من جزيرة بريطانيا العظمى في شمال المحيط الأطلسي ، كما تشمل أيضا أكثر من 100 جزيرة صغيرة ، مثل جزر سيلي وجزيرة وايت . +question : كم جزيرة تشملها انجلترا ؟ +prompt : أجب عن السؤال التالي : كم جزيرة تشملها انجلترا ؟ الجواب هو +pred_answer : أن عدد الجزر +answer : 100 جزيرة صغيرة + +context : إنجلترا أو إنكلترا ( بالإنجليزية : ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق ، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبا . ويتكون البر الرئيسي من إنجلترا من الأجزاء الوسطى والجنوبية من جزيرة بريطانيا العظمى في شمال المحيط الأطلسي ، كما تشمل أيضا أكثر من 100 جزيرة صغيرة ، مثل جزر سيلي وجزيرة وايت . +question : ما الامثلة لجزر انجلترا ؟ +prompt : أجب عن السؤال التالي : ما الامثلة لجزر انجلترا ؟ الجواب هو +pred_answer : : جزر بريطانيا العظمى ، +answer : جزر سيلي وجزيرة وايت + +context : استوطن الإنسان أول مرة في المنطقة المعروفة الآن باسم إنجلترا في فترة العصر الحجري القديم ، ويعود أصل كلمة إنجلترا إلى الآنجلز وهي إحدى قبائل الجرمان التي استقرت خلال القرن الخامس والسادس الميلادي . أصبحت إنجلترا دولة موحدة سنة 927 ميلادية ، ومنذ عصر الاستكشاف الذي بدأ في القرن الخامس عشر ، أخذ تأثيرها الثقافي والقانوني يمتد وينتشر شيءا فشيءا عبر العالم بأكمله . حيث نشأت فيها اللغة الإنجليزية والكنيسة الأنجليكانية والقانون الإنجليزي ( وهو أساس النظام التشريعي للقانون العام في عديد من الدول حول العالم ) ، كما أن نظامها البرلماني والحكومي مقبول به على نطاق واسع من الدول الأخرى . كانت إنجلترا مهد الثورة الصناعية التي انطلقت في القرن الثامن عشر ، وحولت البلاد إلى أول أمة صناعية في العالم ، ووضعت الجمعية الملكية أسس العلوم التجريبية الحديثة . +question : متى استوطن الانسان انجلترا ؟ +prompt : أجب عن السؤال التالي : متى استوطن الانسان انجلترا ؟ الجواب هو +pred_answer : في عام 1066 +answer : فترة العصر الحجري القديم + +context : استوطن الإنسان أول مرة في المنطقة المعروفة الآن باسم إنجلترا في فترة العصر الحجري القديم ، ويعود أصل كلمة إنجلترا إلى الآنجلز وهي إحدى قبائل الجرمان التي استقرت خلال القرن الخامس والسادس الميلادي . أصبحت إنجلترا دولة موحدة سنة 927 ميلادية ، ومنذ عصر الاستكشاف الذي بدأ في القرن الخامس عشر ، أخذ تأثيرها الثقافي والقانوني يمتد وينتشر شيءا فشيءا عبر العالم بأكمله . حيث نشأت فيها اللغة الإنجليزية والكنيسة الأنجليكانية والقانون الإنجليزي ( وهو أساس النظام التشريعي للقانون العام في عديد من الدول حول العالم ) ، كما أن نظامها البرلماني والحكومي مقبول به على نطاق واسع من الدول الأخرى . كانت إنجلترا مهد الثورة الصناعية التي انطلقت في القرن الثامن عشر ، وحولت البلاد إلى أول أمة صناعية في العالم ، ووضعت الجمعية الملكية أسس العلوم التجريبية الحديثة . +question : الى ما يعود اصل كلمة انجلترا ؟ +prompt : أجب عن السؤال التالي : الى ما يعود اصل كلمة انجلترا ؟ الجواب هو +pred_answer : انها مشتقة من اسم القبائل الجرمانية التي استوطنت هذه المنطقة في +answer : ويعود أصل كلمة إنجلترا إلى الآنجلز وهي إحدى قبائل الجرمان + +context : استوطن الإنسان أول مرة في المنطقة المعروفة الآن باسم إنجلترا في فترة العصر الحجري القديم ، ويعود أصل كلمة إنجلترا إلى الآنجلز وهي إحدى قبائل الجرمان التي استقرت خلال القرن الخامس والسادس الميلادي . أصبحت إنجلترا دولة موحدة سنة 927 ميلادية ، ومنذ عصر الاستكشاف الذي بدأ في القرن الخامس عشر ، أخذ تأثيرها الثقافي والقانوني يمتد وينتشر شيءا فشيءا عبر العالم بأكمله . حيث نشأت فيها اللغة الإنجليزية والكنيسة الأنجليكانية والقانون الإنجليزي ( وهو أساس النظام التشريعي للقانون العام في عديد من الدول حول العالم ) ، كما أن نظامها البرلماني والحكومي مقبول به على نطاق واسع من الدول الأخرى . كانت إنجلترا مهد الثورة الصناعية التي انطلقت في القرن الثامن عشر ، وحولت البلاد إلى أول أمة صناعية في العالم ، ووضعت الجمعية الملكية أسس العلوم التجريبية الحديثة . +question : متى استقلت قبائل الجرمان فى انجلترا ؟ +prompt : أجب عن السؤال التالي : متى استقلت قبائل الجرمان فى انجلترا ؟ الجواب هو +pred_answer : : 1 - بعد الحرب العالمية الأولى . +answer : استقرت خلال القرن الخامس والسادس الميلادي + +context : جنكيز خان ( بالمنغولية : ) ( 1165 - 1227 م ) . وهو مؤسس وإمبراطور الإمبراطورية المغولية والتي اعتبرت أضخم إمبراطورية في التاريخ ككتلة واحدة بعد وفاته ، توسعت بعد أن قتل الملايين من سكان البلاد التي يحتلها ، وقد ارتكب مجازر كبيرة بحق المسلمين . +question : متى ولد جنكيز خان ؟ +prompt : أجب عن السؤال التالي : متى ولد جنكيز خان ؟ الجواب هو في عام +pred_answer : 1227 +answer : 1165 + +context : جنكيز خان ( بالمنغولية : ) ( 1165 - 1227 م ) . وهو مؤسس وإمبراطور الإمبراطورية المغولية والتي اعتبرت أضخم إمبراطورية في التاريخ ككتلة واحدة بعد وفاته ، توسعت بعد أن قتل الملايين من سكان البلاد التي يحتلها ، وقد ارتكب مجازر كبيرة بحق المسلمين . +question : متى توفى جنكيز خان ؟ +prompt : أجب عن السؤال التالي : متى توفى جنكيز خان ؟ الجواب هو +pred_answer : في عام 1227 +answer : 1227 م + +context : جنكيز خان ( بالمنغولية : ) ( 1165 - 1227 م ) . وهو مؤسس وإمبراطور الإمبراطورية المغولية والتي اعتبرت أضخم إمبراطورية في التاريخ ككتلة واحدة بعد وفاته ، توسعت بعد أن قتل الملايين من سكان البلاد التي يحتلها ، وقد ارتكب مجازر كبيرة بحق المسلمين . +question : اى امبراطورية اسس جنكيز خان ؟ +prompt : أجب عن السؤال التالي : اى امبراطورية اسس جنكيز خان ؟ الجواب هو +pred_answer : ان الامبراطوريات +answer : الإمبراطورية المغولية + +context : جنكيز خان ( بالمنغولية : ) ( 1165 - 1227 م ) . وهو مؤسس وإمبراطور الإمبراطورية المغولية والتي اعتبرت أضخم إمبراطورية في التاريخ ككتلة واحدة بعد وفاته ، توسعت بعد أن قتل الملايين من سكان البلاد التي يحتلها ، وقد ارتكب مجازر كبيرة بحق المسلمين . وبرز بعد توحيده عدة قبائل رحل لشمال شرق آسيا . فبعد إنشائه إمبراطورية المغول وتسميته " بجنكيز خان " بدأ فهاجم خانات قراخيطان والقوقاز والدولة الخوارزمية وزيا الغربية وإمبراطورية جين . وفي نهاية حياته كانت إمبراطوريته قد احتلت جزءا ضخما من أواسط آسيا والصين . +question : بحق من ارتكب جنكيز خان مجازره ؟ +prompt : أجب عن السؤال التالي : بحق من ارتكب جنكيز خان مجازره ؟ الجواب هو +pred_answer : لا أحد . +answer : بحق المسلمين + +context : جنكيز خان ( بالمنغولية : ) ( 1165 - 1227 م ) . وهو مؤسس وإمبراطور الإمبراطورية المغولية والتي اعتبرت أضخم إمبراطورية في التاريخ ككتلة واحدة بعد وفاته ، توسعت بعد أن قتل الملايين من سكان البلاد التي يحتلها ، وقد ارتكب مجازر كبيرة بحق المسلمين . وبرز بعد توحيده عدة قبائل رحل لشمال شرق آسيا . فبعد إنشائه إمبراطورية المغول وتسميته " بجنكيز خان " بدأ فهاجم خانات قراخيطان والقوقاز والدولة الخوارزمية وزيا الغربية وإمبراطورية جين . وفي نهاية حياته كانت إمبراطوريته قد احتلت جزءا ضخما من أواسط آسيا والصين . +question : ماذا غزى جنكيز خان بعد تكوينه امبراطوريته ؟ +prompt : أجب عن السؤال التالي : ماذا غزى جنكيز خان بعد تكوينه امبراطوريته ؟ الجواب هو +pred_answer : انه لم يغز احدا ، بل غزا نفسه .واذا كان هناك من غزو آخر فهو غزو +answer : فهاجم خانات قراخيطان والقوقاز والدولة الخوارزمية وزيا الغربية وإمبراطورية جين + +context : جنكيز خان ( بالمنغولية : ) ( 1165 - 1227 م ) . وهو مؤسس وإمبراطور الإمبراطورية المغولية والتي اعتبرت أضخم إمبراطورية في التاريخ ككتلة واحدة بعد وفاته ، توسعت بعد أن قتل الملايين من سكان البلاد التي يحتلها ، وقد ارتكب مجازر كبيرة بحق المسلمين . وبرز بعد توحيده عدة قبائل رحل لشمال شرق آسيا . فبعد إنشائه إمبراطورية المغول وتسميته " بجنكيز خان " بدأ فهاجم خانات قراخيطان والقوقاز والدولة الخوارزمية وزيا الغربية وإمبراطورية جين . وفي نهاية حياته كانت إمبراطوريته قد احتلت جزءا ضخما من أواسط آسيا والصين . +question : الى اين رحل جنكيز خان بعد توحيده للقبائل ؟ +prompt : أجب عن السؤال التالي : الى اين رحل جنكيز خان بعد توحيده للقبائل ؟ الجواب هو +pred_answer : انه لم يرحل من تلقاء نفسه +answer : رحل لشمال شرق آسيا + +context : وقبل أن يتوفى جنكيز خان أوصى أن يكون خليفته هو أوقطاي خان وقسم إمبراطوريته إلى خانات بين أبنائه وأحفاده . وقد توفي سنة 1227 بعد أن هزم وقد دفن في لايعرف بالضبط أين مكانه في منغوليا . وبدأ أحفاده بتوسيع إمبراطوريتهم خلال أرجاء أوراسيا من خلال احتلال و أو إنشاء ممالك تابعة لهم داخل الصين الحالية وكوريا والقوقاز وممالك آسيا الوسطى ، وأجزاء ضخمة من أوروبا الشرقية والشرق الأوسط . +question : من اوصى جنكيز بخلافته بعد موته ؟ +prompt : أجب عن السؤال التالي : من اوصى جنكيز بخلافته بعد موته ؟ الجواب هو +pred_answer : : محمد بن عبد الله +answer : أوقطاي خان + +context : وقبل أن يتوفى جنكيز خان أوصى أن يكون خليفته هو أوقطاي خان وقسم إمبراطوريته إلى خانات بين أبنائه وأحفاده . وقد توفي سنة 1227 بعد أن هزم وقد دفن في لايعرف بالضبط أين مكانه في منغوليا . وبدأ أحفاده بتوسيع إمبراطوريتهم خلال أرجاء أوراسيا من خلال احتلال و أو إنشاء ممالك تابعة لهم داخل الصين الحالية وكوريا والقوقاز وممالك آسيا الوسطى ، وأجزاء ضخمة من أوروبا الشرقية والشرق الأوسط . +question : الى ماذا قسم جنكيز امبراطوريته ؟ +prompt : أجب عن السؤال التالي : الى ماذا قسم جنكيز امبراطوريته ؟ الجواب هو +pred_answer : ان الامبراطور كان يقسم مملكته +answer : إلى خانات بين أبنائه وأحفاده + +context : وقبل أن يتوفى جنكيز خان أوصى أن يكون خليفته هو أوقطاي خان وقسم إمبراطوريته إلى خانات بين أبنائه وأحفاده . وقد توفي سنة 1227 بعد أن هزم وقد دفن في لايعرف بالضبط أين مكانه في منغوليا . وبدأ أحفاده بتوسيع إمبراطوريتهم خلال أرجاء أوراسيا من خلال احتلال و أو إنشاء ممالك تابعة لهم داخل الصين الحالية وكوريا والقوقاز وممالك آسيا الوسطى ، وأجزاء ضخمة من أوروبا الشرقية والشرق الأوسط . +question : الى اين توسع اولاده ؟ +prompt : أجب عن السؤال التالي : الى اين توسع اولاده ؟ الجواب هو +pred_answer : انه لم يعد قادرا على ذلك .فهو لا يستطيع ان يوفر لهم كل ما يحتاجونه +answer : الصين الحالية وكوريا والقوقاز وممالك آسيا الوسطى وأجزاء ضخمة من أوروبا الشرقية والشرق الأوسط + +context : سليمان خان الأول بن سليم خان الأول ( بالتركية العثمانية : سلطان سليمان اول ) ؛ ( بالتركية : Sultan S leyman - Evvel ) ( ميلاد : 6 نوفمبر 1494 بطرابزون ، وفاة : 7 سبتمبر 1566 بسيكتوار ) ، عاشر السلاطين العثمانيين وخليفة المسلمين الثمانون ، وثاني من حمل لقب " أمير المؤمنين " من آل عثمان . +question : من هو والد سليمان خان ؟ +prompt : أجب عن السؤال التالي : من هو والد سليمان خان ؟ الجواب هو +pred_answer : : السلطان سليمان خان +answer : سليم خان الأول + +context : سليمان خان الأول بن سليم خان الأول ( بالتركية العثمانية : سلطان سليمان اول ) ؛ ( بالتركية : Sultan S leyman - Evvel ) ( ميلاد : 6 نوفمبر 1494 بطرابزون ، وفاة : 7 سبتمبر 1566 بسيكتوار ) ، عاشر السلاطين العثمانيين وخليفة المسلمين الثمانون ، وثاني من حمل لقب " أمير المؤمنين " من آل عثمان . +question : ما اسم سليمان خان بالتركية ؟ +prompt : أجب عن السؤال التالي : ما اسم سليمان خان بالتركية ؟ الجواب هو +pred_answer : : سليمان خان بن أرطغرل بن سليمان شاه الق +answer : Sultan S leyman Evvel + +context : سليمان خان الأول بن سليم خان الأول ( بالتركية العثمانية : سلطان سليمان اول ) ؛ ( بالتركية : Sultan S leyman - Evvel ) ( ميلاد : 6 نوفمبر 1494 بطرابزون ، وفاة : 7 سبتمبر 1566 بسيكتوار ) ، عاشر السلاطين العثمانيين وخليفة المسلمين الثمانون ، وثاني من حمل لقب " أمير المؤمنين " من آل عثمان . +question : متى ولد سليمان خان ؟ +prompt : أجب عن السؤال التالي : متى ولد سليمان خان ؟ الجواب هو +pred_answer : : في عام 15 +answer : 6 نوفمبر 1494 + +context : سليمان ( عبرية : " شلومو - " بالآرامية " - " بالإنجليزية " Solomon " ) هو أحد ملوك مملكة إسرائيل حسب الوارد في سفر الملوك الأول وسفر أخبار الأيام الأول وحسب التلمود ، هو أحد الأنبياء الثمانية والأربعين وابن داود وثالث ملوك مملكة إسرائيل الموحدة قبل إنقسامها إلى مملكة إسرائيل الشمالية وهي المملكة التي بقي يحكمها قبائل إسرائيل الإثنا عشر ومملكة يهوذا في الجنوب والتي حكمها أبناء قبيلة يهوذا وهي القبيلة الوحيدة الباقية من القبائل الإثنا عشر حسب كتابات اليهود يعتقد أنه عاش في الفترة ما بين 970 ق . م حتى 931 ق . م وتوفى عن عمر 52 و اشتهر - وفق العقيدة اليهودية - بحكمته وثرائه وملكه الكبير وعدد من الذنوب التي بموجبها عاقب يهوه بني إسرائيل بتقسيم مملكتهم ارتبط اسم سليمان بعدد من القصص المذكورة في العهد القديم مثل لقاءه مع ملكة سبأ التي ذكرت في القرآن كذلك وقصة قضاء سليمان بين المرأتين المتخاصمتين على رضيع ، ويعتقد حسب التراث اليهودي أنه أول من بنى الهيكل وقصته مع ملك الجن " أشماداي " ( عبرية : ) . +question : من هو سليمان ؟ +prompt : أجب عن السؤال التالي : من هو سليمان ؟ الجواب هو +pred_answer : أن الله سبحانه وتعالى قال في كتابه العزيز : ( ووهبنا لداود سليمان نعم +answer : الملوك الأول وسفر أخبار الأيام الأول وحسب التلمود هو أحد الأنبياء الثمانية والأربعين وابن + +context : سليمان ( عبرية : " شلومو - " بالآرامية " - " بالإنجليزية " Solomon " ) هو أحد ملوك مملكة إسرائيل حسب الوارد في سفر الملوك الأول وسفر أخبار الأيام الأول وحسب التلمود ، هو أحد الأنبياء الثمانية والأربعين وابن داود وثالث ملوك مملكة إسرائيل الموحدة قبل إنقسامها إلى مملكة إسرائيل الشمالية وهي المملكة التي بقي يحكمها قبائل إسرائيل الإثنا عشر ومملكة يهوذا في الجنوب والتي حكمها أبناء قبيلة يهوذا وهي القبيلة الوحيدة الباقية من القبائل الإثنا عشر حسب كتابات اليهود يعتقد أنه عاش في الفترة ما بين 970 ق . م حتى 931 ق . م وتوفى عن عمر 52 و اشتهر - وفق العقيدة اليهودية - بحكمته وثرائه وملكه الكبير وعدد من الذنوب التي بموجبها عاقب يهوه بني إسرائيل بتقسيم مملكتهم ارتبط اسم سليمان بعدد من القصص المذكورة في العهد القديم مثل لقاءه مع ملكة سبأ التي ذكرت في القرآن كذلك وقصة قضاء سليمان بين المرأتين المتخاصمتين على رضيع ، ويعتقد حسب التراث اليهودي أنه أول من بنى الهيكل وقصته مع ملك الجن " أشماداي " ( عبرية : ) . +question : ما هى مملكة اسرائيل الشمالية ؟ +prompt : أجب عن السؤال التالي : ما هى مملكة اسرائيل الشمالية ؟ الجواب هو +pred_answer : أن هذه المملكة كانت تمتد من نهر الفرات شرقا إلى نهر النيل غربا ، ومن البحر +answer : وهي المملكة التي بقي يحكمها قبائل إسرائيل الإثنا عشر ومملكة يهوذا في الجنوب + +context : سليمان ( عبرية : " شلومو - " بالآرامية " - " بالإنجليزية " Solomon " ) هو أحد ملوك مملكة إسرائيل حسب الوارد في سفر الملوك الأول وسفر أخبار الأيام الأول وحسب التلمود ، هو أحد الأنبياء الثمانية والأربعين وابن داود وثالث ملوك مملكة إسرائيل الموحدة قبل إنقسامها إلى مملكة إسرائيل الشمالية وهي المملكة التي بقي يحكمها قبائل إسرائيل الإثنا عشر ومملكة يهوذا في الجنوب والتي حكمها أبناء قبيلة يهوذا وهي القبيلة الوحيدة الباقية من القبائل الإثنا عشر حسب كتابات اليهود يعتقد أنه عاش في الفترة ما بين 970 ق . م حتى 931 ق . م وتوفى عن عمر 52 و اشتهر - وفق العقيدة اليهودية - بحكمته وثرائه وملكه الكبير وعدد من الذنوب التي بموجبها عاقب يهوه بني إسرائيل بتقسيم مملكتهم ارتبط اسم سليمان بعدد من القصص المذكورة في العهد القديم مثل لقاءه مع ملكة سبأ التي ذكرت في القرآن كذلك وقصة قضاء سليمان بين المرأتين المتخاصمتين على رضيع ، ويعتقد حسب التراث اليهودي أنه أول من بنى الهيكل وقصته مع ملك الجن " أشماداي " ( عبرية : ) . +question : بماذا اشتهر سيدنا سليمان ؟ +prompt : أجب عن السؤال التالي : بماذا اشتهر سيدنا سليمان ؟ الجواب هو +pred_answer : قوله تعالى : { وورث سليمان داوود وقال يا أيها الناس علمنا منطق الطير وأوتينا من كل +answer : وثرائه وملكه الكبير وعدد من الذنوب التي بموجبها عاقب يهوه بني إسرائيل بتقسيم مملكتهم + +context : ورد في سفر الملوك الأول أن داود عندما كبر في السن لم يعد بإستطاعته الشعور بالدفء فعرض عليه مستشاريه تزويجه من فتاة صغيرة وجميلة لعلها تدفئ داود في شيخوخته ووجدوا فتاة اسمها " ابيشج الشونمية " لتقوم بهذا الغرض . وكان لداود عدد من الأبناء حينها هم أدونيا وأبشالوم وأمنون وشفطيا ويثرعام وكيلاب وأعلن أدونيا نفسه ملكا على إسرائيل خلال شيخوخة أبيه وهو ماحز في نفس النبي ناثان الذي كان مستشارا لداود . فهرع ناثان إلى أم سليمان مخبرا إياها بفعلة أدونيا وحثها على الذهاب إلى داود وذلك لسببان ، أن يهوه أراد أن سليمان أن يبني الهيكل عقب وفاة داود والسبب الثاني هو وعد داود لزوجته أو أمته حقيقة كما ورد في السفر بتسليم سليمان الملك رغم أن أدونيا هو أكبر أبناء الملك داود الأحياء إلا إنه كان مدللا ومغرورا ولم يلق قبولا من الكهنة والأنبياء +question : ما اسم الفتاة اللتى وجدها الناس للتزوج من داوود ؟ +prompt : أجب عن السؤال التالي : ما اسم الفتاة اللتى وجدها الناس للتزوج من داوود ؟ الجواب هو +pred_answer : ( حيرام ) . +answer : ابيشج الشونمية + +context : ورد في سفر الملوك الأول أن داود عندما كبر في السن لم يعد بإستطاعته الشعور بالدفء فعرض عليه مستشاريه تزويجه من فتاة صغيرة وجميلة لعلها تدفئ داود في شيخوخته ووجدوا فتاة اسمها " ابيشج الشونمية " لتقوم بهذا الغرض . وكان لداود عدد من الأبناء حينها هم أدونيا وأبشالوم وأمنون وشفطيا ويثرعام وكيلاب وأعلن أدونيا نفسه ملكا على إسرائيل خلال شيخوخة أبيه وهو ماحز في نفس النبي ناثان الذي كان مستشارا لداود . فهرع ناثان إلى أم سليمان مخبرا إياها بفعلة أدونيا وحثها على الذهاب إلى داود وذلك لسببان ، أن يهوه أراد أن سليمان أن يبني الهيكل عقب وفاة داود والسبب الثاني هو وعد داود لزوجته أو أمته حقيقة كما ورد في السفر بتسليم سليمان الملك رغم أن أدونيا هو أكبر أبناء الملك داود الأحياء إلا إنه كان مدللا ومغرورا ولم يلق قبولا من الكهنة والأنبياء +question : من هم ابناء داوود ؟ +prompt : أجب عن السؤال التالي : من هم ابناء داوود ؟ الجواب هو +pred_answer : داود بن إيشا بن عويد بن عابر بن سلمون بن نحشون بن ع +answer : أدونيا وأبشالوم وأمنون وشفطيا ويثرعام وكيلاب + +context : ورد في سفر الملوك الأول أن داود عندما كبر في السن لم يعد بإستطاعته الشعور بالدفء فعرض عليه مستشاريه تزويجه من فتاة صغيرة وجميلة لعلها تدفئ داود في شيخوخته ووجدوا فتاة اسمها " ابيشج الشونمية " لتقوم بهذا الغرض . وكان لداود عدد من الأبناء حينها هم أدونيا وأبشالوم وأمنون وشفطيا ويثرعام وكيلاب وأعلن أدونيا نفسه ملكا على إسرائيل خلال شيخوخة أبيه وهو ماحز في نفس النبي ناثان الذي كان مستشارا لداود . فهرع ناثان إلى أم سليمان مخبرا إياها بفعلة أدونيا وحثها على الذهاب إلى داود وذلك لسببان ، أن يهوه أراد أن سليمان أن يبني الهيكل عقب وفاة داود والسبب الثاني هو وعد داود لزوجته أو أمته حقيقة كما ورد في السفر بتسليم سليمان الملك رغم أن أدونيا هو أكبر أبناء الملك داود الأحياء إلا إنه كان مدللا ومغرورا ولم يلق قبولا من الكهنة والأنبياء +question : من اعلن نفسه ملكا لاسرائيل اثناء شيخوخة داوود ؟ +prompt : أجب عن السؤال التالي : من اعلن نفسه ملكا لاسرائيل اثناء شيخوخة داوود ؟ الجواب هو +pred_answer : الملك سليمان +answer : أدونيا + +context : تنقسم جمهورية مصر العربية إلى 27 محافظة في 7 أقاليم ، كل محافظة لها عاصمة ويتبعها مراكز أو أقسام أو مراكز وأقسام معا ، المراكز الإدارية توجد في المحافظات التي بها ريف ، وينقسم المركز الواحد إلى وحدات محلية ؛ وعاصمة المركز أكبر بلاده وتكون مدينة ، وعاصمة الوحدة المحلية تكون قرية رئيسية أو مدينة ( إذا كان المركز يتبعه أكثر من مدينة ) ؛ والقرية الرئيسية يتبعها عدد من القرى ، وكل قرية قد يتبعها عزب وكفور ونجوع . +question : كم يبلغ عدد محافظات جمهورية مصر ؟ +prompt : أجب عن السؤال التالي : كم يبلغ عدد محافظات جمهورية مصر ؟ الجواب هو +pred_answer : 12 محافظة +answer : 27 محافظة + +context : تنقسم جمهورية مصر العربية إلى 27 محافظة في 7 أقاليم ، كل محافظة لها عاصمة ويتبعها مراكز أو أقسام أو مراكز وأقسام معا ، المراكز الإدارية توجد في المحافظات التي بها ريف ، وينقسم المركز الواحد إلى وحدات محلية ؛ وعاصمة المركز أكبر بلاده وتكون مدينة ، وعاصمة الوحدة المحلية تكون قرية رئيسية أو مدينة ( إذا كان المركز يتبعه أكثر من مدينة ) ؛ والقرية الرئيسية يتبعها عدد من القرى ، وكل قرية قد يتبعها عزب وكفور ونجوع . +question : على كم من إقليم تتوزع محافظات جمهورية مصر ؟ +prompt : أجب عن السؤال التالي : على كم من إقليم تتوزع محافظات جمهورية مصر ؟ الجواب هو +pred_answer : كالتالي : +answer : 7 أقاليم + +context : تنقسم جمهورية مصر العربية إلى 27 محافظة في 7 أقاليم ، كل محافظة لها عاصمة ويتبعها مراكز أو أقسام أو مراكز وأقسام معا ، المراكز الإدارية توجد في المحافظات التي بها ريف ، وينقسم المركز الواحد إلى وحدات محلية ؛ وعاصمة المركز أكبر بلاده وتكون مدينة ، وعاصمة الوحدة المحلية تكون قرية رئيسية أو مدينة ( إذا كان المركز يتبعه أكثر من مدينة ) ؛ والقرية الرئيسية يتبعها عدد من القرى ، وكل قرية قد يتبعها عزب وكفور ونجوع . +question : اين توجد المراكز الإدارية في مصر ؟ +prompt : أجب عن السؤال التالي : اين توجد المراكز الإدارية في مصر ؟ الجواب هو +pred_answer : القاهرة ، الإسكندرية ، بورسعيد ، السويس ، الإسماعيلية ، +answer : المراكز الإدارية توجد في المحافظات التي بها ريف + +context : < text xml : space = " preserve " > تنقسم جمهورية مصر العربية إلى 27 محافظة في 7 أقاليم ، كل محافظة لها عاصمة ويتبعها مراكز أو أقسام أو مراكز وأقسام معا ، المراكز الإدارية توجد في المحافظات التي بها ريف ، وينقسم المركز الواحد إلى وحدات محلية ؛ وعاصمة المركز أكبر بلاده وتكون مدينة ، وعاصمة الوحدة المحلية تكون قرية رئيسية أو مدينة ( إذا كان المركز يتبعه أكثر من مدينة ) ؛ والقرية الرئيسية يتبعها عدد من القرى ، وكل قرية قد يتبعها عزب وكفور ونجوع . وإذا كانت عاصمة المركز مدينة كبيرة فإنها تكون قسما أو مقسمة لعدة أقسام ويكون لكل قسم رئيس يسمى برئيس الحي ، أما إذا كانت قسما واحدا فيكون حاكمها رئيس المدينة وتقسم لعدة أحياء صغيرة أو شياخات ، ويعين رئيس المدينة رؤساء تلك الأحياء الصغيرة أو الشياخات . +question : ماهي عاصمة الوحدة المحلية في المركز الإداري في محافظات جمهورية مصر ؟ +prompt : أجب عن السؤال التالي : ماهي عاصمة الوحدة المحلية في المركز الإداري في محافظات جمهورية مصر ؟ الجواب هو +pred_answer : ( القاهرة ) .إذا كانت الإجابة بنعم ، فما هي عاصمة المحافظة في +answer : الوحدة المحلية تكون قرية رئيسية أو مدينة إذا كان المركز يتبعه أكثر من مدينة + +context : < text xml : space = " preserve " > تنقسم جمهورية مصر العربية إلى 27 محافظة في 7 أقاليم ، كل محافظة لها عاصمة ويتبعها مراكز أو أقسام أو مراكز وأقسام معا ، المراكز الإدارية توجد في المحافظات التي بها ريف ، وينقسم المركز الواحد إلى وحدات محلية ؛ وعاصمة المركز أكبر بلاده وتكون مدينة ، وعاصمة الوحدة المحلية تكون قرية رئيسية أو مدينة ( إذا كان المركز يتبعه أكثر من مدينة ) ؛ والقرية الرئيسية يتبعها عدد من القرى ، وكل قرية قد يتبعها عزب وكفور ونجوع . وإذا كانت عاصمة المركز مدينة كبيرة فإنها تكون قسما أو مقسمة لعدة أقسام ويكون لكل قسم رئيس يسمى برئيس الحي ، أما إذا كانت قسما واحدا فيكون حاكمها رئيس المدينة وتقسم لعدة أحياء صغيرة أو شياخات ، ويعين رئيس المدينة رؤساء تلك الأحياء الصغيرة أو الشياخات . +question : ماذا يسمى رئيس كل قسم ؟ +prompt : أجب عن السؤال التالي : ماذا يسمى رئيس كل قسم ؟ الجواب هو +pred_answer : الرئيس المباشر للقسم ، +answer : يسمى برئيس الحي + +context : < text xml : space = " preserve " > تنقسم جمهورية مصر العربية إلى 27 محافظة في 7 أقاليم ، كل محافظة لها عاصمة ويتبعها مراكز أو أقسام أو مراكز وأقسام معا ، المراكز الإدارية توجد في المحافظات التي بها ريف ، وينقسم المركز الواحد إلى وحدات محلية ؛ وعاصمة المركز أكبر بلاده وتكون مدينة ، وعاصمة الوحدة المحلية تكون قرية رئيسية أو مدينة ( إذا كان المركز يتبعه أكثر من مدينة ) ؛ والقرية الرئيسية يتبعها عدد من القرى ، وكل قرية قد يتبعها عزب وكفور ونجوع . وإذا كانت عاصمة المركز مدينة كبيرة فإنها تكون قسما أو مقسمة لعدة أقسام ويكون لكل قسم رئيس يسمى برئيس الحي ، أما إذا كانت قسما واحدا فيكون حاكمها رئيس المدينة وتقسم لعدة أحياء صغيرة أو شياخات ، ويعين رئيس المدينة رؤساء تلك الأحياء الصغيرة أو الشياخات . +question : من يعين رئيس المدينة ؟ +prompt : أجب عن السؤال التالي : من يعين رئيس المدينة ؟ الجواب هو +pred_answer : : الله سبحانه وتعالى ، قال تعالى : { إن الله +answer : ويعين رئيس المدينة رؤساء تلك الأحياء الصغيرة أو الشياخات + +context : ظهر التقسيم الإداري المصري بشكل نظامي لأول مرة بعد توحد القطر المصري في نظام مركزي للحكم ؛ حيث قسمت إداريا إلى 42 إقليما ، وكان على رأس كل إقليم حاكم يديره ، لكنه يتبع الفرعون ويطيعه . وعرفت البلاد نظاما للحكم المحلي مشابه للنظام الحالي في عهد الاحتلال الفرنسي ( 1798 - 1801 ) حيث قسم نابليون بونابرت البلاد إلى 16 مديرية ، ولما تولى محمد علي باشا حكم مصر منذ عام 1805 ؛ قسم البلاد إلى 14 مديرية بجانب محافظات حضرية وقسمت كل مديرية إلى عدة مراكز كما هو معمول الآن . +question : كيف تم تقسيم مصر إداريا في عهد الاحتلال الفرنسي بقيادة نابليون بونابارت ؟ +prompt : أجب عن السؤال التالي : كيف تم تقسيم مصر إداريا في عهد الاحتلال الفرنسي بقيادة نابليون بونابارت ؟ الجواب هو +pred_answer : أن التقسيم الإداري لمصر كان على النحو التالي : +answer : قسم نابليون بونابرت البلاد إلى 16 مديرية + +context : ظهر التقسيم الإداري المصري بشكل نظامي لأول مرة بعد توحد القطر المصري في نظام مركزي للحكم ؛ حيث قسمت إداريا إلى 42 إقليما ، وكان على رأس كل إقليم حاكم يديره ، لكنه يتبع الفرعون ويطيعه . وعرفت البلاد نظاما للحكم المحلي مشابه للنظام الحالي في عهد الاحتلال الفرنسي ( 1798 - 1801 ) حيث قسم نابليون بونابرت البلاد إلى 16 مديرية ، ولما تولى محمد علي باشا حكم مصر منذ عام 1805 ؛ قسم البلاد إلى 14 مديرية بجانب محافظات حضرية وقسمت كل مديرية إلى عدة مراكز كما هو معمول الآن . +question : كيف قسم محمد علي باشا مصر إداريا خلال فترة حكمه ؟ +prompt : أجب عن السؤال التالي : كيف قسم محمد علي باشا مصر إداريا خلال فترة حكمه ؟ الجواب هو +pred_answer : أنه قام بتقسيمها إلى أربعة أقسام إدارية هي : 1 - الصعيد . 2 - الوجه البحري +answer : منذ عام 1805 قسم البلاد إلى 14 مديرية بجانب محافظات حضرية وقسمت كل مديرية + +context : ظهر التقسيم الإداري المصري بشكل نظامي لأول مرة بعد توحد القطر المصري في نظام مركزي للحكم ؛ حيث قسمت إداريا إلى 42 إقليما ، وكان على رأس كل إقليم حاكم يديره ، لكنه يتبع الفرعون ويطيعه . وعرفت البلاد نظاما للحكم المحلي مشابه للنظام الحالي في عهد الاحتلال الفرنسي ( 1798 - 1801 ) حيث قسم نابليون بونابرت البلاد إلى 16 مديرية ، ولما تولى محمد علي باشا حكم مصر منذ عام 1805 ؛ قسم البلاد إلى 14 مديرية بجانب محافظات حضرية وقسمت كل مديرية إلى عدة مراكز كما هو معمول الآن . +question : متى ظهر التقسيم الإداري في مصر بشكل نظامي ؟ +prompt : أجب عن السؤال التالي : متى ظهر التقسيم الإداري في مصر بشكل نظامي ؟ الجواب هو +pred_answer : أن أول تقسيم إداري عرفته مصر كان في عهد محمد علي باشا عام 1826 +answer : التقسيم الإداري المصري بشكل نظامي لأول مرة بعد توحد القطر المصري في نظام مركزي + +context : الأمم المتحدة منظمة عالمية تضم في عضويتها جميع دول العالم المستقلة تقريبا . تأسست منظمة الأمم المتحدة بتاريخ 24 أكتوبر 1945 في مدينة سان فرانسيسكو ، كاليفورنيا الأمريكية ، تبعا لمؤتمر دومبارتون أوكس الذي عقد في العاصمة واشنطن . +question : ماهو تاريخ تأسيس منظمة الأمم المتحدة ؟ +prompt : أجب عن السؤال التالي : ماهو تاريخ تأسيس منظمة الأمم المتحدة ؟ الجواب هو +pred_answer : عام 1945 م ، أي بعد انتهاء الحرب +answer : تأسست منظمة الأمم المتحدة بتاريخ 24 أكتوبر 1945 + +context : الأمم المتحدة منظمة عالمية تضم في عضويتها جميع دول العالم المستقلة تقريبا . تأسست منظمة الأمم المتحدة بتاريخ 24 أكتوبر 1945 في مدينة سان فرانسيسكو ، كاليفورنيا الأمريكية ، تبعا لمؤتمر دومبارتون أوكس الذي عقد في العاصمة واشنطن . +question : ماهو الاجتماع الذي سبق تأسيس الأمم المتحدة ؟ +prompt : أجب عن السؤال التالي : ماهو الاجتماع الذي سبق تأسيس الأمم المتحدة ؟ الجواب هو +pred_answer : : مؤتمر سان فرانسيسكو عام 1945 م .الاجتماع +answer : لمؤتمر دومبارتون أوكس الذي عقد في العاصمة واشنطن + +context : الأمم المتحدة منظمة عالمية تضم في عضويتها جميع دول العالم المستقلة تقريبا . تأسست منظمة الأمم المتحدة بتاريخ 24 أكتوبر 1945 في مدينة سان فرانسيسكو ، كاليفورنيا الأمريكية ، تبعا لمؤتمر دومبارتون أوكس الذي عقد في العاصمة واشنطن . +question : أين تأسست منظمة الأمم المتحدة ؟ +prompt : أجب عن السؤال التالي : أين تأسست منظمة الأمم المتحدة ؟ الجواب هو +pred_answer : في مدينة سان فرانسيسكو ، +answer : مدينة سان فرانسيسكو كاليفورنيا الأمريكية + +context : الأمم المتحدة منظمة عالمية تضم في عضويتها جميع دول العالم المستقلة تقريبا . تأسست منظمة الأمم المتحدة بتاريخ 24 أكتوبر 1945 في مدينة سان فرانسيسكو ، كاليفورنيا الأمريكية ، تبعا لمؤتمر دومبارتون أوكس الذي عقد في العاصمة واشنطن . يتم تمويل المنظمة من خلال المساهمات المقدرة والمساهمات الطوعية من الدول الأعضاء فيها . توجد مكاتب رئيسية أخرى في جنيف ونيروبي وفيينا . وتشمل أهدافها الحفاظ على السلام والأمن الدوليين ، وحماية حقوق الإنسان ، وتقديم المساعدات الإنسانية ، وتعزيز التنمية المستدامة ، ودعم القانون الدولي . +question : ماهي مصادر تمويل منظمة الأمم المتحدة ؟ +prompt : أجب عن السؤال التالي : ماهي مصادر تمويل منظمة الأمم المتحدة ؟ الجواب هو +pred_answer : : 1 - اشتراكات الدول الأعضاء في الأمم المتحدة .2 - التبرعات الطوعية +answer : يتم تمويل المنظمة من خلال المساهمات المقدرة والمساهمات الطوعية من الدول الأعضاء فيها + +context : الأمم المتحدة منظمة عالمية تضم في عضويتها جميع دول العالم المستقلة تقريبا . تأسست منظمة الأمم المتحدة بتاريخ 24 أكتوبر 1945 في مدينة سان فرانسيسكو ، كاليفورنيا الأمريكية ، تبعا لمؤتمر دومبارتون أوكس الذي عقد في العاصمة واشنطن . يتم تمويل المنظمة من خلال المساهمات المقدرة والمساهمات الطوعية من الدول الأعضاء فيها . توجد مكاتب رئيسية أخرى في جنيف ونيروبي وفيينا . وتشمل أهدافها الحفاظ على السلام والأمن الدوليين ، وحماية حقوق الإنسان ، وتقديم المساعدات الإنسانية ، وتعزيز التنمية المستدامة ، ودعم القانون الدولي . +question : هل توجد فروع لمنظمة الامم المتحدة عبر العالم ؟ +prompt : أجب عن السؤال التالي : هل توجد فروع لمنظمة الامم المتحدة عبر العالم ؟ الجواب هو +pred_answer : نعم ، ولكن ليس في لبنان .فمنظمة الامم المتحدة +answer : توجد مكاتب رئيسية أخرى في جنيف ونيروبي وفيينا + +context : الأمم المتحدة منظمة عالمية تضم في عضويتها جميع دول العالم المستقلة تقريبا . تأسست منظمة الأمم المتحدة بتاريخ 24 أكتوبر 1945 في مدينة سان فرانسيسكو ، كاليفورنيا الأمريكية ، تبعا لمؤتمر دومبارتون أوكس الذي عقد في العاصمة واشنطن . يتم تمويل المنظمة من خلال المساهمات المقدرة والمساهمات الطوعية من الدول الأعضاء فيها . توجد مكاتب رئيسية أخرى في جنيف ونيروبي وفيينا . وتشمل أهدافها الحفاظ على السلام والأمن الدوليين ، وحماية حقوق الإنسان ، وتقديم المساعدات الإنسانية ، وتعزيز التنمية المستدامة ، ودعم القانون الدولي . +question : ماهي أهم أهداف منظمة الامم المتحدة ؟ +prompt : أجب عن السؤال التالي : ماهي أهم أهداف منظمة الامم المتحدة ؟ الجواب هو +pred_answer : ما يلي : 1 - الحفاظ على السلم والأمن الدوليين .2 - +answer : والأمن الدوليين وحماية حقوق الإنسان وتقديم المساعدات الإنسانية وتعزيز التنمية المستدامة + +context : من 1919 إلى 1945 كان يوجد منظمة شبيهة بمنظمة الأمم المتحدة تدعى عصبة الأمم إلا أنها فشلت في مهامها خصوصا بعد قيام الحرب العالمية الثانية ، مما أدى إلى نشوء الأمم المتحدة بعد إنتصار الحلفاء وتم إلغاء عصبة الأمم . +question : هل توجد منظمة لها نفس أهداف الأمم المتحدة ؟ +prompt : أجب عن السؤال التالي : هل توجد منظمة لها نفس أهداف الأمم المتحدة ؟ الجواب هو +pred_answer : نعم ، وهي المنظمة العالمية للتجارة ( WTO +answer : كان يوجد منظمة شبيهة بمنظمة الأمم المتحدة تدعى عصبة الأمم + +context : من 1919 إلى 1945 كان يوجد منظمة شبيهة بمنظمة الأمم المتحدة تدعى عصبة الأمم إلا أنها فشلت في مهامها خصوصا بعد قيام الحرب العالمية الثانية ، مما أدى إلى نشوء الأمم المتحدة بعد إنتصار الحلفاء وتم إلغاء عصبة الأمم . +question : متى تم إنشاء منظمة عصبة الأمم ؟ +prompt : أجب عن السؤال التالي : متى تم إنشاء منظمة عصبة الأمم ؟ الجواب هو في عام +pred_answer : 1920 +answer : 1919 + +context : من 1919 إلى 1945 كان يوجد منظمة شبيهة بمنظمة الأمم المتحدة تدعى عصبة الأمم إلا أنها فشلت في مهامها خصوصا بعد قيام الحرب العالمية الثانية ، مما أدى إلى نشوء الأمم المتحدة بعد إنتصار الحلفاء وتم إلغاء عصبة الأمم . +question : هل حققت منظمة عصبة الأمم أهدافها ؟ +prompt : أجب عن السؤال التالي : هل حققت منظمة عصبة الأمم أهدافها ؟ الجواب هو +pred_answer : نعم ، فقد قامت هذه المنظمة على أنقاض عصبة الأمم التي تأسست عام 1920 � +answer : الحرب العالمية الثانية مما أدى إلى نشوء الأمم المتحدة بعد إنتصار الحلفاء وتم إلغاء + +context : النمسا أو رسميا جمهورية النمسا هي جمهورية فيدرالية وبلد غير ساحلي يقع في أوروبا الوسطى . تحدها جمهورية التشيك وألمانيا في الشمال والمجر وسلوفاكيا إلى الشرق وسلوفينيا وإيطاليا من الجنوب ، وسويسرا وليختنشتاين من الغرب . +question : أين تقع النمسا ؟ +prompt : أجب عن السؤال التالي : أين تقع النمسا ؟ الجواب هو +pred_answer : في وسط أوروبا +answer : أوروبا الوسطى + +context : النمسا أو رسميا جمهورية النمسا هي جمهورية فيدرالية وبلد غير ساحلي يقع في أوروبا الوسطى . تحدها جمهورية التشيك وألمانيا في الشمال والمجر وسلوفاكيا إلى الشرق وسلوفينيا وإيطاليا من الجنوب ، وسويسرا وليختنشتاين من الغرب . +question : ماهو النظام الخاص بدولة النمسا ؟ +prompt : أجب عن السؤال التالي : ماهو النظام الخاص بدولة النمسا ؟ الجواب هو +pred_answer : نظام الحكم في النمسا ، وهو +answer : النمسا هي جمهورية فيدرالية + +context : النمسا أو رسميا جمهورية النمسا هي جمهورية فيدرالية وبلد غير ساحلي يقع في أوروبا الوسطى . تحدها جمهورية التشيك وألمانيا في الشمال والمجر وسلوفاكيا إلى الشرق وسلوفينيا وإيطاليا من الجنوب ، وسويسرا وليختنشتاين من الغرب . +question : ماهي الدول التي تحد جمهورية النمسا ؟ +prompt : أجب عن السؤال التالي : ماهي الدول التي تحد جمهورية النمسا ؟ الجواب هو +pred_answer : : ألمانيا ، بلجيكا ، سويسرا ، فرنسا ، إيطاليا ، هولندا ، النرويج ، السويد ، المملكة المتحدة +answer : التشيك وألمانيا في الشمال والمجر وسلوفاكيا إلى الشرق وسلوفينيا وإيطاليا من الجنوب وسويسرا وليختنشتاين + +context : حاليا ، النظام السياسي في النمسا هو الديمقراطية التمثيلية البرلمانية شبه رئاسي تضم تسع ولايات اتحادية والعاصمة ( فيينا ) وهي أكبر المدن ، يتجاوز عدد سكانها 1 . 7 مليون نسمة النمسا هي واحدة من أغنى البلدان في العالم ، حيث يبلغ الناتج المحلي الإجمالي الاسمي للفرد الواحد حوالي 46 , 330 $ ( 2012 تخمين ) . وقد وضعت البلاد على مستوى عال من المعيشة في عام 2011 وكانت في المرتبة 19 في العالم من حيث مؤشر التنمية البشرية . النمسا عضو في الأمم المتحدة منذ عام 1955 انضمت إلى الاتحاد الأوروبي في عام 1995 ، من وهو يمؤسس منظمة التعاون والتنمية . كما وقعت النمسا اتفاقية شنغن في عام 1995 ، واعتمدت العملة الأوروبية ، اليورو ، في عام 1999 . العيد الوطني في النمسا يقع في يوم 26 أكتوبر تشرين الأول . +question : ماهي طبيعية النظام السياسي في النمسا ؟ +prompt : أجب عن السؤال التالي : ماهي طبيعية النظام السياسي في النمسا ؟ الجواب هو +pred_answer : نظام ديمقراطي برلماني ، حيث يتم انتخاب رئيس الدولة من قبل الشعب +answer : حاليا النظام السياسي في النمسا هو الديمقراطية التمثيلية البرلمانية شبه رئاسي + +context : حاليا ، النظام السياسي في النمسا هو الديمقراطية التمثيلية البرلمانية شبه رئاسي تضم تسع ولايات اتحادية والعاصمة ( فيينا ) وهي أكبر المدن ، يتجاوز عدد سكانها 1 . 7 مليون نسمة النمسا هي واحدة من أغنى البلدان في العالم ، حيث يبلغ الناتج المحلي الإجمالي الاسمي للفرد الواحد حوالي 46 , 330 $ ( 2012 تخمين ) . وقد وضعت البلاد على مستوى عال من المعيشة في عام 2011 وكانت في المرتبة 19 في العالم من حيث مؤشر التنمية البشرية . النمسا عضو في الأمم المتحدة منذ عام 1955 انضمت إلى الاتحاد الأوروبي في عام 1995 ، من وهو يمؤسس منظمة التعاون والتنمية . كما وقعت النمسا اتفاقية شنغن في عام 1995 ، واعتمدت العملة الأوروبية ، اليورو ، في عام 1999 . العيد الوطني في النمسا يقع في يوم 26 أكتوبر تشرين الأول . +question : كم يبلغ عدد سكان دولة النمسا ؟ +prompt : أجب عن السؤال التالي : كم يبلغ عدد سكان دولة النمسا ؟ الجواب هو +pred_answer : 2 . 5 مليون نسمة ، أي ما +answer : يتجاوز عدد سكانها 1 7 مليون نسمة + +context : حاليا ، النظام السياسي في النمسا هو الديمقراطية التمثيلية البرلمانية شبه رئاسي تضم تسع ولايات اتحادية والعاصمة ( فيينا ) وهي أكبر المدن ، يتجاوز عدد سكانها 1 . 7 مليون نسمة النمسا هي واحدة من أغنى البلدان في العالم ، حيث يبلغ الناتج المحلي الإجمالي الاسمي للفرد الواحد حوالي 46 , 330 $ ( 2012 تخمين ) . وقد وضعت البلاد على مستوى عال من المعيشة في عام 2011 وكانت في المرتبة 19 في العالم من حيث مؤشر التنمية البشرية . النمسا عضو في الأمم المتحدة منذ عام 1955 انضمت إلى الاتحاد الأوروبي في عام 1995 ، من وهو يمؤسس منظمة التعاون والتنمية . كما وقعت النمسا اتفاقية شنغن في عام 1995 ، واعتمدت العملة الأوروبية ، اليورو ، في عام 1999 . العيد الوطني في النمسا يقع في يوم 26 أكتوبر تشرين الأول . +question : متى انضمت النمسا للإتحاد الأوروبي ؟ +prompt : أجب عن السؤال التالي : متى انضمت النمسا للإتحاد الأوروبي ؟ الجواب هو في عام +pred_answer : 1955 . +answer : 1995 + +context : إن أصل اسم النمسا في اللغة العربية قديم وهو من اللغة السلافية القديمة " n m c " والتي تعني الأجنبي أو الألماني وهي لفظة مشتقة بدورها من اللفظ السلافي القديم " n m " والذي يعني الصم البكم ( الذين لا يسمعون ولا يتكلمون ) . وهذا الاسم الذي اختصت العربية به لهذا جاء من اللفظ الذي اشتقت لغات أخرى مسمى الشعب الألماني . فباللغة الروسية يسمى الألمان بلفظ ( ) نيامياتسكي وتعني ألماني ، وفي البولندية يعرفون باسم نمسي ( " Niemcy " ) ، وفي الكرواتية والبوسنية باسم نيومتشكا ( " Njema ka ) " وفي الصربية باسم نيماتشكا ( " " ) وفي السلوفينية باسم نمتشيا ( " Nem ija " ) وفي التشيكية باسم نمسكو ( " N mecko " ) وفي السلوفاكية تعرف باسم نمسكو ( " Nemecko " ) ، وكل هذه التسميات للألمان والنسماويون أصلها واحد . +question : من اين تم إشتقاق إسم " النمسا " الذي يستخدمه العرب ؟ +prompt : أجب عن السؤال التالي : من اين تم إشتقاق إسم " النمسا " الذي يستخدمه العرب ؟ الجواب هو +pred_answer : أن الإسم مشتق من الكلمة اللاتينية ( باللاتينية : +answer : وهو من اللغة السلافية القديمة n m c + +context : إن أصل اسم النمسا في اللغة العربية قديم وهو من اللغة السلافية القديمة " n m c " والتي تعني الأجنبي أو الألماني وهي لفظة مشتقة بدورها من اللفظ السلافي القديم " n m " والذي يعني الصم البكم ( الذين لا يسمعون ولا يتكلمون ) . وهذا الاسم الذي اختصت العربية به لهذا جاء من اللفظ الذي اشتقت لغات أخرى مسمى الشعب الألماني . فباللغة الروسية يسمى الألمان بلفظ ( ) نيامياتسكي وتعني ألماني ، وفي البولندية يعرفون باسم نمسي ( " Niemcy " ) ، وفي الكرواتية والبوسنية باسم نيومتشكا ( " Njema ka ) " وفي الصربية باسم نيماتشكا ( " " ) وفي السلوفينية باسم نمتشيا ( " Nem ija " ) وفي التشيكية باسم نمسكو ( " N mecko " ) وفي السلوفاكية تعرف باسم نمسكو ( " Nemecko " ) ، وكل هذه التسميات للألمان والنسماويون أصلها واحد . +question : وماذا يعني إسم " النمسا " في لغته الأصلية ؟ +prompt : أجب عن السؤال التالي : وماذا يعني إسم " النمسا " في لغته الأصلية ؟ الجواب هو +pred_answer : أن الاسم مشتق من كلمة +answer : تعني الأجنبي أو الألماني + +context : إن أصل اسم النمسا في اللغة العربية قديم وهو من اللغة السلافية القديمة " n m c " والتي تعني الأجنبي أو الألماني وهي لفظة مشتقة بدورها من اللفظ السلافي القديم " n m " والذي يعني الصم البكم ( الذين لا يسمعون ولا يتكلمون ) . وهذا الاسم الذي اختصت العربية به لهذا جاء من اللفظ الذي اشتقت لغات أخرى مسمى الشعب الألماني . فباللغة الروسية يسمى الألمان بلفظ ( ) نيامياتسكي وتعني ألماني ، وفي البولندية يعرفون باسم نمسي ( " Niemcy " ) ، وفي الكرواتية والبوسنية باسم نيومتشكا ( " Njema ka ) " وفي الصربية باسم نيماتشكا ( " " ) وفي السلوفينية باسم نمتشيا ( " Nem ija " ) وفي التشيكية باسم نمسكو ( " N mecko " ) وفي السلوفاكية تعرف باسم نمسكو ( " Nemecko " ) ، وكل هذه التسميات للألمان والنسماويون أصلها واحد . +question : ماذا عن أصل التسميات الأخرى للنمسا ؟ +prompt : أجب عن السؤال التالي : ماذا عن أصل التسميات الأخرى للنمسا ؟ الجواب هو +pred_answer : أن اسم النمسا مشتق من الكلمة اللاتينية ( باللاتينية : +answer : وكل هذه التسميات للألمان والنسماويون أصلها واحد + +context : موريتانيا أو ( رسميا : الجمهورية الإسلامية الموريتانية ) ، هي دولة عربية وأفريقية ، تقع في شمال غرب أفريقيا وعلى شاطئ المحيط الأطلسي ، يحدها من الشمال كل من المغرب والجزائر ، ومن الجنوب السنغال ، ومن الشرق والجنوب مالي ، وكنقطة وصل بين شمال أفريقيا وجنوبها تجمع صحراء موريتانيا الشاسعة منذ آلاف السنين ، بين أعراق وثقافات مختلفة منها عربية وأمازيغية وإفريقية . +question : ماهو الإسم الرسمي لموريطانيا ؟ +prompt : أجب عن السؤال التالي : ماهو الإسم الرسمي لموريطانيا ؟ الجواب هو +pred_answer : ( Morocco +answer : الجمهورية الإسلامية الموريتانية + +context : موريتانيا أو ( رسميا : الجمهورية الإسلامية الموريتانية ) ، هي دولة عربية وأفريقية ، تقع في شمال غرب أفريقيا وعلى شاطئ المحيط الأطلسي ، يحدها من الشمال كل من المغرب والجزائر ، ومن الجنوب السنغال ، ومن الشرق والجنوب مالي ، وكنقطة وصل بين شمال أفريقيا وجنوبها تجمع صحراء موريتانيا الشاسعة منذ آلاف السنين ، بين أعراق وثقافات مختلفة منها عربية وأمازيغية وإفريقية . +question : أين تقع موريطانيا ؟ +prompt : أجب عن السؤال التالي : أين تقع موريطانيا ؟ الجواب هو +pred_answer : أنها تقع في شمال غرب القارة الإفريقية ، وتحدها +answer : تقع في شمال غرب أفريقيا وعلى شاطئ المحيط الأطلسي + +context : موريتانيا أو ( رسميا : الجمهورية الإسلامية الموريتانية ) ، هي دولة عربية وأفريقية ، تقع في شمال غرب أفريقيا وعلى شاطئ المحيط الأطلسي ، يحدها من الشمال كل من المغرب والجزائر ، ومن الجنوب السنغال ، ومن الشرق والجنوب مالي ، وكنقطة وصل بين شمال أفريقيا وجنوبها تجمع صحراء موريتانيا الشاسعة منذ آلاف السنين ، بين أعراق وثقافات مختلفة منها عربية وأمازيغية وإفريقية . +question : ماهي الدول التي تحد موريطانيا ؟ +prompt : أجب عن السؤال التالي : ماهي الدول التي تحد موريطانيا ؟ الجواب هو +pred_answer : : موريتانيا ، النيجر ، مالي ، السينغال ، بوركينافاسو ، +answer : يحدها من الشمال كل من المغرب والجزائر ومن الجنوب السنغال ومن الشرق والجنوب مالي + +context : خلال القرن الخامس والسادس الهجري في منطقة المغرب الإسلامي انبثقت دولة المرابطين من حركة دعوية إصلاحية إسلامية اعتمدت في بدايتها على العصبية الصنهاجية بعد التحام عدد من قبائلها الكبيرة . تحول هذا الالتحام إلى سند شعبي لم يلبث بدوره أن تحول إلى سند عسكري أفضى في النهاية إلى نشوء قوة إقليمية اقتصادية لسيطرة تلك القبائل على عدد من الطرق التجارية ، إضافة إلى الروح الإسلامية الإصلاحية المبنية على اعتقاد مالكي سني ، فسمت نفسها تسمية معبرة عن ذلك وهي « دولة الرباط والإصلاح » . كان أول تحرك عسكري للملثمين صوب قبيلة جدالة ، وبعد إتمام ضم بقية القبائل الصنهاجية البدوية إلى دعوتهم تقدموا نحو الشمال لمواجهة الزناتيين المسيطرين على الخط التجاري الواصل بين الصحراء والأندلس ، وكان دخول وسيطرة المرابطين على سجلماسة سنة 447 ه باكورة عملياتهم العسكرية الكبرى لتوحيد المغرب الإسلامي . +question : متى وأين ظهرت دولة المرابطين ؟ +prompt : أجب عن السؤال التالي : متى وأين ظهرت دولة المرابطين ؟ الجواب هو +pred_answer : في القرن الخامس عشر الميلادي ، أي قبل ظهور الدولة +answer : خلال القرن الخامس والسادس الهجري في منطقة المغرب الإسلامي + +context : خلال القرن الخامس والسادس الهجري في منطقة المغرب الإسلامي انبثقت دولة المرابطين من حركة دعوية إصلاحية إسلامية اعتمدت في بدايتها على العصبية الصنهاجية بعد التحام عدد من قبائلها الكبيرة . تحول هذا الالتحام إلى سند شعبي لم يلبث بدوره أن تحول إلى سند عسكري أفضى في النهاية إلى نشوء قوة إقليمية اقتصادية لسيطرة تلك القبائل على عدد من الطرق التجارية ، إضافة إلى الروح الإسلامية الإصلاحية المبنية على اعتقاد مالكي سني ، فسمت نفسها تسمية معبرة عن ذلك وهي « دولة الرباط والإصلاح » . كان أول تحرك عسكري للملثمين صوب قبيلة جدالة ، وبعد إتمام ضم بقية القبائل الصنهاجية البدوية إلى دعوتهم تقدموا نحو الشمال لمواجهة الزناتيين المسيطرين على الخط التجاري الواصل بين الصحراء والأندلس ، وكان دخول وسيطرة المرابطين على سجلماسة سنة 447 ه باكورة عملياتهم العسكرية الكبرى لتوحيد المغرب الإسلامي . +question : كيف ظهرت دولة المرابطين ؟ +prompt : أجب عن السؤال التالي : كيف ظهرت دولة المرابطين ؟ الجواب هو +pred_answer : أن الدولة المرابطية قامت على يد عبد الله بن ياسين الجزولي ، وهو من قبيلة جز +answer : انبثقت دولة المرابطين من حركة دعوية إصلاحية إسلامية اعتمدت في بدايتها على العصبية الصنهاجية + +context : خلال القرن الخامس والسادس الهجري في منطقة المغرب الإسلامي انبثقت دولة المرابطين من حركة دعوية إصلاحية إسلامية اعتمدت في بدايتها على العصبية الصنهاجية بعد التحام عدد من قبائلها الكبيرة . تحول هذا الالتحام إلى سند شعبي لم يلبث بدوره أن تحول إلى سند عسكري أفضى في النهاية إلى نشوء قوة إقليمية اقتصادية لسيطرة تلك القبائل على عدد من الطرق التجارية ، إضافة إلى الروح الإسلامية الإصلاحية المبنية على اعتقاد مالكي سني ، فسمت نفسها تسمية معبرة عن ذلك وهي « دولة الرباط والإصلاح » . كان أول تحرك عسكري للملثمين صوب قبيلة جدالة ، وبعد إتمام ضم بقية القبائل الصنهاجية البدوية إلى دعوتهم تقدموا نحو الشمال لمواجهة الزناتيين المسيطرين على الخط التجاري الواصل بين الصحراء والأندلس ، وكان دخول وسيطرة المرابطين على سجلماسة سنة 447 ه باكورة عملياتهم العسكرية الكبرى لتوحيد المغرب الإسلامي . +question : ماهي تسمية دولة المرابطين آنذاك ؟ +prompt : أجب عن السؤال التالي : ماهي تسمية دولة المرابطين آنذاك ؟ الجواب هو +pred_answer : : المرابطون . +answer : دولة الرباط والإصلاح + +context : في بداية من القرن الخامس الهجري دخلت قبائل عربية البلاد . ثم في القرن السادس الهجري استقرت قبائل بنو المعقل العربية بموريتانيا وقد جاءت من صعيد مصر ضمن الهجرة الهلالية الشهيرة إلى بلدان المغرب العربي لكنها واجهت معارضة شديدة من القبائل الأمازيغية والتي ما لبثت أن دانت للسلطان العربي وقد ساهم في إزالة المعارضة وحدة الدين حيث سبق الإسلام العرب إلى المنطقة . واختلطت المجموعتان مع الزمن وتشكل عرق منسجم من الأمازيغ والعرب وتشكلت أهم مجموعة بشرية على مر تاريخ موريتانيا من الأمازيغ والعرب ، هي سكان موريتانيا الحاليون . +question : متى استقرت قبائل بنو المعقل العربية بموريطانيا ؟ +prompt : أجب عن السؤال التالي : متى استقرت قبائل بنو المعقل العربية بموريطانيا ؟ الجواب هو +pred_answer : أن بني المعقل +answer : القرن السادس الهجري + +context : في بداية من القرن الخامس الهجري دخلت قبائل عربية البلاد . ثم في القرن السادس الهجري استقرت قبائل بنو المعقل العربية بموريتانيا وقد جاءت من صعيد مصر ضمن الهجرة الهلالية الشهيرة إلى بلدان المغرب العربي لكنها واجهت معارضة شديدة من القبائل الأمازيغية والتي ما لبثت أن دانت للسلطان العربي وقد ساهم في إزالة المعارضة وحدة الدين حيث سبق الإسلام العرب إلى المنطقة . واختلطت المجموعتان مع الزمن وتشكل عرق منسجم من الأمازيغ والعرب وتشكلت أهم مجموعة بشرية على مر تاريخ موريتانيا من الأمازيغ والعرب ، هي سكان موريتانيا الحاليون . +question : من أين انطلقت رحلة قبائل بنو المعقل نحو موريطانيا ؟ +prompt : أجب عن السؤال التالي : من أين انطلقت رحلة قبائل بنو المعقل نحو موريطانيا ؟ الجواب هو +pred_answer : أن بني المعقل انطلقوا من المغرب الأقصى في اتجاه +answer : من صعيد مصر ضمن الهجرة الهلالية الشهيرة إلى بلدان المغرب العربي + +context : في بداية من القرن الخامس الهجري دخلت قبائل عربية البلاد . ثم في القرن السادس الهجري استقرت قبائل بنو المعقل العربية بموريتانيا وقد جاءت من صعيد مصر ضمن الهجرة الهلالية الشهيرة إلى بلدان المغرب العربي لكنها واجهت معارضة شديدة من القبائل الأمازيغية والتي ما لبثت أن دانت للسلطان العربي وقد ساهم في إزالة المعارضة وحدة الدين حيث سبق الإسلام العرب إلى المنطقة . واختلطت المجموعتان مع الزمن وتشكل عرق منسجم من الأمازيغ والعرب وتشكلت أهم مجموعة بشرية على مر تاريخ موريتانيا من الأمازيغ والعرب ، هي سكان موريتانيا الحاليون . +question : هل واجهت قبائل بنو المعقل مشاكل خلال استقرارها بموريطانيا ؟ +prompt : أجب عن السؤال التالي : هل واجهت قبائل بنو المعقل مشاكل خلال استقرارها بموريطانيا ؟ الجواب هو +pred_answer : نعم ، فقد واجهوا الكثير من +answer : واجهت معارضة شديدة من القبائل الأمازيغية + +context : سمير غانم ( 15 يناير 1937 - ) ، ممثل كوميدي مصري . تخرج من كلية الزراعة جامعة الإسكندرية ، ثم التقى بكل من جورج سيدهم و الضيف أحمد ، وكونوا معا فرقة ثلاثي أضواء المسرح الشهيرة ، وهو فريق غنائي كوميدي لمع على المسرح من خلال تقديم مجموعة من الاسكتشات الكوميدية ، كان أشهرها ( طبيخ الملايكة ) و ( روميو وجوليت ) ، ثم قدم الثلاثة بعدها عددا من الأفلام والمسرحيات الناجحة . +question : متى ولد سمير غانم ؟ +prompt : أجب عن السؤال التالي : متى ولد سمير غانم ؟ الجواب هو +pred_answer : أنه ولد في +answer : 15 يناير 1937 + +context : سمير غانم ( 15 يناير 1937 - ) ، ممثل كوميدي مصري . تخرج من كلية الزراعة جامعة الإسكندرية ، ثم التقى بكل من جورج سيدهم و الضيف أحمد ، وكونوا معا فرقة ثلاثي أضواء المسرح الشهيرة ، وهو فريق غنائي كوميدي لمع على المسرح من خلال تقديم مجموعة من الاسكتشات الكوميدية ، كان أشهرها ( طبيخ الملايكة ) و ( روميو وجوليت ) ، ثم قدم الثلاثة بعدها عددا من الأفلام والمسرحيات الناجحة . +question : أين زاول سمير غانم تعليمه الجامعي ؟ +prompt : أجب عن السؤال التالي : أين زاول سمير غانم تعليمه الجامعي ؟ الجواب هو +pred_answer : في الجامعة الأميركية في بيروت +answer : كلية الزراعة جامعة الإسكندرية + +context : سمير غانم ( 15 يناير 1937 - ) ، ممثل كوميدي مصري . تخرج من كلية الزراعة جامعة الإسكندرية ، ثم التقى بكل من جورج سيدهم و الضيف أحمد ، وكونوا معا فرقة ثلاثي أضواء المسرح الشهيرة ، وهو فريق غنائي كوميدي لمع على المسرح من خلال تقديم مجموعة من الاسكتشات الكوميدية ، كان أشهرها ( طبيخ الملايكة ) و ( روميو وجوليت ) ، ثم قدم الثلاثة بعدها عددا من الأفلام والمسرحيات الناجحة . +question : ماهي أشهر الأعمال الكوميدية التي قدمها سمير غانم ؟ +prompt : أجب عن السؤال التالي : ماهي أشهر الأعمال الكوميدية التي قدمها سمير غانم ؟ الجواب هو +pred_answer : مسلسل " الأستاذ بلبل وحرمه " مع الفنانة دلال عبد العزيز +answer : أشهرها طبيخ الملايكة و روميو وجوليت + +context : سمير غانم ( 15 يناير 1937 - ) ، ممثل كوميدي مصري . تخرج من كلية الزراعة جامعة الإسكندرية ، ثم التقى بكل من جورج سيدهم و الضيف أحمد ، وكونوا معا فرقة ثلاثي أضواء المسرح الشهيرة ، وهو فريق غنائي كوميدي لمع على المسرح من خلال تقديم مجموعة من الاسكتشات الكوميدية ، كان أشهرها ( طبيخ الملايكة ) و ( روميو وجوليت ) ، ثم قدم الثلاثة بعدها عددا من الأفلام والمسرحيات الناجحة . انحلت الفرقة بعد وفاة الضيف أحمد عام 1970 ، واتجه مع جورج سيدهم للتمثيل معا في عدة مسرحيات كان أشهرها ( المتزوجون ) ، وكان آخر عمل مسرحي لهما معا هو مسرحية ( اهلا يا دكتور ) . وفي ثمانينات القرن العشرين لمع نجمه في سماء الفوازير ، فقدم سلسلة من فوازير رمضان تحت اسم شخصيتي ( سمورة ) و ( فطوطة ) ، ثم عاد في رمضان في +question : ماهو آخر عمل مسرحي قام به سمير غانم مع جورج سيدهم ؟ +prompt : أجب عن السؤال التالي : ماهو آخر عمل مسرحي قام به سمير غانم مع جورج سيدهم ؟ الجواب هو +pred_answer : مسرحية " الواد سيد الشغال " التي عرضت على مسرح الريح +answer : وكان آخر عمل مسرحي لهما معا هو مسرحية اهلا يا دكتور + +context : سمير غانم ( 15 يناير 1937 - ) ، ممثل كوميدي مصري . تخرج من كلية الزراعة جامعة الإسكندرية ، ثم التقى بكل من جورج سيدهم و الضيف أحمد ، وكونوا معا فرقة ثلاثي أضواء المسرح الشهيرة ، وهو فريق غنائي كوميدي لمع على المسرح من خلال تقديم مجموعة من الاسكتشات الكوميدية ، كان أشهرها ( طبيخ الملايكة ) و ( روميو وجوليت ) ، ثم قدم الثلاثة بعدها عددا من الأفلام والمسرحيات الناجحة . انحلت الفرقة بعد وفاة الضيف أحمد عام 1970 ، واتجه مع جورج سيدهم للتمثيل معا في عدة مسرحيات كان أشهرها ( المتزوجون ) ، وكان آخر عمل مسرحي لهما معا هو مسرحية ( اهلا يا دكتور ) . وفي ثمانينات القرن العشرين لمع نجمه في سماء الفوازير ، فقدم سلسلة من فوازير رمضان تحت اسم شخصيتي ( سمورة ) و ( فطوطة ) ، ثم عاد في رمضان في +question : ماهو اسم فرقة الغناء الكوميدي التي تضم كل من سمير غانم وجورج سيدهم والضيف أحمد ؟ +prompt : أجب عن السؤال التالي : ماهو اسم فرقة الغناء الكوميدي التي تضم كل من سمير غانم وجورج سيدهم والضيف أحمد ؟ الجواب هو +pred_answer : جورج سيدهم . +answer : فرقة ثلاثي أضواء المسرح + +context : سمير غانم ( 15 يناير 1937 - ) ، ممثل كوميدي مصري . تخرج من كلية الزراعة جامعة الإسكندرية ، ثم التقى بكل من جورج سيدهم و الضيف أحمد ، وكونوا معا فرقة ثلاثي أضواء المسرح الشهيرة ، وهو فريق غنائي كوميدي لمع على المسرح من خلال تقديم مجموعة من الاسكتشات الكوميدية ، كان أشهرها ( طبيخ الملايكة ) و ( روميو وجوليت ) ، ثم قدم الثلاثة بعدها عددا من الأفلام والمسرحيات الناجحة . انحلت الفرقة بعد وفاة الضيف أحمد عام 1970 ، واتجه مع جورج سيدهم للتمثيل معا في عدة مسرحيات كان أشهرها ( المتزوجون ) ، وكان آخر عمل مسرحي لهما معا هو مسرحية ( اهلا يا دكتور ) . وفي ثمانينات القرن العشرين لمع نجمه في سماء الفوازير ، فقدم سلسلة من فوازير رمضان تحت اسم شخصيتي ( سمورة ) و ( فطوطة ) ، ثم عاد في رمضان في +question : متى انحلت فرقة " ثلاثي أضواء المسرح " ؟ +prompt : أجب عن السؤال التالي : متى انحلت فرقة " ثلاثي أضواء المسرح " ؟ الجواب هو +pred_answer : : في عام 1979 م ، أي بعد +answer : انحلت الفرقة بعد وفاة الضيف أحمد عام 1970 + +context : ولد سمير غانم في عرب الأطاولة من محافظة أسيوط ، مصر عام 1937 انضم بعد الثانوية العامة إلى كلية الشرطة احتذاء بوالده الذي كان ضابط شرطة ولكنه تم فصله منها بعد رسوبه لسنتين متتاليتين فنقل أوراق إلى كلية الزراعة في جامعة الإسكندرية كما انضم للفرق الفنية فيها . +question : ماهو مسقط رأس سمير غانم ؟ +prompt : أجب عن السؤال التالي : ماهو مسقط رأس سمير غانم ؟ الجواب هو +pred_answer : أنه ولد في حي شبرا بالقاهرة ، وهو ينتمي إلى +answer : ولد سمير غانم في عرب الأطاولة من محافظة أسيوط + +context : ولد سمير غانم في عرب الأطاولة من محافظة أسيوط ، مصر عام 1937 انضم بعد الثانوية العامة إلى كلية الشرطة احتذاء بوالده الذي كان ضابط شرطة ولكنه تم فصله منها بعد رسوبه لسنتين متتاليتين فنقل أوراق إلى كلية الزراعة في جامعة الإسكندرية كما انضم للفرق الفنية فيها . +question : لماذا انضم سمير غانم لكلية الشرطة رغم موهبته في الكوميديا ؟ +prompt : أجب عن السؤال التالي : لماذا انضم سمير غانم لكلية الشرطة رغم موهبته في الكوميديا ؟ الجواب هو +pred_answer : أنه كان يريد أن يصبح ضابط شرطة مثله مثل أي شاب مصري ، لكن الظروف لم +answer : انضم بعد الثانوية العامة إلى كلية الشرطة احتذاء بوالده الذي كان ضابط شرطة + +context : ولد سمير غانم في عرب الأطاولة من محافظة أسيوط ، مصر عام 1937 انضم بعد الثانوية العامة إلى كلية الشرطة احتذاء بوالده الذي كان ضابط شرطة ولكنه تم فصله منها بعد رسوبه لسنتين متتاليتين فنقل أوراق إلى كلية الزراعة في جامعة الإسكندرية كما انضم للفرق الفنية فيها . +question : هل نجح سمير غانم في كلية الشرطة ؟ +prompt : أجب عن السؤال التالي : هل نجح سمير غانم في كلية الشرطة ؟ الجواب هو +pred_answer : نعم ، فقد حصل على ليسانس الحقوق من جامعة عين شمس بتقدير جيد جدا مع مرتبة +answer : لسنتين متتاليتين فنقل أوراق إلى كلية الزراعة في جامعة الإسكندرية كما انضم للفرق الفنية + +context : محمد حسني السيد مبارك وشهرته حسني مبارك ( ولد في 4 مايو 1928 ، كفر المصيلحة ، المنوفية ) هو الرئيس الرابع لجمهورية مصر العربية من 14 أكتوبر 1981 خلفا لمحمد أنور السادات ، وحتى في 11 فبراير 2011 بتنحيه تحت ضغوط شعبية وتسليمه السلطة للمجلس الأعلى للقوات المسلحة . +question : أين ولد محمد حسني مبارك ؟ +prompt : أجب عن السؤال التالي : أين ولد محمد حسني مبارك ؟ الجواب هو +pred_answer : في قرية كفر مصي +answer : كفر المصيلحة + +context : محمد حسني السيد مبارك وشهرته حسني مبارك ( ولد في 4 مايو 1928 ، كفر المصيلحة ، المنوفية ) هو الرئيس الرابع لجمهورية مصر العربية من 14 أكتوبر 1981 خلفا لمحمد أنور السادات ، وحتى في 11 فبراير 2011 بتنحيه تحت ضغوط شعبية وتسليمه السلطة للمجلس الأعلى للقوات المسلحة . +question : متي تم تنحية حسني مبارك عن حكم مصر ؟ +prompt : أجب عن السؤال التالي : متي تم تنحية حسني مبارك عن حكم مصر ؟ الجواب هو +pred_answer : يوم 11 فبراير +answer : 11 فبراير 2011 + +context : محمد حسني السيد مبارك وشهرته حسني مبارك ( ولد في 4 مايو 1928 ، كفر المصيلحة ، المنوفية ) هو الرئيس الرابع لجمهورية مصر العربية من 14 أكتوبر 1981 خلفا لمحمد أنور السادات ، وحتى في 11 فبراير 2011 بتنحيه تحت ضغوط شعبية وتسليمه السلطة للمجلس الأعلى للقوات المسلحة . +question : لمن سلم حسني مبارك السلطة بعد احتجاجات 2011 ؟ +prompt : أجب عن السؤال التالي : لمن سلم حسني مبارك السلطة بعد احتجاجات 2011 ؟ الجواب هو +pred_answer : : لم يسلمها ، بل +answer : للمجلس الأعلى للقوات المسلحة + +context : محمد حسني السيد مبارك وشهرته حسني مبارك ( ولد في 4 مايو 1928 ، كفر المصيلحة ، المنوفية ) هو الرئيس الرابع لجمهورية مصر العربية من 14 أكتوبر 1981 خلفا لمحمد أنور السادات ، وحتى في 11 فبراير 2011 بتنحيه تحت ضغوط شعبية وتسليمه السلطة للمجلس الأعلى للقوات المسلحة . حصل على تعليم عسكري في مصر متخرجا من الكلية الجوية عام 1950 ، ترقى في المناصب العسكرية حتى وصل إلى منصب رئيس أركان حرب القوات الجوية ، ثم قائدا للقوات الجوية في أبريل 1972 م ، وقاد القوات الجوية المصرية أثناء حرب أكتوبر 1973 . وفي عام 1975 اختاره محمد أنور السادات نائبا لرئيس الجمهورية ، وعقب إغتيال السادات عام 1981 على يد جماعة سلفية إسلامية مصرية تقلد رئاسة الجمهورية بعد استفتاء شعبي ، وجدد فترة ولايته عبر استفتاءات في الأعوام 1987 ، 1993 ، و 1999 وبرغم الانتقادات لشروط وآليات الترشح لانتخابات 2005 ، إلا أنها تعد أول انتخابات تعددية مباشرة وجدد مبارك فترته لمرة رابعة عبر فوزه فيها . تعتبر فترة حكمه ( حتى إجباره على التنحي في 11 فبراير عام 2011 ) رابع أطول فترة حكم في المنطقة العربية - من الذين هم على قيد الحياة آنذاك ، بعد السلطان قابوس بن سعيد سلطان عمان والرئيس اليمني علي عبد الله صالح والأطول بين ملوك ورؤساء مصر منذ محمد علي باشا . +question : في أي كلية درس محمد حسني مبارك ؟ +prompt : أجب عن السؤال التالي : في أي كلية درس محمد حسني مبارك ؟ الجواب هو +pred_answer : أنه درس في +answer : الكلية الجوية + +context : محمد حسني السيد مبارك وشهرته حسني مبارك ( ولد في 4 مايو 1928 ، كفر المصيلحة ، المنوفية ) هو الرئيس الرابع لجمهورية مصر العربية من 14 أكتوبر 1981 خلفا لمحمد أنور السادات ، وحتى في 11 فبراير 2011 بتنحيه تحت ضغوط شعبية وتسليمه السلطة للمجلس الأعلى للقوات المسلحة . حصل على تعليم عسكري في مصر متخرجا من الكلية الجوية عام 1950 ، ترقى في المناصب العسكرية حتى وصل إلى منصب رئيس أركان حرب القوات الجوية ، ثم قائدا للقوات الجوية في أبريل 1972 م ، وقاد القوات الجوية المصرية أثناء حرب أكتوبر 1973 . وفي عام 1975 اختاره محمد أنور السادات نائبا لرئيس الجمهورية ، وعقب إغتيال السادات عام 1981 على يد جماعة سلفية إسلامية مصرية تقلد رئاسة الجمهورية بعد استفتاء شعبي ، وجدد فترة ولايته عبر استفتاءات في الأعوام 1987 ، 1993 ، و 1999 وبرغم الانتقادات لشروط وآليات الترشح لانتخابات 2005 ، إلا أنها تعد أول انتخابات تعددية مباشرة وجدد مبارك فترته لمرة رابعة عبر فوزه فيها . تعتبر فترة حكمه ( حتى إجباره على التنحي في 11 فبراير عام 2011 ) رابع أطول فترة حكم في المنطقة العربية - من الذين هم على قيد الحياة آنذاك ، بعد السلطان قابوس بن سعيد سلطان عمان والرئيس اليمني علي عبد الله صالح والأطول بين ملوك ورؤساء مصر منذ محمد علي باشا . +question : متي تسلم حسني مبارك مقاليد الحكم في مصر ؟ +prompt : أجب عن السؤال التالي : متي تسلم حسني مبارك مقاليد الحكم في مصر ؟ الجواب هو +pred_answer : يوم 11 فبراير +answer : 14 أكتوبر 1981 + +context : محمد حسني السيد مبارك وشهرته حسني مبارك ( ولد في 4 مايو 1928 ، كفر المصيلحة ، المنوفية ) هو الرئيس الرابع لجمهورية مصر العربية من 14 أكتوبر 1981 خلفا لمحمد أنور السادات ، وحتى في 11 فبراير 2011 بتنحيه تحت ضغوط شعبية وتسليمه السلطة للمجلس الأعلى للقوات المسلحة . حصل على تعليم عسكري في مصر متخرجا من الكلية الجوية عام 1950 ، ترقى في المناصب العسكرية حتى وصل إلى منصب رئيس أركان حرب القوات الجوية ، ثم قائدا للقوات الجوية في أبريل 1972 م ، وقاد القوات الجوية المصرية أثناء حرب أكتوبر 1973 . وفي عام 1975 اختاره محمد أنور السادات نائبا لرئيس الجمهورية ، وعقب إغتيال السادات عام 1981 على يد جماعة سلفية إسلامية مصرية تقلد رئاسة الجمهورية بعد استفتاء شعبي ، وجدد فترة ولايته عبر استفتاءات في الأعوام 1987 ، 1993 ، و 1999 وبرغم الانتقادات لشروط وآليات الترشح لانتخابات 2005 ، إلا أنها تعد أول انتخابات تعددية مباشرة وجدد مبارك فترته لمرة رابعة عبر فوزه فيها . تعتبر فترة حكمه ( حتى إجباره على التنحي في 11 فبراير عام 2011 ) رابع أطول فترة حكم في المنطقة العربية - من الذين هم على قيد الحياة آنذاك ، بعد السلطان قابوس بن سعيد سلطان عمان والرئيس اليمني علي عبد الله صالح والأطول بين ملوك ورؤساء مصر منذ محمد علي باشا . +question : متي كانت أول انتخابات تعددية مباشرة في مصر ؟ +prompt : أجب عن السؤال التالي : متي كانت أول انتخابات تعددية مباشرة في مصر ؟ الجواب هو في عام +pred_answer : 1979 ، +answer : 2005 + +context : نجح عام 1989 بإعادة عضوية مصر التي جمدت في الجامعة العربية منذ اتفاقية كامب ديفيد مع اسرائيل وإعادة مقر الجامعة إلى القاهرة ، عرف بموقفه الداعم للمفاوضات السلمية الفلسطينية - الإسرائيلية ، بالإضافة إلى دوره في حرب الخليج الثانية ، فموضع نفسه كحليف موثوق للغرب ومقارعا لحركات إسلامية متشددة في البلاد . وبالرغم من توفيره الإستقرار وأسباب للنمو الإقتصادي ، إلا أن حكمه كان قمعيا ، فحالة الطوارئ التي لم ترفع تقريبا منذ 1967 كممت المعارضة السياسية وأصبحت أجهزة الأمن تعرف بوحشيتها وانتشر الفساد . +question : بماذا تميز حكم حسني مبارك لمصر ؟ +prompt : أجب عن السؤال التالي : بماذا تميز حكم حسني مبارك لمصر ؟ الجواب هو +pred_answer : أنه كان حاكما مستبدا +answer : حكمه كان قمعيا + +context : نجح عام 1989 بإعادة عضوية مصر التي جمدت في الجامعة العربية منذ اتفاقية كامب ديفيد مع اسرائيل وإعادة مقر الجامعة إلى القاهرة ، عرف بموقفه الداعم للمفاوضات السلمية الفلسطينية - الإسرائيلية ، بالإضافة إلى دوره في حرب الخليج الثانية ، فموضع نفسه كحليف موثوق للغرب ومقارعا لحركات إسلامية متشددة في البلاد . وبالرغم من توفيره الإستقرار وأسباب للنمو الإقتصادي ، إلا أن حكمه كان قمعيا ، فحالة الطوارئ التي لم ترفع تقريبا منذ 1967 كممت المعارضة السياسية وأصبحت أجهزة الأمن تعرف بوحشيتها وانتشر الفساد . +question : متي تمت استعادة مصر لعضويتها في جامعة الدول العربية ؟ +prompt : أجب عن السؤال التالي : متي تمت استعادة مصر لعضويتها في جامعة الدول العربية ؟ الجواب هو في عام +pred_answer : 1945 ، +answer : 1989 + +context : نجح عام 1989 بإعادة عضوية مصر التي جمدت في الجامعة العربية منذ اتفاقية كامب ديفيد مع اسرائيل وإعادة مقر الجامعة إلى القاهرة ، عرف بموقفه الداعم للمفاوضات السلمية الفلسطينية - الإسرائيلية ، بالإضافة إلى دوره في حرب الخليج الثانية ، فموضع نفسه كحليف موثوق للغرب ومقارعا لحركات إسلامية متشددة في البلاد . وبالرغم من توفيره الإستقرار وأسباب للنمو الإقتصادي ، إلا أن حكمه كان قمعيا ، فحالة الطوارئ التي لم ترفع تقريبا منذ 1967 كممت المعارضة السياسية وأصبحت أجهزة الأمن تعرف بوحشيتها وانتشر الفساد . +question : ماذا كان موقف حسني مبارك من قضية المفاوضات الاسرائيلية الفلسطينية ؟ +prompt : أجب عن السؤال التالي : ماذا كان موقف حسني مبارك من قضية المفاوضات الاسرائيلية الفلسطينية ؟ الجواب هو +pred_answer : ان الرئيس المصري لم يكن متحمسا لها +answer : عرف بموقفه الداعم للمفاوضات السلمية الفلسطينية الإسرائيلية + +context : إمبراطورية المغول أو الإمبراطورية المغولية أو الإمبراطورية المنغولية ( بالمغولية : ، نقحرة : مون ولين إيزنت ورن ) أكبر إمبراطورية ككتلة واحدة ، وثاني أضخم إمبراطورية في التاريخ من حيث المساحة بعد الإمبراطورية البريطانية ، وأعظم رعب مر على تاريخ أوراسيا . +question : ما اسم امبراطورية المغول باللغة المنغولية ؟ +prompt : أجب عن السؤال التالي : ما اسم امبراطورية المغول باللغة المنغولية ؟ الجواب هو +pred_answer : : إمبراطورية +answer : ، + +context : إمبراطورية المغول أو الإمبراطورية المغولية أو الإمبراطورية المنغولية ( بالمغولية : ، نقحرة : مون ولين إيزنت ورن ) أكبر إمبراطورية ككتلة واحدة ، وثاني أضخم إمبراطورية في التاريخ من حيث المساحة بعد الإمبراطورية البريطانية ، وأعظم رعب مر على تاريخ أوراسيا . +question : ما هو ترتيب امبراطورية المغول بين أكبر الامبراطوريات في التاريخ ؟ +prompt : أجب عن السؤال التالي : ما هو ترتيب امبراطورية المغول بين أكبر الامبراطوريات في التاريخ ؟ الجواب هو +pred_answer : : 1 الامبراطورية المغولية .2 الامبراطورية الفارسية .3 الامبراطورية +answer : وثاني أضخم إمبراطورية في التاريخ من حيث المساحة بعد الإمبراطورية البريطانية + +context : إمبراطورية المغول أو الإمبراطورية المغولية أو الإمبراطورية المنغولية ( بالمغولية : ، نقحرة : مون ولين إيزنت ورن ) أكبر إمبراطورية ككتلة واحدة ، وثاني أضخم إمبراطورية في التاريخ من حيث المساحة بعد الإمبراطورية البريطانية ، وأعظم رعب مر على تاريخ أوراسيا . +question : بماذا وصفت امبراطورية المغول ؟ +prompt : أجب عن السؤال التالي : بماذا وصفت امبراطورية المغول ؟ الجواب هو +pred_answer : أن هذه الإمبراطورية لم تكن إمبراطورية بالمعنى المتعارف عليه +answer : وأعظم رعب مر على تاريخ أوراسيا + +context : إمبراطورية المغول أو الإمبراطورية المغولية أو الإمبراطورية المنغولية ( بالمغولية : ، نقحرة : مون ولين إيزنت ورن ) أكبر إمبراطورية ككتلة واحدة ، وثاني أضخم إمبراطورية في التاريخ من حيث المساحة بعد الإمبراطورية البريطانية ، وأعظم رعب مر على تاريخ أوراسيا . وهي نتاج توحيد قبائل المغول والترك في مايسمى حاليا منغوليا ، فبدأت بتيموجين ( جنكيز خان ) الذي أعلن حاكما لها عام 1206 فكانت فاتحة للغزوات التي وصلت أقصى مدى لها عام 1405 من حوض الدانوب حتى بحر اليابان ، ومن فيليكي نوفغورود بالقرب من الحدود الروسية الفنلندية حتى كمبوديا حيث حكمت شعوب تعدادها التقريبي 100 مليون نسمة ومساحة من الأرض مقدارها +question : ماهي القبائل اللتي تكونت منها الامبراطورية المنغولية ؟ +prompt : أجب عن السؤال التالي : ماهي القبائل اللتي تكونت منها الامبراطورية المنغولية ؟ الجواب هو +pred_answer : : 1 - المغول 2 - التتر 3 - السلاجقة +answer : وهي نتاج توحيد قبائل المغول والترك في مايسمى حاليا منغوليا + +context : إمبراطورية المغول أو الإمبراطورية المغولية أو الإمبراطورية المنغولية ( بالمغولية : ، نقحرة : مون ولين إيزنت ورن ) أكبر إمبراطورية ككتلة واحدة ، وثاني أضخم إمبراطورية في التاريخ من حيث المساحة بعد الإمبراطورية البريطانية ، وأعظم رعب مر على تاريخ أوراسيا . وهي نتاج توحيد قبائل المغول والترك في مايسمى حاليا منغوليا ، فبدأت بتيموجين ( جنكيز خان ) الذي أعلن حاكما لها عام 1206 فكانت فاتحة للغزوات التي وصلت أقصى مدى لها عام 1405 من حوض الدانوب حتى بحر اليابان ، ومن فيليكي نوفغورود بالقرب من الحدود الروسية الفنلندية حتى كمبوديا حيث حكمت شعوب تعدادها التقريبي 100 مليون نسمة ومساحة من الأرض مقدارها +question : من هو أول حاكم لامبراطورية منغوليا ؟ +prompt : أجب عن السؤال التالي : من هو أول حاكم لامبراطورية منغوليا ؟ الجواب هو +pred_answer : جنكيز خان +answer : جنكيز خان + +context : إمبراطورية المغول أو الإمبراطورية المغولية أو الإمبراطورية المنغولية ( بالمغولية : ، نقحرة : مون ولين إيزنت ورن ) أكبر إمبراطورية ككتلة واحدة ، وثاني أضخم إمبراطورية في التاريخ من حيث المساحة بعد الإمبراطورية البريطانية ، وأعظم رعب مر على تاريخ أوراسيا . وهي نتاج توحيد قبائل المغول والترك في مايسمى حاليا منغوليا ، فبدأت بتيموجين ( جنكيز خان ) الذي أعلن حاكما لها عام 1206 فكانت فاتحة للغزوات التي وصلت أقصى مدى لها عام 1405 من حوض الدانوب حتى بحر اليابان ، ومن فيليكي نوفغورود بالقرب من الحدود الروسية الفنلندية حتى كمبوديا حيث حكمت شعوب تعدادها التقريبي 100 مليون نسمة ومساحة من الأرض مقدارها +question : كم بلغ تعداد الشعوب اللتي حكمتها الامبراطورية المنغولية ؟ +prompt : أجب عن السؤال التالي : كم بلغ تعداد الشعوب اللتي حكمتها الامبراطورية المنغولية ؟ الجواب هو +pred_answer : ما يلي : +answer : 100 مليون نسمة + +context : ظهرت بدايات تمزق تلك الإمبراطورية في أعقاب الحرب على وراثة الحكم ما بين عامي 1260 و 1264 ما بين القبيلة الذهبية وخانات الجاكاتاي وهو بواقع الأمر بمثابة استقلال ورفض الخضوع لقوبلاي خان كخاقان للمغول . ولكن بعد موت قوبلاي خان انقسمت الإمبراطورية إلى أربعة خانات أو إمبراطوريات ، كل منها يهدف لتحقيق مصالحه واهتماماته الخاصة ، لكن الإمبراطورية ككل بقيت متماسكة ، متحدة وقوية . اتخذ خانات أسرة يوان الكبار ، لقب أباطرة الصين ، وقاموا بنقل عاصمتهم من قراقورم إلى خان بالق ( بكين حاليا ) . وعلى الرغم من أن معظم الخانات تقبلوا هؤلاء الحكام الجدد وقدموا لهم الولاء وبعض الدعم بعد معاهدة السلام عام 1304 ، فإن الخانات الثلاثة الغربية تمتعت باستقلال تام تقريبا ، واستمر كل منها بالازدهار والنمو وحده ، كدولة ذات سيادة . وبنهاية القرن الرابع عشر كانت معظم خانات الإمبراطورية قد تحللت وانتهى أمرها ، على الرغم من أن أسرة يوان الشمالية استمرت بحكم منغوليا حتى القرن السابع عشر . +question : متي ظهرت بدايات تمزق الامبراطورية المنغولية ؟ +prompt : أجب عن السؤال التالي : متي ظهرت بدايات تمزق الامبراطورية المنغولية ؟ الجواب هو +pred_answer : في القرن الثالث عشر الميلادي ، عندما غزا المغول بقيادة جنكيز خان بلاد ما وراء +answer : أعقاب الحرب على وراثة الحكم ما بين عامي 1260 و 1264 + +context : ظهرت بدايات تمزق تلك الإمبراطورية في أعقاب الحرب على وراثة الحكم ما بين عامي 1260 و 1264 ما بين القبيلة الذهبية وخانات الجاكاتاي وهو بواقع الأمر بمثابة استقلال ورفض الخضوع لقوبلاي خان كخاقان للمغول . ولكن بعد موت قوبلاي خان انقسمت الإمبراطورية إلى أربعة خانات أو إمبراطوريات ، كل منها يهدف لتحقيق مصالحه واهتماماته الخاصة ، لكن الإمبراطورية ككل بقيت متماسكة ، متحدة وقوية . اتخذ خانات أسرة يوان الكبار ، لقب أباطرة الصين ، وقاموا بنقل عاصمتهم من قراقورم إلى خان بالق ( بكين حاليا ) . وعلى الرغم من أن معظم الخانات تقبلوا هؤلاء الحكام الجدد وقدموا لهم الولاء وبعض الدعم بعد معاهدة السلام عام 1304 ، فإن الخانات الثلاثة الغربية تمتعت باستقلال تام تقريبا ، واستمر كل منها بالازدهار والنمو وحده ، كدولة ذات سيادة . وبنهاية القرن الرابع عشر كانت معظم خانات الإمبراطورية قد تحللت وانتهى أمرها ، على الرغم من أن أسرة يوان الشمالية استمرت بحكم منغوليا حتى القرن السابع عشر . +question : ماذا حدث للامبراطورية المنغولية بعد موت قوبلاي خان ؟ +prompt : أجب عن السؤال التالي : ماذا حدث للامبراطورية المنغولية بعد موت قوبلاي خان ؟ الجواب هو +pred_answer : أن هذه الامبراطورية انهارت في عام 1260 م على يد جنكيز خان نفسه ، حيث +answer : انقسمت الإمبراطورية إلى أربعة خانات أو إمبراطوريات كل منها يهدف لتحقيق مصالحه واهتماماته الخاصة + +context : ظهرت بدايات تمزق تلك الإمبراطورية في أعقاب الحرب على وراثة الحكم ما بين عامي 1260 و 1264 ما بين القبيلة الذهبية وخانات الجاكاتاي وهو بواقع الأمر بمثابة استقلال ورفض الخضوع لقوبلاي خان كخاقان للمغول . ولكن بعد موت قوبلاي خان انقسمت الإمبراطورية إلى أربعة خانات أو إمبراطوريات ، كل منها يهدف لتحقيق مصالحه واهتماماته الخاصة ، لكن الإمبراطورية ككل بقيت متماسكة ، متحدة وقوية . اتخذ خانات أسرة يوان الكبار ، لقب أباطرة الصين ، وقاموا بنقل عاصمتهم من قراقورم إلى خان بالق ( بكين حاليا ) . وعلى الرغم من أن معظم الخانات تقبلوا هؤلاء الحكام الجدد وقدموا لهم الولاء وبعض الدعم بعد معاهدة السلام عام 1304 ، فإن الخانات الثلاثة الغربية تمتعت باستقلال تام تقريبا ، واستمر كل منها بالازدهار والنمو وحده ، كدولة ذات سيادة . وبنهاية القرن الرابع عشر كانت معظم خانات الإمبراطورية قد تحللت وانتهى أمرها ، على الرغم من أن أسرة يوان الشمالية استمرت بحكم منغوليا حتى القرن السابع عشر . +question : الي متي استمر حكم أسرة يوان الشمالية ؟ +prompt : أجب عن السؤال التالي : الي متي استمر حكم أسرة يوان الشمالية ؟ الجواب هو +pred_answer : أن هذه الأسرة حكمت الصين +answer : حتى القرن السابع عشر + +context : معركة اليرموك ، وقعت عام 15 ه ( 636 ) بين المسلمين والروم ( الإمبراطورية البيزنطية ) ، ويعتبرها بعض المؤرخين من أهم المعارك في تاريخ العالم لأنها كانت بداية أول موجة انتصارات للمسلمين خارج جزيرة العرب ، وآذنت لتقدم الإسلام السريع في بلاد الشام . +question : متي وقعت معركة اليرموك ؟ +prompt : أجب عن السؤال التالي : متي وقعت معركة اليرموك ؟ الجواب هو +pred_answer : في عام 636 +answer : عام 15 ه 636 + +context : معركة اليرموك ، وقعت عام 15 ه ( 636 ) بين المسلمين والروم ( الإمبراطورية البيزنطية ) ، ويعتبرها بعض المؤرخين من أهم المعارك في تاريخ العالم لأنها كانت بداية أول موجة انتصارات للمسلمين خارج جزيرة العرب ، وآذنت لتقدم الإسلام السريع في بلاد الشام . +question : من هم طرفي النزاع في معركة اليرموك ؟ +prompt : أجب عن السؤال التالي : من هم طرفي النزاع في معركة اليرموك ؟ الجواب هو +pred_answer : معاوية بن أبي +answer : المسلمين والروم + +context : معركة اليرموك ، وقعت عام 15 ه ( 636 ) بين المسلمين والروم ( الإمبراطورية البيزنطية ) ، ويعتبرها بعض المؤرخين من أهم المعارك في تاريخ العالم لأنها كانت بداية أول موجة انتصارات للمسلمين خارج جزيرة العرب ، وآذنت لتقدم الإسلام السريع في بلاد الشام . +question : لماذا يعتبر بعض المؤرخين معركة اليرموك من أهم معارك العالم ؟ +prompt : أجب عن السؤال التالي : لماذا يعتبر بعض المؤرخين معركة اليرموك من أهم معارك العالم ؟ الجواب هو +pred_answer : أن هذه المعركة تعتبر من أهم المعارك في تاريخ البشرية ، +answer : لأنها كانت بداية أول موجة انتصارات للمسلمين خارج جزيرة العرب + +context : معركة اليرموك ، وقعت عام 15 ه ( 636 ) بين المسلمين والروم ( الإمبراطورية البيزنطية ) ، ويعتبرها بعض المؤرخين من أهم المعارك في تاريخ العالم لأنها كانت بداية أول موجة انتصارات للمسلمين خارج جزيرة العرب ، وآذنت لتقدم الإسلام السريع في بلاد الشام . المعركة حدثت بعد وفاة الرسول عام 632 بأربع سنوات . +question : ما تأثير معركة اليرموك علي بلاد الشام ؟ +prompt : أجب عن السؤال التالي : ما تأثير معركة اليرموك علي بلاد الشام ؟ الجواب هو +pred_answer : أن هذه المعركة كانت نقطة تحول في تاريخ بلاد الشام +answer : وآذنت لتقدم الإسلام السريع في بلاد الشام + +context : معركة اليرموك ، وقعت عام 15 ه ( 636 ) بين المسلمين والروم ( الإمبراطورية البيزنطية ) ، ويعتبرها بعض المؤرخين من أهم المعارك في تاريخ العالم لأنها كانت بداية أول موجة انتصارات للمسلمين خارج جزيرة العرب ، وآذنت لتقدم الإسلام السريع في بلاد الشام . المعركة حدثت بعد وفاة الرسول عام 632 بأربع سنوات . +question : هل حدثت معركة اليرموك قبل أم بعد وفاة الرسول ؟ +prompt : أجب عن السؤال التالي : هل حدثت معركة اليرموك قبل أم بعد وفاة الرسول ؟ الجواب هو +pred_answer : نعم ، حدث ذلك في عام 636 � +answer : حدثت بعد وفاة الرسول عام 632 بأربع سنوات + +context : معركة اليرموك ، وقعت عام 15 ه ( 636 ) بين المسلمين والروم ( الإمبراطورية البيزنطية ) ، ويعتبرها بعض المؤرخين من أهم المعارك في تاريخ العالم لأنها كانت بداية أول موجة انتصارات للمسلمين خارج جزيرة العرب ، وآذنت لتقدم الإسلام السريع في بلاد الشام . المعركة حدثت بعد وفاة الرسول عام 632 بأربع سنوات . +question : ما الاسم الاخر للروم ؟ +prompt : أجب عن السؤال التالي : ما الاسم الاخر للروم ؟ الجواب هو +pred_answer : ( روم ) +answer : الإمبراطورية البيزنطية + +context : قررت الجيوش الإسلامية الانسحاب من الجابية بالقرب من دمشق إلى اليرموك بعد تقدم جيش الروم نحوهم . تولى خالد بن الوليد القيادة العامة للجيش بعد أن تنازل أبوعبيدة بن الجراح ، كانت قوات جيش المسلمين تعد 36 ألف مقاتل في حين كانت جيوش الروم تبلغ 240 ألف مقاتل . +question : ما اسم قائد جيش المسلمين في معركة اليرموك ؟ +prompt : أجب عن السؤال التالي : ما اسم قائد جيش المسلمين في معركة اليرموك ؟ الجواب هو +pred_answer : خالد بن الوليد +answer : خالد بن الوليد + +context : قررت الجيوش الإسلامية الانسحاب من الجابية بالقرب من دمشق إلى اليرموك بعد تقدم جيش الروم نحوهم . تولى خالد بن الوليد القيادة العامة للجيش بعد أن تنازل أبوعبيدة بن الجراح ، كانت قوات جيش المسلمين تعد 36 ألف مقاتل في حين كانت جيوش الروم تبلغ 240 ألف مقاتل . +question : كم بلغ عدد قوات جيش المسلمين في معركة اليرموك ؟ +prompt : أجب عن السؤال التالي : كم بلغ عدد قوات جيش المسلمين في معركة اليرموك ؟ الجواب هو +pred_answer : ما يلي : +answer : 36 ألف مقاتل + +context : قررت الجيوش الإسلامية الانسحاب من الجابية بالقرب من دمشق إلى اليرموك بعد تقدم جيش الروم نحوهم . تولى خالد بن الوليد القيادة العامة للجيش بعد أن تنازل أبوعبيدة بن الجراح ، كانت قوات جيش المسلمين تعد 36 ألف مقاتل في حين كانت جيوش الروم تبلغ 240 ألف مقاتل . +question : كم بلغ عدد جيوش الروم أثناء موقعة اليرموك ؟ +prompt : أجب عن السؤال التالي : كم بلغ عدد جيوش الروم أثناء موقعة اليرموك ؟ الجواب هو +pred_answer : ما يلي : كان +answer : 240 ألف مقاتل + +context : جمهورية موريشيوس هي جزر صغيرة بوسط المحيط الهندي تبعد عن ملاجاش ( مدغشقر ) بحوالي 860 كيلومتر . الرحالة البرتغالي دون بيدرو ماسكارينهاس كان أول من عرف العالم بها في العام 1505 وقد قام بإطلاق اسم ماسكارينس على مجموعة الجزر المعروفة الآن بموريشيوس ، رودريغز وريونيون . +question : أين تقع جمهورية موريشيوس ؟ +prompt : أجب عن السؤال التالي : أين تقع جمهورية موريشيوس ؟ الجواب هو +pred_answer : في جنوب المحيط الهندي +answer : بوسط المحيط الهندي + +context : جمهورية موريشيوس هي جزر صغيرة بوسط المحيط الهندي تبعد عن ملاجاش ( مدغشقر ) بحوالي 860 كيلومتر . الرحالة البرتغالي دون بيدرو ماسكارينهاس كان أول من عرف العالم بها في العام 1505 وقد قام بإطلاق اسم ماسكارينس على مجموعة الجزر المعروفة الآن بموريشيوس ، رودريغز وريونيون . +question : من هو الرحالة اللذي اكتشف موريشيوس ؟ +prompt : أجب عن السؤال التالي : من هو الرحالة اللذي اكتشف موريشيوس ؟ الجواب هو +pred_answer : كريستوفر كولومبوس ( 1492 - 1519 +answer : الرحالة البرتغالي دون بيدرو ماسكارينهاس + +context : جمهورية موريشيوس هي جزر صغيرة بوسط المحيط الهندي تبعد عن ملاجاش ( مدغشقر ) بحوالي 860 كيلومتر . الرحالة البرتغالي دون بيدرو ماسكارينهاس كان أول من عرف العالم بها في العام 1505 وقد قام بإطلاق اسم ماسكارينس على مجموعة الجزر المعروفة الآن بموريشيوس ، رودريغز وريونيون . +question : متي تم اكتشاف موريشيوس ؟ +prompt : أجب عن السؤال التالي : متي تم اكتشاف موريشيوس ؟ الجواب هو +pred_answer : : في عام 18 +answer : العام 1505 + +context : جمهورية موريشيوس هي جزر صغيرة بوسط المحيط الهندي تبعد عن ملاجاش ( مدغشقر ) بحوالي 860 كيلومتر . الرحالة البرتغالي دون بيدرو ماسكارينهاس كان أول من عرف العالم بها في العام 1505 وقد قام بإطلاق اسم ماسكارينس على مجموعة الجزر المعروفة الآن بموريشيوس ، رودريغز وريونيون . وفي عام 1598 ، رسا أسطول هولندي في غراند بورت مما أدى إلى إقامة أول مستعمرة هولندية على الجزيرة في 1638 . وعلى مدى السنين ، أدخل الهولنديون إلى الجزيرة قصب السكر والحيوانات الأليفة والغزلان قبل رحيلهم عنها في 1710 . وجاء من بعدهم الفرنسيون في سنة 1715 وأسسوا ميناء بورت لويس - عاصمة البلاد حاليا - وظلت جزيرة موريشيوس قاعدة لهم حتى هزيمة نابليون ، فاستولت عليها بريطانيا في سنة 1810 م ، وأقاموا سلطة تحت قيادة روبرت فاركوهار قامت فيما بعد بغرس تغييرات اجتماعية واقتصادية سريعة في الجزيرة . أجرت البلاد انتخابات عامة في 1967 ، وضعت بعدها موريشويس دستور جديد وأعلنت استقلالها في 12 مارس 1968 ، ثم لحق ذلك الإعلان عن جمهورية موريشيوس في 12 مارس 1992 . +question : متي أقيمت أول مستعمرة هولندية في موريشيوس ؟ +prompt : أجب عن السؤال التالي : متي أقيمت أول مستعمرة هولندية في موريشيوس ؟ الجواب هو في عام +pred_answer : 1652 +answer : 1638 + +context : جمهورية موريشيوس هي جزر صغيرة بوسط المحيط الهندي تبعد عن ملاجاش ( مدغشقر ) بحوالي 860 كيلومتر . الرحالة البرتغالي دون بيدرو ماسكارينهاس كان أول من عرف العالم بها في العام 1505 وقد قام بإطلاق اسم ماسكارينس على مجموعة الجزر المعروفة الآن بموريشيوس ، رودريغز وريونيون . وفي عام 1598 ، رسا أسطول هولندي في غراند بورت مما أدى إلى إقامة أول مستعمرة هولندية على الجزيرة في 1638 . وعلى مدى السنين ، أدخل الهولنديون إلى الجزيرة قصب السكر والحيوانات الأليفة والغزلان قبل رحيلهم عنها في 1710 . وجاء من بعدهم الفرنسيون في سنة 1715 وأسسوا ميناء بورت لويس - عاصمة البلاد حاليا - وظلت جزيرة موريشيوس قاعدة لهم حتى هزيمة نابليون ، فاستولت عليها بريطانيا في سنة 1810 م ، وأقاموا سلطة تحت قيادة روبرت فاركوهار قامت فيما بعد بغرس تغييرات اجتماعية واقتصادية سريعة في الجزيرة . أجرت البلاد انتخابات عامة في 1967 ، وضعت بعدها موريشويس دستور جديد وأعلنت استقلالها في 12 مارس 1968 ، ثم لحق ذلك الإعلان عن جمهورية موريشيوس في 12 مارس 1992 . +question : متي استولت بريطانيا علي موريشيوس ؟ +prompt : أجب عن السؤال التالي : متي استولت بريطانيا علي موريشيوس ؟ الجواب هو في عام +pred_answer : 1841 +answer : 1810 + +context : جمهورية موريشيوس هي جزر صغيرة بوسط المحيط الهندي تبعد عن ملاجاش ( مدغشقر ) بحوالي 860 كيلومتر . الرحالة البرتغالي دون بيدرو ماسكارينهاس كان أول من عرف العالم بها في العام 1505 وقد قام بإطلاق اسم ماسكارينس على مجموعة الجزر المعروفة الآن بموريشيوس ، رودريغز وريونيون . وفي عام 1598 ، رسا أسطول هولندي في غراند بورت مما أدى إلى إقامة أول مستعمرة هولندية على الجزيرة في 1638 . وعلى مدى السنين ، أدخل الهولنديون إلى الجزيرة قصب السكر والحيوانات الأليفة والغزلان قبل رحيلهم عنها في 1710 . وجاء من بعدهم الفرنسيون في سنة 1715 وأسسوا ميناء بورت لويس - عاصمة البلاد حاليا - وظلت جزيرة موريشيوس قاعدة لهم حتى هزيمة نابليون ، فاستولت عليها بريطانيا في سنة 1810 م ، وأقاموا سلطة تحت قيادة روبرت فاركوهار قامت فيما بعد بغرس تغييرات اجتماعية واقتصادية سريعة في الجزيرة . أجرت البلاد انتخابات عامة في 1967 ، وضعت بعدها موريشويس دستور جديد وأعلنت استقلالها في 12 مارس 1968 ، ثم لحق ذلك الإعلان عن جمهورية موريشيوس في 12 مارس 1992 . +question : متي أعلنت موريشيوس استقلالها ؟ +prompt : أجب عن السؤال التالي : متي أعلنت موريشيوس استقلالها ؟ الجواب هو +pred_answer : في عام 1961 +answer : 12 مارس 1968 + +context : في هذه الأيام ، تعرف موريشيوس على أنها جمهورية ديموقراطية مبنية على نموذج ويستمينستير والذي يضمن الفصل بين كل من القوى التشريعية والتنفيذية والقضائية . تتمتع الجزيرة الآن باستقرار سياسي حيث يتم انتخاب 62 عضوا للجمعية الوطنية كل 5 أعوام . وفي حين وجود رئيس للدولة ، فرئيس الوزراء هو من يحمل القوى التنفيذية بالإضافة إلى قيادة الحكومة . +question : كم يبلغ أعضاء الجمعية الوطنية في موريشيوس ؟ +prompt : أجب عن السؤال التالي : كم يبلغ أعضاء الجمعية الوطنية في موريشيوس ؟ الجواب هو +pred_answer : أن عدد +answer : 62 عضوا + +context : في هذه الأيام ، تعرف موريشيوس على أنها جمهورية ديموقراطية مبنية على نموذج ويستمينستير والذي يضمن الفصل بين كل من القوى التشريعية والتنفيذية والقضائية . تتمتع الجزيرة الآن باستقرار سياسي حيث يتم انتخاب 62 عضوا للجمعية الوطنية كل 5 أعوام . وفي حين وجود رئيس للدولة ، فرئيس الوزراء هو من يحمل القوى التنفيذية بالإضافة إلى قيادة الحكومة . +question : متي يتم انتخاب أعضاءالجمعية الوطنية في موريشيوس ؟ +prompt : أجب عن السؤال التالي : متي يتم انتخاب أعضاءالجمعية الوطنية في موريشيوس ؟ الجواب هو +pred_answer : أن الجمعية الوطنية +answer : كل 5 أعوام + +context : في هذه الأيام ، تعرف موريشيوس على أنها جمهورية ديموقراطية مبنية على نموذج ويستمينستير والذي يضمن الفصل بين كل من القوى التشريعية والتنفيذية والقضائية . تتمتع الجزيرة الآن باستقرار سياسي حيث يتم انتخاب 62 عضوا للجمعية الوطنية كل 5 أعوام . وفي حين وجود رئيس للدولة ، فرئيس الوزراء هو من يحمل القوى التنفيذية بالإضافة إلى قيادة الحكومة . +question : من هو رأس السلطة التنفيذية في موريشيوس ؟ +prompt : أجب عن السؤال التالي : من هو رأس السلطة التنفيذية في موريشيوس ؟ الجواب هو +pred_answer : رئيس الجمهورية . +answer : فرئيس الوزراء + +context : العلويون أو العلوية نسبة إلى علي بن أبي طالب لتوليهم إياه إماما بعد وفاة الرسول محمد ، ويسمون كذلك بالنصيرية ؛ طائفة من الشيعة الجعفرية الإثني عشرية ، تتميز عن بقية الإثني عشرية بإيمانهم بالأدلة العقلية . +question : لماذا سمي العلويون بهذا الاسم ؟ +prompt : أجب عن السؤال التالي : لماذا سمي العلويون بهذا الاسم ؟ الجواب هو +pred_answer : أن كلمة ( علوي ) تعني +answer : نسبة إلى علي بن أبي طالب + +context : العلويون أو العلوية نسبة إلى علي بن أبي طالب لتوليهم إياه إماما بعد وفاة الرسول محمد ، ويسمون كذلك بالنصيرية ؛ طائفة من الشيعة الجعفرية الإثني عشرية ، تتميز عن بقية الإثني عشرية بإيمانهم بالأدلة العقلية . +question : ما هو تعريف العلوية ؟ +prompt : أجب عن السؤال التالي : ما هو تعريف العلوية ؟ الجواب هو +pred_answer : أن العلويون هم طائفة من المسلمين يؤمنون بأن النبي محمد ( صلى الله عليه وسلم ) هو خاتم الأنبياء +answer : طائفة من الشيعة الجعفرية الإثني عشرية تتميز عن بقية الإثني عشرية بإيمانهم بالأدلة العقلية + +context : العلويون أو العلوية نسبة إلى علي بن أبي طالب لتوليهم إياه إماما بعد وفاة الرسول محمد ، ويسمون كذلك بالنصيرية ؛ طائفة من الشيعة الجعفرية الإثني عشرية ، تتميز عن بقية الإثني عشرية بإيمانهم بالأدلة العقلية . +question : ما هو الاسم الاخر للعلويين ؟ +prompt : أجب عن السؤال التالي : ما هو الاسم الاخر للعلويين ؟ الجواب هو +pred_answer : : لا يوجد اسم +answer : بالنصيرية + +context : العلويون أو العلوية نسبة إلى علي بن أبي طالب لتوليهم إياه إماما بعد وفاة الرسول محمد ، ويسمون كذلك بالنصيرية ؛ طائفة من الشيعة الجعفرية الإثني عشرية ، تتميز عن بقية الإثني عشرية بإيمانهم بالأدلة العقلية . ويقدر عددهم في العالم بحوالي 7 - 14 مليون في العالم يسكن أغلبهم سوريا وفي الأقاليم السورية الشمالية ولواء الإسكندرون الواقع الآن في تركيا ، ويميزهم الإيمان بكون محمد بن نصير النميري أحد نواب الإمام المهدي في فترة الغيبة الصغرى ، في حين يجمع من سواهم من الإثني عشرية على كونه مدعيا منحرفا . ويضاف إلى ذلك عدم اعتمادهم على نظام المرجعيات الدينية ( الذي يعد أساسيا عند من سواهم ) ، وكذلك وجود القليل من الكتب في الفقه والحديث تميز هذه الطائفة . وهي تعتمد بشكل أساسي على الكتب الشيعية وعلى رأسها الكتب الأربعة ومصنفات أخرى كثيرة يشتركون فيها مع بقية الاثناعشرية . وبسبب سرية هذه الفرقة فقد توجه إليها زخم كبير من الاتهامات تاريخيا ؛ فوصفها بعض الشيعة بالغلو ومن أهل السنة توصف بأنها فرقة تستر عقائد باطنية كفرية . وهم اليوم يتواجدون في الجبال الساحلية السورية ويختلفون عن علويي المغرب أو الزيديين في اليمن أو تركيا . +question : كم يقدر عدد العلويين في العالم ؟ +prompt : أجب عن السؤال التالي : كم يقدر عدد العلويين في العالم ؟ الجواب هو +pred_answer : مليونان ونصف +answer : 7 14 مليون + +context : العلويون أو العلوية نسبة إلى علي بن أبي طالب لتوليهم إياه إماما بعد وفاة الرسول محمد ، ويسمون كذلك بالنصيرية ؛ طائفة من الشيعة الجعفرية الإثني عشرية ، تتميز عن بقية الإثني عشرية بإيمانهم بالأدلة العقلية . ويقدر عددهم في العالم بحوالي 7 - 14 مليون في العالم يسكن أغلبهم سوريا وفي الأقاليم السورية الشمالية ولواء الإسكندرون الواقع الآن في تركيا ، ويميزهم الإيمان بكون محمد بن نصير النميري أحد نواب الإمام المهدي في فترة الغيبة الصغرى ، في حين يجمع من سواهم من الإثني عشرية على كونه مدعيا منحرفا . ويضاف إلى ذلك عدم اعتمادهم على نظام المرجعيات الدينية ( الذي يعد أساسيا عند من سواهم ) ، وكذلك وجود القليل من الكتب في الفقه والحديث تميز هذه الطائفة . وهي تعتمد بشكل أساسي على الكتب الشيعية وعلى رأسها الكتب الأربعة ومصنفات أخرى كثيرة يشتركون فيها مع بقية الاثناعشرية . وبسبب سرية هذه الفرقة فقد توجه إليها زخم كبير من الاتهامات تاريخيا ؛ فوصفها بعض الشيعة بالغلو ومن أهل السنة توصف بأنها فرقة تستر عقائد باطنية كفرية . وهم اليوم يتواجدون في الجبال الساحلية السورية ويختلفون عن علويي المغرب أو الزيديين في اليمن أو تركيا . +question : أين يسكن العلويين ؟ +prompt : أجب عن السؤال التالي : أين يسكن العلويين ؟ الجواب هو +pred_answer : أنهم يسكنون في مناطق مختلفة من سوريا ، منها دمشق وحمص وحماة +answer : يسكن أغلبهم سوريا وفي الأقاليم السورية الشمالية ولواء الإسكندرون + +context : العلويون أو العلوية نسبة إلى علي بن أبي طالب لتوليهم إياه إماما بعد وفاة الرسول محمد ، ويسمون كذلك بالنصيرية ؛ طائفة من الشيعة الجعفرية الإثني عشرية ، تتميز عن بقية الإثني عشرية بإيمانهم بالأدلة العقلية . ويقدر عددهم في العالم بحوالي 7 - 14 مليون في العالم يسكن أغلبهم سوريا وفي الأقاليم السورية الشمالية ولواء الإسكندرون الواقع الآن في تركيا ، ويميزهم الإيمان بكون محمد بن نصير النميري أحد نواب الإمام المهدي في فترة الغيبة الصغرى ، في حين يجمع من سواهم من الإثني عشرية على كونه مدعيا منحرفا . ويضاف إلى ذلك عدم اعتمادهم على نظام المرجعيات الدينية ( الذي يعد أساسيا عند من سواهم ) ، وكذلك وجود القليل من الكتب في الفقه والحديث تميز هذه الطائفة . وهي تعتمد بشكل أساسي على الكتب الشيعية وعلى رأسها الكتب الأربعة ومصنفات أخرى كثيرة يشتركون فيها مع بقية الاثناعشرية . وبسبب سرية هذه الفرقة فقد توجه إليها زخم كبير من الاتهامات تاريخيا ؛ فوصفها بعض الشيعة بالغلو ومن أهل السنة توصف بأنها فرقة تستر عقائد باطنية كفرية . وهم اليوم يتواجدون في الجبال الساحلية السورية ويختلفون عن علويي المغرب أو الزيديين في اليمن أو تركيا . +question : بماذا تتميز الطائفة العلوية عن باقي الطوائف الاثني عشرية ؟ +prompt : أجب عن السؤال التالي : بماذا تتميز الطائفة العلوية عن باقي الطوائف الاثني عشرية ؟ الجواب هو +pred_answer : أن هذه الطائفة هي من أكثر الطوائف تعصبا لمذهب +answer : تتميز عن بقية الإثني عشرية بإيمانهم بالأدلة العقلية + +context : بعد وفاة الإمام حسن العسكري يعتقد الشيعة أن ابنه الإمام محمد بن حسن المهدي قد غاب " غيبة صغرى " ، حيث أنه رغم احتجابه عن عامة الناس إلا أنه كان يستطيع الإجابة عن المسائل الفقهية التي كانت ترسل إليه عبر وسطاء محددين ، وهم ماسماهم الناس " السفراء " ، وهم أربعة أشخاص . +question : من هو والد محمد بن حسن المهدي ؟ +prompt : أجب عن السؤال التالي : من هو والد محمد بن حسن المهدي ؟ الجواب هو +pred_answer : السيد أحمد بن السيد +answer : الإمام حسن العسكري + +context : بعد وفاة الإمام حسن العسكري يعتقد الشيعة أن ابنه الإمام محمد بن حسن المهدي قد غاب " غيبة صغرى " ، حيث أنه رغم احتجابه عن عامة الناس إلا أنه كان يستطيع الإجابة عن المسائل الفقهية التي كانت ترسل إليه عبر وسطاء محددين ، وهم ماسماهم الناس " السفراء " ، وهم أربعة أشخاص . +question : كيف استطاع محمد حسن المهدي من الاجابة علي المسائل الفقهية رغم احتجابه ؟ +prompt : أجب عن السؤال التالي : كيف استطاع محمد حسن المهدي من الاجابة علي المسائل الفقهية رغم احتجابه ؟ الجواب هو +pred_answer : ما يلي :1 - لم يكن الامام المهدي عليه السلام +answer : عبر وسطاء محددين وهم ماسماهم الناس السفراء + +context : بعد وفاة الإمام حسن العسكري يعتقد الشيعة أن ابنه الإمام محمد بن حسن المهدي قد غاب " غيبة صغرى " ، حيث أنه رغم احتجابه عن عامة الناس إلا أنه كان يستطيع الإجابة عن المسائل الفقهية التي كانت ترسل إليه عبر وسطاء محددين ، وهم ماسماهم الناس " السفراء " ، وهم أربعة أشخاص . +question : كم بلغ عدد سفراء محمد بن حسن المهدي ؟ +prompt : أجب عن السؤال التالي : كم بلغ عدد سفراء محمد بن حسن المهدي ؟ الجواب هو +pred_answer : ما يلي : +answer : أربعة أشخاص + +context : ترامادول ( بالإنجليزية : Tramadol ) هو مسكن ألم مركزي له مفعول مقارب للكودايين ، وهو نظير هذا الأخير . ويصنف ضمن مسكنات الألم من النوع 2 . يؤثر على نفس مستقبلات المورفين ، وهو منافس على المستقبلات المورفينية . +question : ما هو الاستخدام الاساسي لدواء الترامادول ؟ +prompt : أجب عن السؤال التالي : ما هو الاستخدام الاساسي لدواء الترامادول ؟ الجواب هو +pred_answer : ان الترامادول يستخدم +answer : هو مسكن ألم مركزي + +context : ترامادول ( بالإنجليزية : Tramadol ) هو مسكن ألم مركزي له مفعول مقارب للكودايين ، وهو نظير هذا الأخير . ويصنف ضمن مسكنات الألم من النوع 2 . يؤثر على نفس مستقبلات المورفين ، وهو منافس على المستقبلات المورفينية . +question : ما هو تصنيف مسكن الترامادول ؟ +prompt : أجب عن السؤال التالي : ما هو تصنيف مسكن الترامادول ؟ الجواب هو +pred_answer : أنه من المسكنات القوية التي تعمل على تسكين +answer : ويصنف ضمن مسكنات الألم من النوع 2 + +context : ترامادول ( بالإنجليزية : Tramadol ) هو مسكن ألم مركزي له مفعول مقارب للكودايين ، وهو نظير هذا الأخير . ويصنف ضمن مسكنات الألم من النوع 2 . يؤثر على نفس مستقبلات المورفين ، وهو منافس على المستقبلات المورفينية . +question : ما هي المستقبلات المتأثره من مسكن الترامادول ؟ +prompt : أجب عن السؤال التالي : ما هي المستقبلات المتأثره من مسكن الترامادول ؟ الجواب هو +pred_answer : : 1 - مستقبلات المورفين 2 +answer : يؤثر على نفس مستقبلات المورفين + +context : ترامادول هو مسكن ألم مركزي له مفعول مقارب للكودايين ، وهو نظير هذا الأخير . ويصنف ضمن مسكنات الألم من النوع 2 . يؤثر على نفس مستقبلات المورفين ، وهو منافس على المستقبلات المورفينية . هو لا يحدد مفعول المورفينات الأخرى ، وهو يسبب ادمانا ولكن بصفة أقل من باقي المورفينات المنافسة على نفس المستقبلات ويحذر الأطباء من تناوله دون إرشادات طبية لأن له خطورة بالغة جدا ويسبب الكثير من الأمراض العصبية +question : بما تشبه مفعول مسكن ترامادول ؟ +prompt : أجب عن السؤال التالي : بما تشبه مفعول مسكن ترامادول ؟ الجواب هو +pred_answer : أن الترامادول يعمل على الجهاز العصبي +answer : له مفعول مقارب للكودايين + +context : ترامادول هو مسكن ألم مركزي له مفعول مقارب للكودايين ، وهو نظير هذا الأخير . ويصنف ضمن مسكنات الألم من النوع 2 . يؤثر على نفس مستقبلات المورفين ، وهو منافس على المستقبلات المورفينية . هو لا يحدد مفعول المورفينات الأخرى ، وهو يسبب ادمانا ولكن بصفة أقل من باقي المورفينات المنافسة على نفس المستقبلات ويحذر الأطباء من تناوله دون إرشادات طبية لأن له خطورة بالغة جدا ويسبب الكثير من الأمراض العصبية +question : هل مسكن ترامادول يسبب اي نوع ادمان ؟ +prompt : أجب عن السؤال التالي : هل مسكن ترامادول يسبب اي نوع ادمان ؟ الجواب هو +pred_answer : نعم ، ولكن يجب ان يكون تحت اشراف طبيب متخصص في علاج +answer : وهو يسبب ادمانا ولكن بصفة أقل من باقي المورفينات + +context : ترامادول هو مسكن ألم مركزي له مفعول مقارب للكودايين ، وهو نظير هذا الأخير . ويصنف ضمن مسكنات الألم من النوع 2 . يؤثر على نفس مستقبلات المورفين ، وهو منافس على المستقبلات المورفينية . هو لا يحدد مفعول المورفينات الأخرى ، وهو يسبب ادمانا ولكن بصفة أقل من باقي المورفينات المنافسة على نفس المستقبلات ويحذر الأطباء من تناوله دون إرشادات طبية لأن له خطورة بالغة جدا ويسبب الكثير من الأمراض العصبية +question : هل هناك اي مخاطر دون الادمان من تناول مسكن الترامادول ؟ +prompt : أجب عن السؤال التالي : هل هناك اي مخاطر دون الادمان من تناول مسكن الترامادول ؟ الجواب هو +pred_answer : نعم ، فهناك العديد من المخاطر التي يمكن ان +answer : له خطورة بالغة جدا ويسبب الكثير من الأمراض العصبية + +context : تأثيره المسكن للألم أكبر من المسكنات من النوع 1 ، ولهذا يستحسن استعماله بحيطة أكثر . ويمكن استخدامه عن طريق الحقن الوريدي ، الجرعات المستخدمة هي من 50 إلى 250 ملغ . عمر النصف له هو من خمس الى سبع ساعات ، اطراحه كلوي +question : هل تاثير مسكن الترامادول من النوع 2 اكبر او اقل من مسكنات النوع 1 ؟ +prompt : أجب عن السؤال التالي : هل تاثير مسكن الترامادول من النوع 2 اكبر او اقل من مسكنات النوع 1 ؟ الجواب هو +pred_answer : نعم و لكن ليس بنفس القدر الذي كان عليه قبل تناول هذا المسكن . +answer : تأثيره المسكن للألم أكبر من المسكنات من النوع 1 + +context : تأثيره المسكن للألم أكبر من المسكنات من النوع 1 ، ولهذا يستحسن استعماله بحيطة أكثر . ويمكن استخدامه عن طريق الحقن الوريدي ، الجرعات المستخدمة هي من 50 إلى 250 ملغ . عمر النصف له هو من خمس الى سبع ساعات ، اطراحه كلوي +question : ما هي طريق تناول مسكن الترامادول ؟ +prompt : أجب عن السؤال التالي : ما هي طريق تناول مسكن الترامادول ؟ الجواب هو +pred_answer : كالتالي : 1 - لا تتناول أي دواء +answer : ويمكن استخدامه عن طريق الحقن الوريدي + +context : تأثيره المسكن للألم أكبر من المسكنات من النوع 1 ، ولهذا يستحسن استعماله بحيطة أكثر . ويمكن استخدامه عن طريق الحقن الوريدي ، الجرعات المستخدمة هي من 50 إلى 250 ملغ . عمر النصف له هو من خمس الى سبع ساعات ، اطراحه كلوي +question : ما هي الجرعات المسموح بها لتناول مسكن الترامادول ؟ +prompt : أجب عن السؤال التالي : ما هي الجرعات المسموح بها لتناول مسكن الترامادول ؟ الجواب هو +pred_answer : أن تناول جرعة زائدة من +answer : من 50 إلى 250 ملغ + +context : الثورة الفرنسية ( بالفرنسية : R volution fran aise ) هي فترة مؤثرة من الاضطرابات الاجتماعية والسياسية في فرنسا عرفت عدة مراحل استمرت من 1789 حتى 1799 ، وكانت لها تأثيرات عميقة على أوروبا والعالم الغربي عموما ، انتهت بسيطرة البورجوازية خلال التحالف مع نابليون وانتهت بتصدير الأزمة من خلال الاستعمار بالتوسع اللاحق للإمبراطورية الفرنسية ، انتهت بسيطرة البورجوازية التي كانت متحالفة مع طبقة العمال مع إحقاق مجموعة من الحقوق والحريات للطبقة العاملة والمتوسطة للشعب الفرنسي . +question : متى بدأت الثوره الفرنسيه , و متى انتهت ؟ +prompt : أجب عن السؤال التالي : متى بدأت الثوره الفرنسيه , و متى انتهت ؟ الجواب هو +pred_answer : في عام 1789 م عندما قام +answer : استمرت من 1789 حتى 1799 + +context : الثورة الفرنسية ( بالفرنسية : R volution fran aise ) هي فترة مؤثرة من الاضطرابات الاجتماعية والسياسية في فرنسا عرفت عدة مراحل استمرت من 1789 حتى 1799 ، وكانت لها تأثيرات عميقة على أوروبا والعالم الغربي عموما ، انتهت بسيطرة البورجوازية خلال التحالف مع نابليون وانتهت بتصدير الأزمة من خلال الاستعمار بالتوسع اللاحق للإمبراطورية الفرنسية ، انتهت بسيطرة البورجوازية التي كانت متحالفة مع طبقة العمال مع إحقاق مجموعة من الحقوق والحريات للطبقة العاملة والمتوسطة للشعب الفرنسي . +question : من تاثر بسبب الثوره الفرنسيه ؟ +prompt : أجب عن السؤال التالي : من تاثر بسبب الثوره الفرنسيه ؟ الجواب هو +pred_answer : ( نابليون بونابرت ) حيث انه +answer : لها تأثيرات عميقة على أوروبا والعالم الغربي عموما + +context : الثورة الفرنسية ( بالفرنسية : R volution fran aise ) هي فترة مؤثرة من الاضطرابات الاجتماعية والسياسية في فرنسا عرفت عدة مراحل استمرت من 1789 حتى 1799 ، وكانت لها تأثيرات عميقة على أوروبا والعالم الغربي عموما ، انتهت بسيطرة البورجوازية خلال التحالف مع نابليون وانتهت بتصدير الأزمة من خلال الاستعمار بالتوسع اللاحق للإمبراطورية الفرنسية ، انتهت بسيطرة البورجوازية التي كانت متحالفة مع طبقة العمال مع إحقاق مجموعة من الحقوق والحريات للطبقة العاملة والمتوسطة للشعب الفرنسي . +question : كيف انتهت الثوره الفرنسيه ؟ +prompt : أجب عن السؤال التالي : كيف انتهت الثوره الفرنسيه ؟ الجواب هو +pred_answer : أن الثورة الفرنسية لم تكن ثورة +answer : انتهت بسيطرة البورجوازية + +context : الثورة الفرنسية ( بالفرنسية : R volution fran aise ) هي فترة مؤثرة من الاضطرابات الاجتماعية والسياسية في فرنسا عرفت عدة مراحل استمرت من 1789 حتى 1799 ، وكانت لها تأثيرات عميقة على أوروبا والعالم الغربي عموما ، انتهت بسيطرة البورجوازية خلال التحالف مع نابليون وانتهت بتصدير الأزمة من خلال الاستعمار بالتوسع اللاحق للإمبراطورية الفرنسية ، انتهت بسيطرة البورجوازية التي كانت متحالفة مع طبقة العمال مع إحقاق مجموعة من الحقوق والحريات للطبقة العاملة والمتوسطة للشعب الفرنسي . أسقطت الملكية وأسست الجمهورية وشهدت فترات عنيفة من الاضطراب السياسي ، وتوجت أخيرا في دكتاتورية نابليون الذي جاء سريعا بكثير من مبادئها إلى أوروبا الغربية وخارجها . استوحت الثورة الفرنسية أفكارا ليبرالية وراديكالية ، غيرت بشكل عميق مسار التاريخ الحديث ، وأطلقت الانحدار العالمي للملكيات المطلق واستبدالها بالجمهوريات . أطلقت الثورة من خلال حروب الثورة الفرنسية صراعات عالمية مسلحة امتدت من البحر الكاريبي إلى الشرق الأوسط . المؤرخين على نطاق واسع يعتبرون الثورة الفرنسية واحدة من أهم الأحداث في تاريخ البشرية . +question : من هي الطبقه التي سيطرت عند انتهاءالثوره من خلال التحالف مع نابليون ؟ +prompt : أجب عن السؤال التالي : من هي الطبقه التي سيطرت عند انتهاءالثوره من خلال التحالف مع نابليون ؟ الجواب هو +pred_answer : طبقة البورجوازيه الصغيره في فرنسا . +answer : بسيطرة البورجوازية خلال التحالف مع نابليون + +context : الثورة الفرنسية ( بالفرنسية : R volution fran aise ) هي فترة مؤثرة من الاضطرابات الاجتماعية والسياسية في فرنسا عرفت عدة مراحل استمرت من 1789 حتى 1799 ، وكانت لها تأثيرات عميقة على أوروبا والعالم الغربي عموما ، انتهت بسيطرة البورجوازية خلال التحالف مع نابليون وانتهت بتصدير الأزمة من خلال الاستعمار بالتوسع اللاحق للإمبراطورية الفرنسية ، انتهت بسيطرة البورجوازية التي كانت متحالفة مع طبقة العمال مع إحقاق مجموعة من الحقوق والحريات للطبقة العاملة والمتوسطة للشعب الفرنسي . أسقطت الملكية وأسست الجمهورية وشهدت فترات عنيفة من الاضطراب السياسي ، وتوجت أخيرا في دكتاتورية نابليون الذي جاء سريعا بكثير من مبادئها إلى أوروبا الغربية وخارجها . استوحت الثورة الفرنسية أفكارا ليبرالية وراديكالية ، غيرت بشكل عميق مسار التاريخ الحديث ، وأطلقت الانحدار العالمي للملكيات المطلق واستبدالها بالجمهوريات . أطلقت الثورة من خلال حروب الثورة الفرنسية صراعات عالمية مسلحة امتدت من البحر الكاريبي إلى الشرق الأوسط . المؤرخين على نطاق واسع يعتبرون الثورة الفرنسية واحدة من أهم الأحداث في تاريخ البشرية . +question : ماذا حقق التحالف بين البورجوازيه و طبيق العمال ؟ +prompt : أجب عن السؤال التالي : ماذا حقق التحالف بين البورجوازيه و طبيق العمال ؟ الجواب هو +pred_answer : أن هذا التحالف لم يحقق شيئا ، بل على العكس من +answer : إحقاق مجموعة من الحقوق والحريات للطبقة العاملة والمتوسطة للشعب الفرنسي + +context : الثورة الفرنسية ( بالفرنسية : R volution fran aise ) هي فترة مؤثرة من الاضطرابات الاجتماعية والسياسية في فرنسا عرفت عدة مراحل استمرت من 1789 حتى 1799 ، وكانت لها تأثيرات عميقة على أوروبا والعالم الغربي عموما ، انتهت بسيطرة البورجوازية خلال التحالف مع نابليون وانتهت بتصدير الأزمة من خلال الاستعمار بالتوسع اللاحق للإمبراطورية الفرنسية ، انتهت بسيطرة البورجوازية التي كانت متحالفة مع طبقة العمال مع إحقاق مجموعة من الحقوق والحريات للطبقة العاملة والمتوسطة للشعب الفرنسي . أسقطت الملكية وأسست الجمهورية وشهدت فترات عنيفة من الاضطراب السياسي ، وتوجت أخيرا في دكتاتورية نابليون الذي جاء سريعا بكثير من مبادئها إلى أوروبا الغربية وخارجها . استوحت الثورة الفرنسية أفكارا ليبرالية وراديكالية ، غيرت بشكل عميق مسار التاريخ الحديث ، وأطلقت الانحدار العالمي للملكيات المطلق واستبدالها بالجمهوريات . أطلقت الثورة من خلال حروب الثورة الفرنسية صراعات عالمية مسلحة امتدت من البحر الكاريبي إلى الشرق الأوسط . المؤرخين على نطاق واسع يعتبرون الثورة الفرنسية واحدة من أهم الأحداث في تاريخ البشرية . +question : ما هي التغيرات التي سببتها الثوره الفرنسيه عندما استوحت افكار ليبراليه وراديكاليه ؟ +prompt : أجب عن السؤال التالي : ما هي التغيرات التي سببتها الثوره الفرنسيه عندما استوحت افكار ليبراليه وراديكاليه ؟ الجواب هو +pred_answer : ان الليبراليه لم تكن في يوم من الايام ايديولوجيه او مذهبا سياسيا +answer : بشكل عميق مسار التاريخ الحديث وأطلقت الانحدار العالمي للملكيات المطلق واستبدالها بالجمهوريات + +context : أسباب الثورة الفرنسية معقدة ومازالت محل جدل بين المؤرخين . بعد حرب السنوات السبع وحرب الاستقلال الأمريكية ، كانت الحكومة الفرنسية غارقة في الديون وحاولت استعادة وضعها المالي من خلال خطط ضرائب لم تحظى بشعبية بين العامة . أيضا سنوات من القحط سبقت الثورة أثارت استياء شعبي على الامتيازات التي يتمتع بها رجال الدين والطبقة الأرستقراطية . صيغت مطالب التغيير من خلال أفكار تنويرية وساهمت في انعقاد مؤتمر الجمعية العامة في مايو 1789 السنة الأولى من الثورة رأت سيطرة الجمعية العامة واقتحام سجن الباستيل في يوليو وإمرار إعلان حقوق الإنسان والمواطن في أغسطس ومسيرة النساء إلى قصر فرساي التي أجبرت البلاط الملكي على الرجوع إلى باريس في أكتوبر . أهم حدث في المرحلة الأولى من الثورة حصل في أغسطس 1789 حيث ألغي نظام الإقطاع والقواعد والامتيازات القديمة التي خلفها حكم أترافي . خلال السنوات القليلة التالية ظهرت صراعات سياسية بين مختلف التجمعات الليبرالية وأنصار الجناح اليميني الموالي للنظام الملكي الذين حاولوا إحباط إصلاحات رئيسية . تم الإعلان عن قيام الجمهورية في سبتمبر 1792 بعد الانتصار الفرنسي في معركة فالمي . في حدث تاريخي أدى إلى إدانة دولية له ، تم إعدام لويس السادس عشر في يناير 1793 . +question : كيف حاولت الحكومه الفرنسيه استعادة وضعها المالي بعد حرب السنوات السبع ؟ +prompt : أجب عن السؤال التالي : كيف حاولت الحكومه الفرنسيه استعادة وضعها المالي بعد حرب السنوات السبع ؟ الجواب هو +pred_answer : ان فرنسا كانت تعاني من عجز كبير في ميزانها التجاري ، وكان هذا +answer : وحاولت استعادة وضعها المالي من خلال خطط ضرائب لم تحظى بشعبية بين العامة + +context : أسباب الثورة الفرنسية معقدة ومازالت محل جدل بين المؤرخين . بعد حرب السنوات السبع وحرب الاستقلال الأمريكية ، كانت الحكومة الفرنسية غارقة في الديون وحاولت استعادة وضعها المالي من خلال خطط ضرائب لم تحظى بشعبية بين العامة . أيضا سنوات من القحط سبقت الثورة أثارت استياء شعبي على الامتيازات التي يتمتع بها رجال الدين والطبقة الأرستقراطية . صيغت مطالب التغيير من خلال أفكار تنويرية وساهمت في انعقاد مؤتمر الجمعية العامة في مايو 1789 السنة الأولى من الثورة رأت سيطرة الجمعية العامة واقتحام سجن الباستيل في يوليو وإمرار إعلان حقوق الإنسان والمواطن في أغسطس ومسيرة النساء إلى قصر فرساي التي أجبرت البلاط الملكي على الرجوع إلى باريس في أكتوبر . أهم حدث في المرحلة الأولى من الثورة حصل في أغسطس 1789 حيث ألغي نظام الإقطاع والقواعد والامتيازات القديمة التي خلفها حكم أترافي . خلال السنوات القليلة التالية ظهرت صراعات سياسية بين مختلف التجمعات الليبرالية وأنصار الجناح اليميني الموالي للنظام الملكي الذين حاولوا إحباط إصلاحات رئيسية . تم الإعلان عن قيام الجمهورية في سبتمبر 1792 بعد الانتصار الفرنسي في معركة فالمي . في حدث تاريخي أدى إلى إدانة دولية له ، تم إعدام لويس السادس عشر في يناير 1793 . +question : متى عقد مؤتمر الجمعيه العامه +prompt : أجب عن السؤال التالي : متى عقد مؤتمر الجمعيه العامه الجواب هو +pred_answer : في اليوم الخامس عشر +answer : مايو 1789 + +context : أسباب الثورة الفرنسية معقدة ومازالت محل جدل بين المؤرخين . بعد حرب السنوات السبع وحرب الاستقلال الأمريكية ، كانت الحكومة الفرنسية غارقة في الديون وحاولت استعادة وضعها المالي من خلال خطط ضرائب لم تحظى بشعبية بين العامة . أيضا سنوات من القحط سبقت الثورة أثارت استياء شعبي على الامتيازات التي يتمتع بها رجال الدين والطبقة الأرستقراطية . صيغت مطالب التغيير من خلال أفكار تنويرية وساهمت في انعقاد مؤتمر الجمعية العامة في مايو 1789 السنة الأولى من الثورة رأت سيطرة الجمعية العامة واقتحام سجن الباستيل في يوليو وإمرار إعلان حقوق الإنسان والمواطن في أغسطس ومسيرة النساء إلى قصر فرساي التي أجبرت البلاط الملكي على الرجوع إلى باريس في أكتوبر . أهم حدث في المرحلة الأولى من الثورة حصل في أغسطس 1789 حيث ألغي نظام الإقطاع والقواعد والامتيازات القديمة التي خلفها حكم أترافي . خلال السنوات القليلة التالية ظهرت صراعات سياسية بين مختلف التجمعات الليبرالية وأنصار الجناح اليميني الموالي للنظام الملكي الذين حاولوا إحباط إصلاحات رئيسية . تم الإعلان عن قيام الجمهورية في سبتمبر 1792 بعد الانتصار الفرنسي في معركة فالمي . في حدث تاريخي أدى إلى إدانة دولية له ، تم إعدام لويس السادس عشر في يناير 1793 . +question : ما هو اهم حدث خلال المرحله الولى من الثوره +prompt : أجب عن السؤال التالي : ما هو اهم حدث خلال المرحله الولى من الثوره الجواب هو +pred_answer : ان المجلس العسكري قام بتسليم السلطه الى رئيس مجلس الشعب المنتخب +answer : ألغي نظام الإقطاع والقواعد والامتيازات القديمة التي خلفها حكم أترافي + +context : أحمد عز ( 23 يوليو 1971 - ) ممثل مصري . ظهر لأول مرة مع المغنية أصالة في كليب " لما جت عينك في عيني " ز ظهر أيضا بمشهد صغير في فيلم فيلم كلام الليل للمخرجة إيناس الدغيدي التي أتاحت له الفرصة فيما بعد للقيام بطولة فيلم مذكرات مراهقة . +question : ما هو اول ظهور فني للممثل أحمد عز ؟ +prompt : أجب عن السؤال التالي : ما هو اول ظهور فني للممثل أحمد عز ؟ الجواب هو +pred_answer : أن أول ظهور فني لأحمد عز كان في فيلم « ملا +answer : مع المغنية أصالة في كليب لما جت عينك في عيني ز + +context : أحمد عز ( 23 يوليو 1971 - ) ممثل مصري . ظهر لأول مرة مع المغنية أصالة في كليب " لما جت عينك في عيني " ز ظهر أيضا بمشهد صغير في فيلم فيلم كلام الليل للمخرجة إيناس الدغيدي التي أتاحت له الفرصة فيما بعد للقيام بطولة فيلم مذكرات مراهقة . +question : من هي المخرجه التي اتاحت الفرصه الكبرى للممثل أحمد عز للقيام بلبطوله ؟ +prompt : أجب عن السؤال التالي : من هي المخرجه التي اتاحت الفرصه الكبرى للممثل أحمد عز للقيام بلبطوله ؟ الجواب هو +pred_answer : المخرجة إيناس الدغيدي ، فهي أول � +answer : إيناس الدغيدي التي أتاحت له الفرصة + +context : أحمد عز ( 23 يوليو 1971 - ) ممثل مصري . ظهر لأول مرة مع المغنية أصالة في كليب " لما جت عينك في عيني " ز ظهر أيضا بمشهد صغير في فيلم فيلم كلام الليل للمخرجة إيناس الدغيدي التي أتاحت له الفرصة فيما بعد للقيام بطولة فيلم مذكرات مراهقة . +question : في اي فيلم ظهر فيه الفنان احمد عز بمشهد صغير في بدايت مشواره الفني ؟ +prompt : أجب عن السؤال التالي : في اي فيلم ظهر فيه الفنان احمد عز بمشهد صغير في بدايت مشواره الفني ؟ الجواب هو +pred_answer : مشهد واحد في فيلم +answer : فيلم فيلم كلام الليل + +context : أحمد عز ( 23 يوليو 1971 - ) ممثل مصري . ظهر لأول مرة مع المغنية أصالة في كليب " لما جت عينك في عيني " ز ظهر أيضا بمشهد صغير في فيلم فيلم كلام الليل للمخرجة إيناس الدغيدي التي أتاحت له الفرصة فيما بعد للقيام بطولة فيلم مذكرات مراهقة . في 2004l لفت الأنظار إليه عندما لعب دور البطولة أمام الفنانة يسرا في مسلسل ملك روحي وبعده فيلمي حب البنات وسنة أولى نصب . ابتعد بعد ذلك عن الأدوار الرومانسية واتجه لأفلام الحركة والإثارة والتشويق . +question : ما هو اول فيلم بطوله للفنان أحمد عز ؟ +prompt : أجب عن السؤال التالي : ما هو اول فيلم بطوله للفنان أحمد عز ؟ الجواب هو +pred_answer : " ملاكي +answer : فيلم مذكرات مراهقة + +context : أحمد عز ( 23 يوليو 1971 - ) ممثل مصري . ظهر لأول مرة مع المغنية أصالة في كليب " لما جت عينك في عيني " ز ظهر أيضا بمشهد صغير في فيلم فيلم كلام الليل للمخرجة إيناس الدغيدي التي أتاحت له الفرصة فيما بعد للقيام بطولة فيلم مذكرات مراهقة . في 2004l لفت الأنظار إليه عندما لعب دور البطولة أمام الفنانة يسرا في مسلسل ملك روحي وبعده فيلمي حب البنات وسنة أولى نصب . ابتعد بعد ذلك عن الأدوار الرومانسية واتجه لأفلام الحركة والإثارة والتشويق . +question : من هي الفنانه التي قام أحمد عز بدور البطوله امامها في عام 2004 ؟ +prompt : أجب عن السؤال التالي : من هي الفنانه التي قام أحمد عز بدور البطوله امامها في عام 2004 ؟ الجواب هو +pred_answer : ياسمين عبد العزيز .من هي +answer : لعب دور البطولة أمام الفنانة يسرا + +context : أحمد عز ( 23 يوليو 1971 - ) ممثل مصري . ظهر لأول مرة مع المغنية أصالة في كليب " لما جت عينك في عيني " ز ظهر أيضا بمشهد صغير في فيلم فيلم كلام الليل للمخرجة إيناس الدغيدي التي أتاحت له الفرصة فيما بعد للقيام بطولة فيلم مذكرات مراهقة . في 2004l لفت الأنظار إليه عندما لعب دور البطولة أمام الفنانة يسرا في مسلسل ملك روحي وبعده فيلمي حب البنات وسنة أولى نصب . ابتعد بعد ذلك عن الأدوار الرومانسية واتجه لأفلام الحركة والإثارة والتشويق . +question : ما نوع الأدوار التي يقوم بتمثيلها الفنان أحمد عز حاليا ؟ +prompt : أجب عن السؤال التالي : ما نوع الأدوار التي يقوم بتمثيلها الفنان أحمد عز حاليا ؟ الجواب هو +pred_answer : أنه يلعب دور البطولة المطلقة في +answer : واتجه لأفلام الحركة والإثارة والتشويق + +context : كان يحلم بالتمثيل من أيام المدرسة وبعدها الجامعة وكان يتابع الوسط الفني من بعيد ، لكنه لم يفكر في دراسة التمثيل لأن الإنتاج السينمائي وقتها كان محدودا جدا وخشي من عدم وجود فرصة بعد ذلك للعمل ، فدرس الأدب الإنجليزي في كلية الآداب جامعة عين شمس ، وبعد تخرجه عمل في مجال الفنادق . +question : لماذا لم يدرس الفنان أحمد عز التمثيل ؟ +prompt : أجب عن السؤال التالي : لماذا لم يدرس الفنان أحمد عز التمثيل ؟ الجواب هو +pred_answer : أنه لا يريد أن يكون ممثلا ، بل يريد أن يعمل في مجال الإخراج فقط . +answer : الإنتاج السينمائي وقتها كان محدودا جدا وخشي من عدم وجود فرصة بعد ذلك للعمل + +context : كان يحلم بالتمثيل من أيام المدرسة وبعدها الجامعة وكان يتابع الوسط الفني من بعيد ، لكنه لم يفكر في دراسة التمثيل لأن الإنتاج السينمائي وقتها كان محدودا جدا وخشي من عدم وجود فرصة بعد ذلك للعمل ، فدرس الأدب الإنجليزي في كلية الآداب جامعة عين شمس ، وبعد تخرجه عمل في مجال الفنادق . +question : ماذا درس الفنان أحمد عز ؟ وأين ؟ +prompt : أجب عن السؤال التالي : ماذا درس الفنان أحمد عز ؟ وأين ؟ الجواب هو +pred_answer : أنه درس في معهد الفنون المسرحية ، وتخرج منه عام +answer : فدرس الأدب الإنجليزي في كلية الآداب جامعة عين شمس + +context : كان يحلم بالتمثيل من أيام المدرسة وبعدها الجامعة وكان يتابع الوسط الفني من بعيد ، لكنه لم يفكر في دراسة التمثيل لأن الإنتاج السينمائي وقتها كان محدودا جدا وخشي من عدم وجود فرصة بعد ذلك للعمل ، فدرس الأدب الإنجليزي في كلية الآداب جامعة عين شمس ، وبعد تخرجه عمل في مجال الفنادق . +question : ما هو المجال الذي عمل فيه أحمد عز بعد تخرجه من الجامعه ؟ +prompt : أجب عن السؤال التالي : ما هو المجال الذي عمل فيه أحمد عز بعد تخرجه من الجامعه ؟ الجواب هو +pred_answer : صناعة الحديد والصلب في مصر ، حيث +answer : وبعد تخرجه عمل في مجال الفنادق + +context : رونالدو لويس نازاريو دي ليما ( بالبرتغالية : Ronaldo Lu s Naz rio de Lima ) ، المعروف اختصارا برونالدو ، ويعرف أيضا بلقبه " الظاهرة " هو لاعب كرة قدم برازيلي سابق اعتزل لعب كرة القدم في فبراير عام 2011 ، ولد يوم 22 سبتمبر عام 1976 في مدينة ريو دي جانيرو في موطنه البرازيل . +question : ما هو الاسم الكامل للاعب كرة القدم رونالدو ؟ +prompt : أجب عن السؤال التالي : ما هو الاسم الكامل للاعب كرة القدم رونالدو ؟ الجواب هو +pred_answer : كريستيانو رونالدو دوس سانتوس افيرو ( بالإنجليزية +answer : رونالدو لويس نازاريو دي ليما + +context : رونالدو لويس نازاريو دي ليما ( بالبرتغالية : Ronaldo Lu s Naz rio de Lima ) ، المعروف اختصارا برونالدو ، ويعرف أيضا بلقبه " الظاهرة " هو لاعب كرة قدم برازيلي سابق اعتزل لعب كرة القدم في فبراير عام 2011 ، ولد يوم 22 سبتمبر عام 1976 في مدينة ريو دي جانيرو في موطنه البرازيل . +question : ما هو القب الهعروف للاعب كرة القدم رونالدو ؟ +prompt : أجب عن السؤال التالي : ما هو القب الهعروف للاعب كرة القدم رونالدو ؟ الجواب هو +pred_answer : أن هذا اللاعب الذي يلعب في +answer : ويعرف أيضا بلقبه الظاهرة + +context : رونالدو لويس نازاريو دي ليما ( بالبرتغالية : Ronaldo Lu s Naz rio de Lima ) ، المعروف اختصارا برونالدو ، ويعرف أيضا بلقبه " الظاهرة " هو لاعب كرة قدم برازيلي سابق اعتزل لعب كرة القدم في فبراير عام 2011 ، ولد يوم 22 سبتمبر عام 1976 في مدينة ريو دي جانيرو في موطنه البرازيل . +question : متى اعتزل اللاعب رونالدو لعب كرة القدم ؟ +prompt : أجب عن السؤال التالي : متى اعتزل اللاعب رونالدو لعب كرة القدم ؟ الجواب هو +pred_answer : : في عام 2009 ، +answer : فبراير عام 2011 + +context : رونالدو لويس نازاريو دي ليما ، المعروف اختصارا برونالدو ، ويعرف أيضا بلقبه " الظاهرة " هو لاعب كرة قدم برازيلي سابق اعتزل لعب كرة القدم في فبراير عام 2011 ، ولد يوم 22 سبتمبر عام 1976 في مدينة ريو دي جانيرو في موطنه البرازيل . ويعتبر أفضل مهاجمي كرة القدم عبر التاريخ حسب الكثيرين ، كما يصنف أنه أحد أفضل من لعب كرة القدم على الإطلاق ، ويتميز بالسرعة والمهارة العالية وبالبراعة في الإنهاء أمام المرمى ، وقد فاز بجائزة الفيفا لأفضل لاعب في العالم وهو بسن العشرين عاما عام 1996 ، كأصغر من حققها ، كما ظفر بها في مناسبتين أخريين عامي 1997 و 2002 . وهو كذلك أصغر من حقق جائزة الكرة الذهبية وكان ذلك عام 1997 ، كما ظفر بها في مناسبة أخرى عام 2002 . +question : ما هو تاريخ ميلاد لاعب كرة القدم رونالدو ؟ +prompt : أجب عن السؤال التالي : ما هو تاريخ ميلاد لاعب كرة القدم رونالدو ؟ الجواب هو +pred_answer : : كريستيانو رونالدو دوس سانتوس أف +answer : ولد يوم 22 سبتمبر عام 1976 + +context : رونالدو لويس نازاريو دي ليما ، المعروف اختصارا برونالدو ، ويعرف أيضا بلقبه " الظاهرة " هو لاعب كرة قدم برازيلي سابق اعتزل لعب كرة القدم في فبراير عام 2011 ، ولد يوم 22 سبتمبر عام 1976 في مدينة ريو دي جانيرو في موطنه البرازيل . ويعتبر أفضل مهاجمي كرة القدم عبر التاريخ حسب الكثيرين ، كما يصنف أنه أحد أفضل من لعب كرة القدم على الإطلاق ، ويتميز بالسرعة والمهارة العالية وبالبراعة في الإنهاء أمام المرمى ، وقد فاز بجائزة الفيفا لأفضل لاعب في العالم وهو بسن العشرين عاما عام 1996 ، كأصغر من حققها ، كما ظفر بها في مناسبتين أخريين عامي 1997 و 2002 . وهو كذلك أصغر من حقق جائزة الكرة الذهبية وكان ذلك عام 1997 ، كما ظفر بها في مناسبة أخرى عام 2002 . +question : بماذا يتميز اللاعب رونالدو عن غيره من اللاعبين ؟ +prompt : أجب عن السؤال التالي : بماذا يتميز اللاعب رونالدو عن غيره من اللاعبين ؟ الجواب هو +pred_answer : أنه أفضل لاعب كرة قدم في العالم حاليا ، وأفضل لاعب في تاريخ +answer : ويتميز بالسرعة والمهارة العالية وبالبراعة في الإنهاء أمام المرمى + +context : رونالدو لويس نازاريو دي ليما ، المعروف اختصارا برونالدو ، ويعرف أيضا بلقبه " الظاهرة " هو لاعب كرة قدم برازيلي سابق اعتزل لعب كرة القدم في فبراير عام 2011 ، ولد يوم 22 سبتمبر عام 1976 في مدينة ريو دي جانيرو في موطنه البرازيل . ويعتبر أفضل مهاجمي كرة القدم عبر التاريخ حسب الكثيرين ، كما يصنف أنه أحد أفضل من لعب كرة القدم على الإطلاق ، ويتميز بالسرعة والمهارة العالية وبالبراعة في الإنهاء أمام المرمى ، وقد فاز بجائزة الفيفا لأفضل لاعب في العالم وهو بسن العشرين عاما عام 1996 ، كأصغر من حققها ، كما ظفر بها في مناسبتين أخريين عامي 1997 و 2002 . وهو كذلك أصغر من حقق جائزة الكرة الذهبية وكان ذلك عام 1997 ، كما ظفر بها في مناسبة أخرى عام 2002 . +question : كم كان عمر اللاعب رونالدو عند فوزه بجائزه الفيفا لكونه افضل لاعب لأول مره ؟ +prompt : أجب عن السؤال التالي : كم كان عمر اللاعب رونالدو عند فوزه بجائزه الفيفا لكونه افضل لاعب لأول مره ؟ الجواب هو +pred_answer : 10 سنوات و 8 أشهر و 3 أيام .هل تعلم أنه في عام +answer : فاز بجائزة الفيفا لأفضل لاعب في العالم وهو بسن العشرين عاما عام 1996 + +context : بدأ رونالدو مسيرته الكروية من بوابة نادي كروزيرو في البرازيل عام 1993 الذي لعب له لموسمين ، انتقل بعدها إلى القارة الأوروبية ؛ أين لعب معظم مسيرته الكروية بين عامي 1994 و 2008 تنقل خلالها بين كبريات الدوريات والأندية في القارة ، بداية من نادي أيندهوفن الهولندي في الفترة ما بين 1994 – 1996 ثم في الدوري الإسباني في فترتين متفرقتين لعب خلالهما لقطبي إسبانيا برشلونة بين عامي 1996 – 1997 وريال مدريد بين عامي 2002 – 2007 مرورا بفترتين متفرقتين أيضا مع قطبي مدينة ميلان الإيطالية ، بدء من الإنتر بين 1997 – 2002 ، ثم إيه سي ميلان الذي لعب له بين عامي 2007 و 2008 ، حينما قرر الرجوع لبلاده البرازيل من بوابة نادي كورينثيانز الذي قضى معه آخر سنتين في مسيرته الكروية . +question : ما هو اول نادي لكرة القدم لعب فيه اللاعب رونالدو ؟ +prompt : أجب عن السؤال التالي : ما هو اول نادي لكرة القدم لعب فيه اللاعب رونالدو ؟ الجواب هو +pred_answer : ( سبورتنغ لشبونة ) حيث لعب +answer : نادي كروزيرو في البرازيل عام 1993 + +context : بدأ رونالدو مسيرته الكروية من بوابة نادي كروزيرو في البرازيل عام 1993 الذي لعب له لموسمين ، انتقل بعدها إلى القارة الأوروبية ؛ أين لعب معظم مسيرته الكروية بين عامي 1994 و 2008 تنقل خلالها بين كبريات الدوريات والأندية في القارة ، بداية من نادي أيندهوفن الهولندي في الفترة ما بين 1994 – 1996 ثم في الدوري الإسباني في فترتين متفرقتين لعب خلالهما لقطبي إسبانيا برشلونة بين عامي 1996 – 1997 وريال مدريد بين عامي 2002 – 2007 مرورا بفترتين متفرقتين أيضا مع قطبي مدينة ميلان الإيطالية ، بدء من الإنتر بين 1997 – 2002 ، ثم إيه سي ميلان الذي لعب له بين عامي 2007 و 2008 ، حينما قرر الرجوع لبلاده البرازيل من بوابة نادي كورينثيانز الذي قضى معه آخر سنتين في مسيرته الكروية . +question : في اي عام انتقل اللاعب رونالدو الى الدوري الاسباني ؟ +prompt : أجب عن السؤال التالي : في اي عام انتقل اللاعب رونالدو الى الدوري الاسباني ؟ الجواب هو +pred_answer : العام 1996 ، حيث لعب اول مباراة له مع نادي اندبندنتي الارجنتيني +answer : لقطبي إسبانيا برشلونة بين عامي 1996 1997 وريال مدريد بين عامي 2002 2007 + +context : بدأ رونالدو مسيرته الكروية من بوابة نادي كروزيرو في البرازيل عام 1993 الذي لعب له لموسمين ، انتقل بعدها إلى القارة الأوروبية ؛ أين لعب معظم مسيرته الكروية بين عامي 1994 و 2008 تنقل خلالها بين كبريات الدوريات والأندية في القارة ، بداية من نادي أيندهوفن الهولندي في الفترة ما بين 1994 – 1996 ثم في الدوري الإسباني في فترتين متفرقتين لعب خلالهما لقطبي إسبانيا برشلونة بين عامي 1996 – 1997 وريال مدريد بين عامي 2002 – 2007 مرورا بفترتين متفرقتين أيضا مع قطبي مدينة ميلان الإيطالية ، بدء من الإنتر بين 1997 – 2002 ، ثم إيه سي ميلان الذي لعب له بين عامي 2007 و 2008 ، حينما قرر الرجوع لبلاده البرازيل من بوابة نادي كورينثيانز الذي قضى معه آخر سنتين في مسيرته الكروية . +question : قبل اعتزاله من العب , مع اي فريق قضى الاعب رونالدو اخر سنتين ؟ +prompt : أجب عن السؤال التالي : قبل اعتزاله من العب , مع اي فريق قضى الاعب رونالدو اخر سنتين ؟ الجواب هو +pred_answer : نادي ريال مدريد الاسباني الذي لعب له في الفترة ما بين عامي 1997 و +answer : نادي كورينثيانز الذي قضى معه آخر سنتين في مسيرته الكروية + +context : الإعجاز العلمي في القرآن هو الاعتقاد بأن النص القرآني أخبر بحقائق كونية لم تكن مدركة للبشر في زمن ثبوت النص القرآني وأثبتها العلم لاحقا ؛ والبناء عليه بما يتسق مع إيمان المسلمين بأن القرآن معجزة ودليل على نبوة محمد بن عبد الله . +question : ما هو الاعجاز العلمي في القرأن ؟ +prompt : أجب عن السؤال التالي : ما هو الاعجاز العلمي في القرأن ؟ الجواب هو +pred_answer : أن القرآن الكريم كتاب الله عز وجل الذي لا يأتيه الباطل من بين يديه ولا من خلفه تنزيل من حكيم +answer : القرآني أخبر بحقائق كونية لم تكن مدركة للبشر في زمن ثبوت النص القرآني وأثبتها + +context : الإعجاز العلمي في القرآن هو الاعتقاد بأن النص القرآني أخبر بحقائق كونية لم تكن مدركة للبشر في زمن ثبوت النص القرآني وأثبتها العلم لاحقا ؛ والبناء عليه بما يتسق مع إيمان المسلمين بأن القرآن معجزة ودليل على نبوة محمد بن عبد الله . +question : لماذا يعتقد المسلمين أن القرأن معجزه ؟ +prompt : أجب عن السؤال التالي : لماذا يعتقد المسلمين أن القرأن معجزه ؟ الجواب هو +pred_answer : لأنه كلام الله الذي أنزله على عبده ورسوله محمد صلى الله عليه وسلم ، والذي لا يأتيه الباطل من +answer : القرآني أخبر بحقائق كونية لم تكن مدركة للبشر في زمن ثبوت النص القرآني وأثبتها + +context : الإعجاز العلمي في القرآن هو الاعتقاد بأن النص القرآني أخبر بحقائق كونية لم تكن مدركة للبشر في زمن ثبوت النص القرآني وأثبتها العلم لاحقا ؛ والبناء عليه بما يتسق مع إيمان المسلمين بأن القرآن معجزة ودليل على نبوة محمد بن عبد الله . +question : ما هو الدليل على نبوة محمد بن عبد الله حسب ايمان المسلمين ؟ +prompt : أجب عن السؤال التالي : ما هو الدليل على نبوة محمد بن عبد الله حسب ايمان المسلمين ؟ الجواب هو +pred_answer : القرآن الكريم والسنة النبوية الصحيحة .1 - قال تعالى : ( وما أرسلناك إلا كافة للناس بشيرا +answer : القرآني أخبر بحقائق كونية لم تكن مدركة للبشر في زمن ثبوت النص القرآني وأثبتها + +context : يؤمن المسلمون أن القرآن معجزة النبي محمد للعالمين ، وأن آياته تتحدى العالمين بأن يأتوا بمثله أو بسورة مثله ، كما يعتبرونه دليلا على نبوته ، يقول بعض الباحثين وعدد من علماء الشريعة المختصين أيضا بمجالات علمية متنوعة ، أن القرآن يشير إلى معلومات علمية كثيرة في عدد من الآيات وهو ما يسمى بالإعجاز العلمي في القرآن ، وأن هذا يشكل الدليل القاطع على أن مصدره الله العليم والعارف بكل شيء . وقد انتشر الاعتقاد بأن القرآن بين عدة نظريات علمية معروفة ، قبل اكتشافها بمئات السنين ، في مختلف أنحاء العالم الإسلامي ، وقد يختلفون حول ماهيتها ، فالإعجاز يعني ضمنا التحدي مع عجز الجهة التي تحداها ، وهذا ما يعتبره البعض خاصا ببلاغة القرآن وأسلوبه ، ولكن آخرين يؤمنون بشمولية الإعجاز في القرآن للعلوم بشكل مطلق ، فيؤمن المسلمين أن الله هو خالق الكون وبما أن القرآن هو كلامه فإنه من المستحيل أن يتعارض مع الحقائق العلمية التي اكتشفت بعد نزول القرآن ولهذا فإن الإعجاز العلمي يعني توافق النص القرآني مع مقتضيات العلم الحديث أو وجود إلماحات أو تصريحات ضمنه تؤكد حقائق علمية عرفت لاحقا ، وأشهر من عمل بطريقة منهجية على توضيح هذا هو الطبيب الفرنسي موريس بوكاي ، حيث ألف في نهاية تجربته التي أعلن إسلامه كثمرة لها كتابه المشهور الذي ترجم إلى سبع عشرة لغة ( التوراة والأناجيل والقرآن الكريم بمقياس العلم الحديث ) . +question : ما هي معجزة النبي محمد ؟ +prompt : أجب عن السؤال التالي : ما هي معجزة النبي محمد ؟ الجواب هو +pred_answer : أن الله سبحانه وتعالى قد أنزل القرآن الكريم على +answer : يؤمن المسلمون أن القرآن معجزة النبي محمد للعالمين + +context : يؤمن المسلمون أن القرآن معجزة النبي محمد للعالمين ، وأن آياته تتحدى العالمين بأن يأتوا بمثله أو بسورة مثله ، كما يعتبرونه دليلا على نبوته ، يقول بعض الباحثين وعدد من علماء الشريعة المختصين أيضا بمجالات علمية متنوعة ، أن القرآن يشير إلى معلومات علمية كثيرة في عدد من الآيات وهو ما يسمى بالإعجاز العلمي في القرآن ، وأن هذا يشكل الدليل القاطع على أن مصدره الله العليم والعارف بكل شيء . وقد انتشر الاعتقاد بأن القرآن بين عدة نظريات علمية معروفة ، قبل اكتشافها بمئات السنين ، في مختلف أنحاء العالم الإسلامي ، وقد يختلفون حول ماهيتها ، فالإعجاز يعني ضمنا التحدي مع عجز الجهة التي تحداها ، وهذا ما يعتبره البعض خاصا ببلاغة القرآن وأسلوبه ، ولكن آخرين يؤمنون بشمولية الإعجاز في القرآن للعلوم بشكل مطلق ، فيؤمن المسلمين أن الله هو خالق الكون وبما أن القرآن هو كلامه فإنه من المستحيل أن يتعارض مع الحقائق العلمية التي اكتشفت بعد نزول القرآن ولهذا فإن الإعجاز العلمي يعني توافق النص القرآني مع مقتضيات العلم الحديث أو وجود إلماحات أو تصريحات ضمنه تؤكد حقائق علمية عرفت لاحقا ، وأشهر من عمل بطريقة منهجية على توضيح هذا هو الطبيب الفرنسي موريس بوكاي ، حيث ألف في نهاية تجربته التي أعلن إسلامه كثمرة لها كتابه المشهور الذي ترجم إلى سبع عشرة لغة ( التوراة والأناجيل والقرآن الكريم بمقياس العلم الحديث ) . +question : ما هو الدليل القاطع أن الله أنزل القرأن ؟ +prompt : أجب عن السؤال التالي : ما هو الدليل القاطع أن الله أنزل القرأن ؟ الجواب هو +pred_answer : قول الله تعالى : { إنا نحن نزلنا الذكر وإنا له لحافظون } +answer : معلومات علمية كثيرة في عدد من الآيات وهو ما يسمى بالإعجاز العلمي في القرآن + +context : برز عدد من الدعاة والعلماء ليؤكدوا الإعجاز العلمي في القرآن ، ومن أشهرهم زغلول النجار ، الذي ربط في عدة محاضرات جامعية وتلفازية بين ما جاء في بعض الآيات وما أقرته نظريات علمية في القرن العشرين وما سبقه . ومن أبرز ما قيل في هذا المجال على سبيل المثال ، أن الآية السابعة والستين من سورة الأنعام : تشير إلى أن ما ورد في القرآن من معلومات علمية سوف يكتشف مع مرور الزمن ، وأن الكون خلق فعلا من انفجار عظيم ، وأن أدنى نقطة على سطح الأرض هي البحر الميت ، وأن الجنين يخلق في أطوار ، وغير ذلك من الأمور . كذلك يقول علماء التفسير أن القرآن تنبأ ببعض الحوادث التي ستقع مستقبلا ، من أشهرها هزيمة الفرس على يد الروم البيزنطيين خلال عقد العشرينيات من القرن السابع ، بعد أن كان الفرس قد هزموا الروم قبلا وفتحوا قسما من إمبراطوريتهم : فقد نزلت هذه الآية في سنة 615 ، أي قبل 6 أو 7 سنوات من انقلاب ميزان القوى لصالح البيزنطيين . +question : من هو أبرز الدعاة والعلماء الذي قام بربط عدة نظريات علميه مع أيات من ألقرأن ؟ +prompt : أجب عن السؤال التالي : من هو أبرز الدعاة والعلماء الذي قام بربط عدة نظريات علميه مع أيات من ألقرأن ؟ الجواب هو +pred_answer : الشيخ محمد متولي شعراوي رحمه الله ، حيث ربط بين نظرية داروين في النش +answer : عدة محاضرات جامعية وتلفازية بين ما جاء في بعض الآيات وما أقرته نظريات علمية + +context : برز عدد من الدعاة والعلماء ليؤكدوا الإعجاز العلمي في القرآن ، ومن أشهرهم زغلول النجار ، الذي ربط في عدة محاضرات جامعية وتلفازية بين ما جاء في بعض الآيات وما أقرته نظريات علمية في القرن العشرين وما سبقه . ومن أبرز ما قيل في هذا المجال على سبيل المثال ، أن الآية السابعة والستين من سورة الأنعام : تشير إلى أن ما ورد في القرآن من معلومات علمية سوف يكتشف مع مرور الزمن ، وأن الكون خلق فعلا من انفجار عظيم ، وأن أدنى نقطة على سطح الأرض هي البحر الميت ، وأن الجنين يخلق في أطوار ، وغير ذلك من الأمور . كذلك يقول علماء التفسير أن القرآن تنبأ ببعض الحوادث التي ستقع مستقبلا ، من أشهرها هزيمة الفرس على يد الروم البيزنطيين خلال عقد العشرينيات من القرن السابع ، بعد أن كان الفرس قد هزموا الروم قبلا وفتحوا قسما من إمبراطوريتهم : فقد نزلت هذه الآية في سنة 615 ، أي قبل 6 أو 7 سنوات من انقلاب ميزان القوى لصالح البيزنطيين . +question : ما هي بعض الأمثله التي ربطها الداعيه زغلول نجار بين القرأن والنظريات العلميه ؟ +prompt : أجب عن السؤال التالي : ما هي بعض الأمثله التي ربطها الداعيه زغلول نجار بين القرأن والنظريات العلميه ؟ الجواب هو +pred_answer : أن الله سبحانه وتعالى أنزل القرآن الكريم على سيدنا محمد صلى الله عليه وسلم في +answer : انفجار عظيم وأن أدنى نقطة على سطح الأرض هي البحر الميت وأن الجنين يخلق + +context : برز عدد من الدعاة والعلماء ليؤكدوا الإعجاز العلمي في القرآن ، ومن أشهرهم زغلول النجار ، الذي ربط في عدة محاضرات جامعية وتلفازية بين ما جاء في بعض الآيات وما أقرته نظريات علمية في القرن العشرين وما سبقه . ومن أبرز ما قيل في هذا المجال على سبيل المثال ، أن الآية السابعة والستين من سورة الأنعام : تشير إلى أن ما ورد في القرآن من معلومات علمية سوف يكتشف مع مرور الزمن ، وأن الكون خلق فعلا من انفجار عظيم ، وأن أدنى نقطة على سطح الأرض هي البحر الميت ، وأن الجنين يخلق في أطوار ، وغير ذلك من الأمور . كذلك يقول علماء التفسير أن القرآن تنبأ ببعض الحوادث التي ستقع مستقبلا ، من أشهرها هزيمة الفرس على يد الروم البيزنطيين خلال عقد العشرينيات من القرن السابع ، بعد أن كان الفرس قد هزموا الروم قبلا وفتحوا قسما من إمبراطوريتهم : فقد نزلت هذه الآية في سنة 615 ، أي قبل 6 أو 7 سنوات من انقلاب ميزان القوى لصالح البيزنطيين . +question : اعط مثال عن بعض الحوادث التي تنبئ لهل القرأن التي ستقع مستقبلا ؟ +prompt : أجب عن السؤال التالي : اعط مثال عن بعض الحوادث التي تنبئ لهل القرأن التي ستقع مستقبلا ؟ الجواب هو +pred_answer : أن الله سبحانه وتعالى قال في كتابه العزيز : ( قل سيروا في الأرض فانظروا كيف +answer : الروم البيزنطيين خلال عقد العشرينيات من القرن السابع بعد أن كان الفرس قد هزموا + +context : جمال عبد الناصر ( 15 يناير 1918 – 28 سبتمبر 1970 ) . هو ثاني رؤساء مصر . تولى السلطة من سنة 1956 إلى وفاته . أدت سياسات عبد الناصر المحايدة خلال الحرب الباردة إلى توتر العلاقات مع القوى الغربية التي سحبت تمويلها للسد العالي ، الذي كان عبد الناصر يخطط لبنائه . رد عبد الناصر على ذلك بتأميم شركة قناة السويس سنة 1956 ، ولاقى ذلك استحسانا داخل مصر والوطن العربي . وبالتالي ، قامت بريطانيا ، وفرنسا ، وإسرائيل باحتلال سيناء لكنهم انسحبوا وسط ضغوط دولية ؛ وقد عزز ذلك مكانة عبد الناصر السياسية بشكل ملحوظ . ومنذ ذلك الحين ، نمت شعبية عبد الناصر في المنطقة بشكل كبير ، وتزايدت الدعوات إلى الوحدة العربية تحت قيادته ، وتحقق ذلك بتشكيل الجمهورية العربية المتحدة مع سوريا ( 1958 - 1961 ) . +question : متى ولد عبد الناصر ؟ +prompt : أجب عن السؤال التالي : متى ولد عبد الناصر ؟ الجواب هو +pred_answer : أنه ولد في +answer : 15 يناير 1918 + +context : جمال عبد الناصر ( 15 يناير 1918 – 28 سبتمبر 1970 ) . هو ثاني رؤساء مصر . تولى السلطة من سنة 1956 إلى وفاته . أدت سياسات عبد الناصر المحايدة خلال الحرب الباردة إلى توتر العلاقات مع القوى الغربية التي سحبت تمويلها للسد العالي ، الذي كان عبد الناصر يخطط لبنائه . رد عبد الناصر على ذلك بتأميم شركة قناة السويس سنة 1956 ، ولاقى ذلك استحسانا داخل مصر والوطن العربي . وبالتالي ، قامت بريطانيا ، وفرنسا ، وإسرائيل باحتلال سيناء لكنهم انسحبوا وسط ضغوط دولية ؛ وقد عزز ذلك مكانة عبد الناصر السياسية بشكل ملحوظ . ومنذ ذلك الحين ، نمت شعبية عبد الناصر في المنطقة بشكل كبير ، وتزايدت الدعوات إلى الوحدة العربية تحت قيادته ، وتحقق ذلك بتشكيل الجمهورية العربية المتحدة مع سوريا ( 1958 - 1961 ) . +question : متى امم عبد الناصر قناة السويس ؟ +prompt : أجب عن السؤال التالي : متى امم عبد الناصر قناة السويس ؟ الجواب هو في عام +pred_answer : 1956 . +answer : 1956 + +context : جمال عبد الناصر ( 15 يناير 1918 – 28 سبتمبر 1970 ) . هو ثاني رؤساء مصر . تولى السلطة من سنة 1956 إلى وفاته . أدت سياسات عبد الناصر المحايدة خلال الحرب الباردة إلى توتر العلاقات مع القوى الغربية التي سحبت تمويلها للسد العالي ، الذي كان عبد الناصر يخطط لبنائه . رد عبد الناصر على ذلك بتأميم شركة قناة السويس سنة 1956 ، ولاقى ذلك استحسانا داخل مصر والوطن العربي . وبالتالي ، قامت بريطانيا ، وفرنسا ، وإسرائيل باحتلال سيناء لكنهم انسحبوا وسط ضغوط دولية ؛ وقد عزز ذلك مكانة عبد الناصر السياسية بشكل ملحوظ . ومنذ ذلك الحين ، نمت شعبية عبد الناصر في المنطقة بشكل كبير ، وتزايدت الدعوات إلى الوحدة العربية تحت قيادته ، وتحقق ذلك بتشكيل الجمهورية العربية المتحدة مع سوريا ( 1958 - 1961 ) . +question : متى تشكلت الجمهورية العربية المتحدة مع سوريا ؟ +prompt : أجب عن السؤال التالي : متى تشكلت الجمهورية العربية المتحدة مع سوريا ؟ الجواب هو في عام +pred_answer : 1958 ، +answer : 1918 + +context : في سنة 1962 ، بدأ عبد الناصر سلسلة من القرارات الاشتراكية والإصلاحات التحديثية في مصر . وعلى الرغم من النكسات التي تعرضت لها قضيته القومية العربية ، بحلول سنة 1963 ، وصل أنصار عبد الناصر للسلطة في عدة دول عربية . وقد شارك في الحرب الأهلية اليمنية في ذلك الوقت . قدم ناصر دستورا جديدا في سنة 1964 ، وهو العام نفسه الذي أصبح فيه رئيسا لحركة عدم الانحياز الدولية . بدأ ناصر ولايته الرئاسية الثانية في مارس 1965 بعد انتخابه بدون معارضة . وتبع ذلك هزيمة مصر من إسرائيل في حرب الأيام الستة سنة 1967 . واستقال عبد الناصر من جميع مناصبه السياسية بسبب هذه الهزيمة ، ولكنه تراجع عن استقالته بعد مظاهرات حاشدة طالبت بعودته إلى الرئاسة . بين سنتي 1967 و 1968 عين عبد الناصر نفسه رئيسا للوزراء بالإضافة إلى منصبه كرئيس للجمهورية ، وشن حرب الاستنزاف لاستعادة الأراضي المفقودة في حرب 1967 . وبدأ عملية عدم تسييس الجيش وأصدر مجموعة من الإصلاحات الليبرالية السياسية . +question : متى بدأ عبد الناصر سلسلة القرارات الاشتراكية و الاصلاحات التحديثية فى مصر ؟ +prompt : أجب عن السؤال التالي : متى بدأ عبد الناصر سلسلة القرارات الاشتراكية و الاصلاحات التحديثية فى مصر ؟ الجواب هو في عام +pred_answer : 1961 . +answer : 1962 + +context : في سنة 1962 ، بدأ عبد الناصر سلسلة من القرارات الاشتراكية والإصلاحات التحديثية في مصر . وعلى الرغم من النكسات التي تعرضت لها قضيته القومية العربية ، بحلول سنة 1963 ، وصل أنصار عبد الناصر للسلطة في عدة دول عربية . وقد شارك في الحرب الأهلية اليمنية في ذلك الوقت . قدم ناصر دستورا جديدا في سنة 1964 ، وهو العام نفسه الذي أصبح فيه رئيسا لحركة عدم الانحياز الدولية . بدأ ناصر ولايته الرئاسية الثانية في مارس 1965 بعد انتخابه بدون معارضة . وتبع ذلك هزيمة مصر من إسرائيل في حرب الأيام الستة سنة 1967 . واستقال عبد الناصر من جميع مناصبه السياسية بسبب هذه الهزيمة ، ولكنه تراجع عن استقالته بعد مظاهرات حاشدة طالبت بعودته إلى الرئاسة . بين سنتي 1967 و 1968 عين عبد الناصر نفسه رئيسا للوزراء بالإضافة إلى منصبه كرئيس للجمهورية ، وشن حرب الاستنزاف لاستعادة الأراضي المفقودة في حرب 1967 . وبدأ عملية عدم تسييس الجيش وأصدر مجموعة من الإصلاحات الليبرالية السياسية . +question : متى اصبح رئيسا لحركة عدم الانحياز الدولية ؟ +prompt : أجب عن السؤال التالي : متى اصبح رئيسا لحركة عدم الانحياز الدولية ؟ الجواب هو في عام +pred_answer : 1961 ، +answer : 1964 + +context : في سنة 1962 ، بدأ عبد الناصر سلسلة من القرارات الاشتراكية والإصلاحات التحديثية في مصر . وعلى الرغم من النكسات التي تعرضت لها قضيته القومية العربية ، بحلول سنة 1963 ، وصل أنصار عبد الناصر للسلطة في عدة دول عربية . وقد شارك في الحرب الأهلية اليمنية في ذلك الوقت . قدم ناصر دستورا جديدا في سنة 1964 ، وهو العام نفسه الذي أصبح فيه رئيسا لحركة عدم الانحياز الدولية . بدأ ناصر ولايته الرئاسية الثانية في مارس 1965 بعد انتخابه بدون معارضة . وتبع ذلك هزيمة مصر من إسرائيل في حرب الأيام الستة سنة 1967 . واستقال عبد الناصر من جميع مناصبه السياسية بسبب هذه الهزيمة ، ولكنه تراجع عن استقالته بعد مظاهرات حاشدة طالبت بعودته إلى الرئاسة . بين سنتي 1967 و 1968 عين عبد الناصر نفسه رئيسا للوزراء بالإضافة إلى منصبه كرئيس للجمهورية ، وشن حرب الاستنزاف لاستعادة الأراضي المفقودة في حرب 1967 . وبدأ عملية عدم تسييس الجيش وأصدر مجموعة من الإصلاحات الليبرالية السياسية . +question : متى بدأ فترة رئاسته الثانية ؟ +prompt : أجب عن السؤال التالي : متى بدأ فترة رئاسته الثانية ؟ الجواب هو +pred_answer : : في +answer : مارس 1965 + +context : بعد اختتام قمة جامعة الدول العربية سنة 1970 ، توفي عبد الناصر إثر تعرضه لنوبة قلبية . وشيع جنازته في القاهرة أكثر من خمسة ملايين شخص . يعتبره مؤيدوه في الوقت الحاضر رمزا للكرامة والوحدة العربية والجهود المناهضة للإمبريالية ؛ بينما يصفه معارضوه بالمستبد ، وينتقدون انتهاكات حكومته لحقوق الإنسان . تعرض عبد الناصر لعدة محاولات اغتيال في حياته ، كان من بينها محاولة اغتيال نسبت لأحد أعضاء جماعة الإخوان المسلمين ، وقد نفت الجماعة علاقتها بالحادثة . أمر ناصر بعد ذلك بحملة أمنية ضد جماعة الإخوان المسلمين . يصف المؤرخون ناصر باعتباره واحدا من الشخصيات السياسية البارزة في التاريخ الحديث للشرق الأوسط في القرن العشرين . +question : متى توفى عبد الناصر ؟ +prompt : أجب عن السؤال التالي : متى توفى عبد الناصر ؟ الجواب هو في عام +pred_answer : 1970 ، +answer : 1970 + +context : بعد اختتام قمة جامعة الدول العربية سنة 1970 ، توفي عبد الناصر إثر تعرضه لنوبة قلبية . وشيع جنازته في القاهرة أكثر من خمسة ملايين شخص . يعتبره مؤيدوه في الوقت الحاضر رمزا للكرامة والوحدة العربية والجهود المناهضة للإمبريالية ؛ بينما يصفه معارضوه بالمستبد ، وينتقدون انتهاكات حكومته لحقوق الإنسان . تعرض عبد الناصر لعدة محاولات اغتيال في حياته ، كان من بينها محاولة اغتيال نسبت لأحد أعضاء جماعة الإخوان المسلمين ، وقد نفت الجماعة علاقتها بالحادثة . أمر ناصر بعد ذلك بحملة أمنية ضد جماعة الإخوان المسلمين . يصف المؤرخون ناصر باعتباره واحدا من الشخصيات السياسية البارزة في التاريخ الحديث للشرق الأوسط في القرن العشرين . +question : كم عدد المشيعين لجنازة عبد الناصر ؟ +prompt : أجب عن السؤال التالي : كم عدد المشيعين لجنازة عبد الناصر ؟ الجواب هو +pred_answer : أن جنازة جمال عبد الناصر كانت +answer : أكثر من خمسة ملايين شخص + +context : بعد اختتام قمة جامعة الدول العربية سنة 1970 ، توفي عبد الناصر إثر تعرضه لنوبة قلبية . وشيع جنازته في القاهرة أكثر من خمسة ملايين شخص . يعتبره مؤيدوه في الوقت الحاضر رمزا للكرامة والوحدة العربية والجهود المناهضة للإمبريالية ؛ بينما يصفه معارضوه بالمستبد ، وينتقدون انتهاكات حكومته لحقوق الإنسان . تعرض عبد الناصر لعدة محاولات اغتيال في حياته ، كان من بينها محاولة اغتيال نسبت لأحد أعضاء جماعة الإخوان المسلمين ، وقد نفت الجماعة علاقتها بالحادثة . أمر ناصر بعد ذلك بحملة أمنية ضد جماعة الإخوان المسلمين . يصف المؤرخون ناصر باعتباره واحدا من الشخصيات السياسية البارزة في التاريخ الحديث للشرق الأوسط في القرن العشرين . +question : بماذا يصف المؤرخون عبد الناصر ؟ +prompt : أجب عن السؤال التالي : بماذا يصف المؤرخون عبد الناصر ؟ الجواب هو +pred_answer : أنه كان قائدا عظيما ، استطاع أن يقود مصر إلى النصر في حرب أكتوبر 1973 . +answer : باعتباره واحدا من الشخصيات السياسية البارزة في التاريخ الحديث للشرق الأوسط في القرن العشرين + +context : الكويت أو ( رسميا : دولة الكويت ) هي دولة عربية تقع في الشرق الأوسط من جنوب غرب القارة الآسيوية ، وتحديدا في الركن الشمالي الغربي للخليج العربي الذي يحدها من الشرق ، حيث يحدها من الشمال والغرب جمهورية العراق ومن الجنوب المملكة العربية السعودية ، وتبلغ مساحتها الإجمالية 17 ، 818 كيلومتر مربع ، ويبلغ عدد السكان طبقا لأخر إحصاء 4 , 675 , 710 ملايين نسمة . ظلت إمارة الكويت مستقلة عن الحكم العثماني ، واستمر هذا الوضع قائما حتى عام 1870 حينما منح والي بغداد مدحت باشا حاكم الكويت لقب قائم مقام وادمجت إمارة الكويت إداريا بالدولة العثمانية لتصبح قضاءا تابعا لولاية بغداد وذلك ضمن سلسلة واسعة من الاصلاحات الإدارية ادمجت على أثرها قطر والأحساء ونجد بولاية البصرة التي اقتطعت لاحقا من ولاية بغداد ، وعلى الرغم من تلك القرارات التنظيمية لم يتغير شيء على ارض الواقع في العلاقات العثمانية الكويتية فقد كان لقب قائم مقام الذي حمله حكام الكويت ينظر له كمنصب شرفي وتعهدت الدولة العثمانية بستمرار الكويت ذاتية الحكم . ولم تتواجد أي إدارة مدنية عثمانية داخل الكويت ولا أي حامية عسكرية عثمانية كما لم يخضع الكويتيين للتجنيد في خدمة الجيش العثماني ولم يدفعوا أي ضربية مالية للأتراك . ظل هذا الوضع السياسي قائما حتى عهد الشيخ مبارك الصباح ( 1896 - 1915 ) والتي أصبحت الكويت في عهده تحت الحماية البريطانية وذلك بعد توقيع اتفاقية الحماية مع الإمبراطورية البريطانية في 23 يناير عام 1899 ، استغل الكويتيون هذه المعاهدة في بناء وتدعيم وإرساء قواعد الدولة الحديثة ، حيث وفرت تلك المعاهدة للكويت الاستقرار السياسي الخارجي إلى حد كبير . لكن في 19 يونيو سنة 1961 ألغيت معاهدة الحماية البريطانية ، وتم إعلان استقلال دولة الكويت ، وفي 11 نوفمبر سنة 1962 أصدر الدستور . +question : اين تقع الكويت ؟ +prompt : أجب عن السؤال التالي : اين تقع الكويت ؟ الجواب هو +pred_answer : انها تقع في الجزء الشمالي الغربي من شبه +answer : الشرق الأوسط من جنوب غرب القارة الآسيوية + +context : الكويت أو ( رسميا : دولة الكويت ) هي دولة عربية تقع في الشرق الأوسط من جنوب غرب القارة الآسيوية ، وتحديدا في الركن الشمالي الغربي للخليج العربي الذي يحدها من الشرق ، حيث يحدها من الشمال والغرب جمهورية العراق ومن الجنوب المملكة العربية السعودية ، وتبلغ مساحتها الإجمالية 17 ، 818 كيلومتر مربع ، ويبلغ عدد السكان طبقا لأخر إحصاء 4 , 675 , 710 ملايين نسمة . ظلت إمارة الكويت مستقلة عن الحكم العثماني ، واستمر هذا الوضع قائما حتى عام 1870 حينما منح والي بغداد مدحت باشا حاكم الكويت لقب قائم مقام وادمجت إمارة الكويت إداريا بالدولة العثمانية لتصبح قضاءا تابعا لولاية بغداد وذلك ضمن سلسلة واسعة من الاصلاحات الإدارية ادمجت على أثرها قطر والأحساء ونجد بولاية البصرة التي اقتطعت لاحقا من ولاية بغداد ، وعلى الرغم من تلك القرارات التنظيمية لم يتغير شيء على ارض الواقع في العلاقات العثمانية الكويتية فقد كان لقب قائم مقام الذي حمله حكام الكويت ينظر له كمنصب شرفي وتعهدت الدولة العثمانية بستمرار الكويت ذاتية الحكم . ولم تتواجد أي إدارة مدنية عثمانية داخل الكويت ولا أي حامية عسكرية عثمانية كما لم يخضع الكويتيين للتجنيد في خدمة الجيش العثماني ولم يدفعوا أي ضربية مالية للأتراك . ظل هذا الوضع السياسي قائما حتى عهد الشيخ مبارك الصباح ( 1896 - 1915 ) والتي أصبحت الكويت في عهده تحت الحماية البريطانية وذلك بعد توقيع اتفاقية الحماية مع الإمبراطورية البريطانية في 23 يناير عام 1899 ، استغل الكويتيون هذه المعاهدة في بناء وتدعيم وإرساء قواعد الدولة الحديثة ، حيث وفرت تلك المعاهدة للكويت الاستقرار السياسي الخارجي إلى حد كبير . لكن في 19 يونيو سنة 1961 ألغيت معاهدة الحماية البريطانية ، وتم إعلان استقلال دولة الكويت ، وفي 11 نوفمبر سنة 1962 أصدر الدستور . +question : كم تبلغ مساحة الكويت ؟ +prompt : أجب عن السؤال التالي : كم تبلغ مساحة الكويت ؟ الجواب هو +pred_answer : أن المساحة الإجمالية للكويت هي +answer : 17 818 كيلومتر مربع + +context : الكويت أو ( رسميا : دولة الكويت ) هي دولة عربية تقع في الشرق الأوسط من جنوب غرب القارة الآسيوية ، وتحديدا في الركن الشمالي الغربي للخليج العربي الذي يحدها من الشرق ، حيث يحدها من الشمال والغرب جمهورية العراق ومن الجنوب المملكة العربية السعودية ، وتبلغ مساحتها الإجمالية 17 ، 818 كيلومتر مربع ، ويبلغ عدد السكان طبقا لأخر إحصاء 4 , 675 , 710 ملايين نسمة . ظلت إمارة الكويت مستقلة عن الحكم العثماني ، واستمر هذا الوضع قائما حتى عام 1870 حينما منح والي بغداد مدحت باشا حاكم الكويت لقب قائم مقام وادمجت إمارة الكويت إداريا بالدولة العثمانية لتصبح قضاءا تابعا لولاية بغداد وذلك ضمن سلسلة واسعة من الاصلاحات الإدارية ادمجت على أثرها قطر والأحساء ونجد بولاية البصرة التي اقتطعت لاحقا من ولاية بغداد ، وعلى الرغم من تلك القرارات التنظيمية لم يتغير شيء على ارض الواقع في العلاقات العثمانية الكويتية فقد كان لقب قائم مقام الذي حمله حكام الكويت ينظر له كمنصب شرفي وتعهدت الدولة العثمانية بستمرار الكويت ذاتية الحكم . ولم تتواجد أي إدارة مدنية عثمانية داخل الكويت ولا أي حامية عسكرية عثمانية كما لم يخضع الكويتيين للتجنيد في خدمة الجيش العثماني ولم يدفعوا أي ضربية مالية للأتراك . ظل هذا الوضع السياسي قائما حتى عهد الشيخ مبارك الصباح ( 1896 - 1915 ) والتي أصبحت الكويت في عهده تحت الحماية البريطانية وذلك بعد توقيع اتفاقية الحماية مع الإمبراطورية البريطانية في 23 يناير عام 1899 ، استغل الكويتيون هذه المعاهدة في بناء وتدعيم وإرساء قواعد الدولة الحديثة ، حيث وفرت تلك المعاهدة للكويت الاستقرار السياسي الخارجي إلى حد كبير . لكن في 19 يونيو سنة 1961 ألغيت معاهدة الحماية البريطانية ، وتم إعلان استقلال دولة الكويت ، وفي 11 نوفمبر سنة 1962 أصدر الدستور . +question : كم يبلغ عدد سكان الكويت ؟ +prompt : أجب عن السؤال التالي : كم يبلغ عدد سكان الكويت ؟ الجواب هو +pred_answer : مليون ونصف المليون نسمة تقريبا ، أي +answer : 4 675 710 ملايين نسمة + +context : سياسيا ، تعد الكويت إمارة وراثية يحكمها أمير من ذرية الشيخ مبارك الصباح ، ونظام الحكم فيها هو ملكي دستوري ، وتتميز بنظام برلماني متمثلا بمجلس الأمة الذي يمثل السلطة التشريعية . وبينت المادة السادسة من الدستور أن نظام الحكم في الكويت ديموقراطي ، السيادة فيه للأمة ، التي هي مصدر السلطات جميعا . مدينة الكويت هي العاصمة السياسية والاقتصادية لدولة الكويت ، ففيها مقر الحكم والحكومة ومراكز البنوك الرئيسية ، وسوق الكويت للأوراق المالية . والكويت عضو مؤسس في مجلس التعاون لدول الخليج العربية ، وفي منظمة الدول المصدرة للبترول - أوبك ، وعضو في منظمة التعاون الإسلامي ، عضو في جامعة الدول العربية منذ عام 1961 ، وعضو في الأمم المتحدة منذ عام 1963 . تعد الكويت حليف رئيسي خارج الناتو للولايات المتحدة . +question : ما هو نظام الحكم فى الكويت ؟ +prompt : أجب عن السؤال التالي : ما هو نظام الحكم فى الكويت ؟ الجواب هو +pred_answer : أن دستور دولة الكويت +answer : ملكي دستوري + +context : سياسيا ، تعد الكويت إمارة وراثية يحكمها أمير من ذرية الشيخ مبارك الصباح ، ونظام الحكم فيها هو ملكي دستوري ، وتتميز بنظام برلماني متمثلا بمجلس الأمة الذي يمثل السلطة التشريعية . وبينت المادة السادسة من الدستور أن نظام الحكم في الكويت ديموقراطي ، السيادة فيه للأمة ، التي هي مصدر السلطات جميعا . مدينة الكويت هي العاصمة السياسية والاقتصادية لدولة الكويت ، ففيها مقر الحكم والحكومة ومراكز البنوك الرئيسية ، وسوق الكويت للأوراق المالية . والكويت عضو مؤسس في مجلس التعاون لدول الخليج العربية ، وفي منظمة الدول المصدرة للبترول - أوبك ، وعضو في منظمة التعاون الإسلامي ، عضو في جامعة الدول العربية منذ عام 1961 ، وعضو في الأمم المتحدة منذ عام 1963 . تعد الكويت حليف رئيسي خارج الناتو للولايات المتحدة . +question : ما هى عاصمة دولة الكويت ؟ +prompt : أجب عن السؤال التالي : ما هى عاصمة دولة الكويت ؟ الجواب هو +pred_answer : مدينة الكويت +answer : مدينة الكويت + +context : سياسيا ، تعد الكويت إمارة وراثية يحكمها أمير من ذرية الشيخ مبارك الصباح ، ونظام الحكم فيها هو ملكي دستوري ، وتتميز بنظام برلماني متمثلا بمجلس الأمة الذي يمثل السلطة التشريعية . وبينت المادة السادسة من الدستور أن نظام الحكم في الكويت ديموقراطي ، السيادة فيه للأمة ، التي هي مصدر السلطات جميعا . مدينة الكويت هي العاصمة السياسية والاقتصادية لدولة الكويت ، ففيها مقر الحكم والحكومة ومراكز البنوك الرئيسية ، وسوق الكويت للأوراق المالية . والكويت عضو مؤسس في مجلس التعاون لدول الخليج العربية ، وفي منظمة الدول المصدرة للبترول - أوبك ، وعضو في منظمة التعاون الإسلامي ، عضو في جامعة الدول العربية منذ عام 1961 ، وعضو في الأمم المتحدة منذ عام 1963 . تعد الكويت حليف رئيسي خارج الناتو للولايات المتحدة . +question : متى اصبحت الكويت عضوا فى الامم المتحدة ؟ +prompt : أجب عن السؤال التالي : متى اصبحت الكويت عضوا فى الامم المتحدة ؟ الجواب هو +pred_answer : في عام +answer : عام 1963 + +context : بدأت الحقبة النفطية بالكويت عام 1936 حينما اكتشف أول بئر نفط في منطقة بحرة شمال الكويت ، إلا أن النفط المكتشف لم يكن بكميات تجارية حتى اكتشف حقل برقان والذي توقف العمل به 1942 بسبب ظروف الحرب العالمية الثانية ؛ ومع انتهاء الحرب عادت اعمال الحفر بالحقل لتصدر أول شحنة نفط في 30 يونيو سنة 1946 . من الناحية الاقتصادية ، تعد الكويت أحد أهم منتجي ومصدري النفط في العالم ، فتمتلك خامس أكبر احتياطي نفطي في العالم ، حيث يتواجد في أرضها 10 % من احتياطي النفط بالعالم ، ويمثل النفط والمنتجات النفطية ما يقرب من 87 % من عائدات التصدير و 80 % من الإيرادات الحكومية . تعد الكويت من البلدان ذات الدخل المرتفع بحسب تصنيف البنك الدولي . تعود أسباب تلك القوة الاقتصادية إلى ضخامة الناتج المحلي الإجمالي ( تعادل القدرة الشرائية ) 167 . 9 مليار دولار ، ونصيب الفرد المرتفع من الناتج المحلي الإجمالي الذي بلغ قرابة 45 , 455 دولار أمريكي في عام 2011 ، محتلة بذلك المركز الثامن عالميا ، والثاني عربيا من حيث الناتج المحلي الإجمالي . +question : متى بدأت الحقبة البترولية فى الكويت ؟ +prompt : أجب عن السؤال التالي : متى بدأت الحقبة البترولية فى الكويت ؟ الجواب هو +pred_answer : أن النفط +answer : عام 1936 + +context : بدأت الحقبة النفطية بالكويت عام 1936 حينما اكتشف أول بئر نفط في منطقة بحرة شمال الكويت ، إلا أن النفط المكتشف لم يكن بكميات تجارية حتى اكتشف حقل برقان والذي توقف العمل به 1942 بسبب ظروف الحرب العالمية الثانية ؛ ومع انتهاء الحرب عادت اعمال الحفر بالحقل لتصدر أول شحنة نفط في 30 يونيو سنة 1946 . من الناحية الاقتصادية ، تعد الكويت أحد أهم منتجي ومصدري النفط في العالم ، فتمتلك خامس أكبر احتياطي نفطي في العالم ، حيث يتواجد في أرضها 10 % من احتياطي النفط بالعالم ، ويمثل النفط والمنتجات النفطية ما يقرب من 87 % من عائدات التصدير و 80 % من الإيرادات الحكومية . تعد الكويت من البلدان ذات الدخل المرتفع بحسب تصنيف البنك الدولي . تعود أسباب تلك القوة الاقتصادية إلى ضخامة الناتج المحلي الإجمالي ( تعادل القدرة الشرائية ) 167 . 9 مليار دولار ، ونصيب الفرد المرتفع من الناتج المحلي الإجمالي الذي بلغ قرابة 45 , 455 دولار أمريكي في عام 2011 ، محتلة بذلك المركز الثامن عالميا ، والثاني عربيا من حيث الناتج المحلي الإجمالي . +question : متى بدأ تصدير البترول ؟ +prompt : أجب عن السؤال التالي : متى بدأ تصدير البترول ؟ الجواب هو +pred_answer : أن أول بئر بترول +answer : 30 يونيو سنة 1946 + +context : بدأت الحقبة النفطية بالكويت عام 1936 حينما اكتشف أول بئر نفط في منطقة بحرة شمال الكويت ، إلا أن النفط المكتشف لم يكن بكميات تجارية حتى اكتشف حقل برقان والذي توقف العمل به 1942 بسبب ظروف الحرب العالمية الثانية ؛ ومع انتهاء الحرب عادت اعمال الحفر بالحقل لتصدر أول شحنة نفط في 30 يونيو سنة 1946 . من الناحية الاقتصادية ، تعد الكويت أحد أهم منتجي ومصدري النفط في العالم ، فتمتلك خامس أكبر احتياطي نفطي في العالم ، حيث يتواجد في أرضها 10 % من احتياطي النفط بالعالم ، ويمثل النفط والمنتجات النفطية ما يقرب من 87 % من عائدات التصدير و 80 % من الإيرادات الحكومية . تعد الكويت من البلدان ذات الدخل المرتفع بحسب تصنيف البنك الدولي . تعود أسباب تلك القوة الاقتصادية إلى ضخامة الناتج المحلي الإجمالي ( تعادل القدرة الشرائية ) 167 . 9 مليار دولار ، ونصيب الفرد المرتفع من الناتج المحلي الإجمالي الذي بلغ قرابة 45 , 455 دولار أمريكي في عام 2011 ، محتلة بذلك المركز الثامن عالميا ، والثاني عربيا من حيث الناتج المحلي الإجمالي . +question : كم يبلغ الناتج المحلى للكويت عام 2011 ؟ +prompt : أجب عن السؤال التالي : كم يبلغ الناتج المحلى للكويت عام 2011 ؟ الجواب هو +pred_answer : 2 . 8 مليار دينار كويتي ، +answer : قرابة 45 455 دولار أمريكي + +context : زين الدين يزيد زيدان ( بالفرنسية : Zin dine Zidane ) ، ( مواليد 23 يونيو 1972 في مارسيليا ) ، هو لاعب كرة قدم فرنسي من أصل جزائري ، ينحدر من مدينة بجاية ب منطقة القبائل ب الجزائر ، منذ اعتزاله للعب أصبح يعمل مدربا كرة قدم لحساب نادي ريال مدريد كمدرب ومدير فني للفريق قبل أن يعلن استقالته رسميا . ولد في مارسيليا لأبوين جزائريين ، يعد زيدان واحد من الأساطير في تاريخ كرة القدم بشهادة العديد من الخبراء ، أحرز مع منتخب بلاده كأس العالم وأتبعه بكأس أمم أوروبا ثم كأس القارات ، حصل على جائزة أفضل لاعب في العالم 3 مرات ، وعلى مستوى الأندية حقق مع نادي ريال مدريد دوري أبطال أوروبا مرة عام 2002 وكأس العالم للأندية 2002 وكأس السوبر الأوروبية . تم التصويت له كأفضل لاعب في الخمسين سنة الماضية في القارة الأوروبية وقد اختاره بيليه ضمن قائمة أفضل 125 لاعب حي في مارس 2004 . +question : متى ولد زين الدين زيدان ؟ +prompt : أجب عن السؤال التالي : متى ولد زين الدين زيدان ؟ الجواب هو +pred_answer : في عام 1972 +answer : 23 يونيو 1972 + +context : زين الدين يزيد زيدان ( بالفرنسية : Zin dine Zidane ) ، ( مواليد 23 يونيو 1972 في مارسيليا ) ، هو لاعب كرة قدم فرنسي من أصل جزائري ، ينحدر من مدينة بجاية ب منطقة القبائل ب الجزائر ، منذ اعتزاله للعب أصبح يعمل مدربا كرة قدم لحساب نادي ريال مدريد كمدرب ومدير فني للفريق قبل أن يعلن استقالته رسميا . ولد في مارسيليا لأبوين جزائريين ، يعد زيدان واحد من الأساطير في تاريخ كرة القدم بشهادة العديد من الخبراء ، أحرز مع منتخب بلاده كأس العالم وأتبعه بكأس أمم أوروبا ثم كأس القارات ، حصل على جائزة أفضل لاعب في العالم 3 مرات ، وعلى مستوى الأندية حقق مع نادي ريال مدريد دوري أبطال أوروبا مرة عام 2002 وكأس العالم للأندية 2002 وكأس السوبر الأوروبية . تم التصويت له كأفضل لاعب في الخمسين سنة الماضية في القارة الأوروبية وقد اختاره بيليه ضمن قائمة أفضل 125 لاعب حي في مارس 2004 . +question : من هو زين الدين زيدان ؟ +prompt : أجب عن السؤال التالي : من هو زين الدين زيدان ؟ الجواب هو +pred_answer : لاعب كرة قدم فرنسي ، ولد في +answer : لاعب كرة قدم فرنسي من أصل جزائري + +context : زين الدين يزيد زيدان ( بالفرنسية : Zin dine Zidane ) ، ( مواليد 23 يونيو 1972 في مارسيليا ) ، هو لاعب كرة قدم فرنسي من أصل جزائري ، ينحدر من مدينة بجاية ب منطقة القبائل ب الجزائر ، منذ اعتزاله للعب أصبح يعمل مدربا كرة قدم لحساب نادي ريال مدريد كمدرب ومدير فني للفريق قبل أن يعلن استقالته رسميا . ولد في مارسيليا لأبوين جزائريين ، يعد زيدان واحد من الأساطير في تاريخ كرة القدم بشهادة العديد من الخبراء ، أحرز مع منتخب بلاده كأس العالم وأتبعه بكأس أمم أوروبا ثم كأس القارات ، حصل على جائزة أفضل لاعب في العالم 3 مرات ، وعلى مستوى الأندية حقق مع نادي ريال مدريد دوري أبطال أوروبا مرة عام 2002 وكأس العالم للأندية 2002 وكأس السوبر الأوروبية . تم التصويت له كأفضل لاعب في الخمسين سنة الماضية في القارة الأوروبية وقد اختاره بيليه ضمن قائمة أفضل 125 لاعب حي في مارس 2004 . +question : كم مرة حصل على جائزة احسن لاعب فى العالم ؟ +prompt : أجب عن السؤال التالي : كم مرة حصل على جائزة احسن لاعب فى العالم ؟ الجواب هو +pred_answer : خمس مرات +answer : 3 مرات + +context : في يوم 4 يناير عام 2016 ، أعلن نادي ريال مدريد عن إقالة رافاييل بينيتيز وتعيين زيدان كمدرب جديد . وكانت أول مباراة تحت إشرافة بعد خمسة أيام من استلامه للمنصب ، وقد فاز على ديبورتيفو لاكورونيا بنتيجة 5 – 0 . واستطاع كمدرب للفريق الملكي تحقيق 9 بطولات في عامين ونصف وأهمها دوري أبطال أوروبا ثلاث مرات متتالية في أعوام 2016 و 2017 و 2018 والدوري الإسباني 2017 . +question : متى تولى زيدان تدريب نادى ريال مدريد ؟ +prompt : أجب عن السؤال التالي : متى تولى زيدان تدريب نادى ريال مدريد ؟ الجواب هو +pred_answer : فى عام 2009 ، +answer : 4 يناير عام 2016 + +context : في يوم 4 يناير عام 2016 ، أعلن نادي ريال مدريد عن إقالة رافاييل بينيتيز وتعيين زيدان كمدرب جديد . وكانت أول مباراة تحت إشرافة بعد خمسة أيام من استلامه للمنصب ، وقد فاز على ديبورتيفو لاكورونيا بنتيجة 5 – 0 . واستطاع كمدرب للفريق الملكي تحقيق 9 بطولات في عامين ونصف وأهمها دوري أبطال أوروبا ثلاث مرات متتالية في أعوام 2016 و 2017 و 2018 والدوري الإسباني 2017 . +question : كم عدد البطولات اللتى حققها زيدان مع النادى الملكى ؟ +prompt : أجب عن السؤال التالي : كم عدد البطولات اللتى حققها زيدان مع النادى الملكى ؟ الجواب هو +pred_answer : بطولة واحدة فقط وهى كأس +answer : 9 بطولات في عامين ونصف + +context : في يوم 4 يناير عام 2016 ، أعلن نادي ريال مدريد عن إقالة رافاييل بينيتيز وتعيين زيدان كمدرب جديد . وكانت أول مباراة تحت إشرافة بعد خمسة أيام من استلامه للمنصب ، وقد فاز على ديبورتيفو لاكورونيا بنتيجة 5 – 0 . واستطاع كمدرب للفريق الملكي تحقيق 9 بطولات في عامين ونصف وأهمها دوري أبطال أوروبا ثلاث مرات متتالية في أعوام 2016 و 2017 و 2018 والدوري الإسباني 2017 . +question : ما اهم البطولات اللتى حققها مع النادى الملكى ؟ +prompt : أجب عن السؤال التالي : ما اهم البطولات اللتى حققها مع النادى الملكى ؟ الجواب هو +pred_answer : بطولة الدورى الاسبانى ثلاث مرات +answer : دوري أبطال أوروبا ثلاث مرات متتالية + +context : هاجر والدا زين الدين زيدان وهما إسماعيل ومليكة واللذان ينتميان إلى منطقة القبائل في شمال الجزائر في عام 1953 م قبل بدء الحرب الجزائرية . وبعدها استقرا في المناطق الشمالية لمدينة بابري وسانت دينيس ، وفي منتصف 1960 م انتقلا إلى الضاحية الشمالية من مارسيليا . في 23 يونيو عام 1972 م ، ولد زين الدين زيدان والذي كان أصغر أشقائه الخمسة . +question : من هما والى زيدان ؟ +prompt : أجب عن السؤال التالي : من هما والى زيدان ؟ الجواب هو +pred_answer : ما يلي : 1 +answer : إسماعيل ومليكة + +context : هاجر والدا زين الدين زيدان وهما إسماعيل ومليكة واللذان ينتميان إلى منطقة القبائل في شمال الجزائر في عام 1953 م قبل بدء الحرب الجزائرية . وبعدها استقرا في المناطق الشمالية لمدينة بابري وسانت دينيس ، وفي منتصف 1960 م انتقلا إلى الضاحية الشمالية من مارسيليا . في 23 يونيو عام 1972 م ، ولد زين الدين زيدان والذي كان أصغر أشقائه الخمسة . +question : متى هاجر والدى زيدان الى فرنسا ؟ +prompt : أجب عن السؤال التالي : متى هاجر والدى زيدان الى فرنسا ؟ الجواب هو في عام +pred_answer : 1957 ، +answer : 1953 + +context : هاجر والدا زين الدين زيدان وهما إسماعيل ومليكة واللذان ينتميان إلى منطقة القبائل في شمال الجزائر في عام 1953 م قبل بدء الحرب الجزائرية . وبعدها استقرا في المناطق الشمالية لمدينة بابري وسانت دينيس ، وفي منتصف 1960 م انتقلا إلى الضاحية الشمالية من مارسيليا . في 23 يونيو عام 1972 م ، ولد زين الدين زيدان والذي كان أصغر أشقائه الخمسة . +question : متى استقر والى زيدان فى مارسيليا ؟ +prompt : أجب عن السؤال التالي : متى استقر والى زيدان فى مارسيليا ؟ الجواب هو +pred_answer : عندما كان زيدان +answer : وفي منتصف 1960 + +context : كندا ( بالإنجليزية والفرنسية : Canada ) ، رسميا اتحاد كندا ، هي دولة في أمريكا الشمالية تتألف من 10 مقاطعات وثلاثة أقاليم . أراضي كندا مأهولة منذ آلاف السنين من قبل مجموعات مختلفة من السكان الأصليين . مع حلول أواخر القرن الخامس عشر بدأت الحملات البريطانية والفرنسية استكشاف المنطقة ومن ثم استوطنتها على طول ساحل المحيط الأطلسي . تنازلت فرنسا عن ما يقرب من جميع مستعمراتها في أمريكا الشمالية في عام 1763 بعد حرب السنوات السبع . في عام 1867 ، مع اتحاد ثلاثة مستعمرات بريطانية في أمريكا الشمالية عبر كونفدرالية تشكلت كندا باعتبارها كيانا فدراليا ذا سيادة يضم أربع مقاطعات . بدأ ذلك عملية اتسعت فيها مساحة كندا وتوسع حكمها الذاتي عن المملكة المتحدة . تجلت هذه الاستقلالية من خلال تشريع وستمنستر عام 1931 وبلغت ذروتها في صورة قانون كندا عام 1982 والذي قطع الاعتماد القانوني لكندا على البرلمان البريطاني . +question : اين نقع كندا ؟ +prompt : أجب عن السؤال التالي : اين نقع كندا ؟ الجواب هو +pred_answer : في مكان ما بين +answer : أمريكا الشمالية + +context : كندا ( بالإنجليزية والفرنسية : Canada ) ، رسميا اتحاد كندا ، هي دولة في أمريكا الشمالية تتألف من 10 مقاطعات وثلاثة أقاليم . أراضي كندا مأهولة منذ آلاف السنين من قبل مجموعات مختلفة من السكان الأصليين . مع حلول أواخر القرن الخامس عشر بدأت الحملات البريطانية والفرنسية استكشاف المنطقة ومن ثم استوطنتها على طول ساحل المحيط الأطلسي . تنازلت فرنسا عن ما يقرب من جميع مستعمراتها في أمريكا الشمالية في عام 1763 بعد حرب السنوات السبع . في عام 1867 ، مع اتحاد ثلاثة مستعمرات بريطانية في أمريكا الشمالية عبر كونفدرالية تشكلت كندا باعتبارها كيانا فدراليا ذا سيادة يضم أربع مقاطعات . بدأ ذلك عملية اتسعت فيها مساحة كندا وتوسع حكمها الذاتي عن المملكة المتحدة . تجلت هذه الاستقلالية من خلال تشريع وستمنستر عام 1931 وبلغت ذروتها في صورة قانون كندا عام 1982 والذي قطع الاعتماد القانوني لكندا على البرلمان البريطاني . +question : مما تتالف كندا ؟ +prompt : أجب عن السؤال التالي : مما تتالف كندا ؟ الجواب هو +pred_answer : أنها تتكون من سبع مقاطعات +answer : من 10 مقاطعات وثلاثة أقاليم + +context : كندا ( بالإنجليزية والفرنسية : Canada ) ، رسميا اتحاد كندا ، هي دولة في أمريكا الشمالية تتألف من 10 مقاطعات وثلاثة أقاليم . أراضي كندا مأهولة منذ آلاف السنين من قبل مجموعات مختلفة من السكان الأصليين . مع حلول أواخر القرن الخامس عشر بدأت الحملات البريطانية والفرنسية استكشاف المنطقة ومن ثم استوطنتها على طول ساحل المحيط الأطلسي . تنازلت فرنسا عن ما يقرب من جميع مستعمراتها في أمريكا الشمالية في عام 1763 بعد حرب السنوات السبع . في عام 1867 ، مع اتحاد ثلاثة مستعمرات بريطانية في أمريكا الشمالية عبر كونفدرالية تشكلت كندا باعتبارها كيانا فدراليا ذا سيادة يضم أربع مقاطعات . بدأ ذلك عملية اتسعت فيها مساحة كندا وتوسع حكمها الذاتي عن المملكة المتحدة . تجلت هذه الاستقلالية من خلال تشريع وستمنستر عام 1931 وبلغت ذروتها في صورة قانون كندا عام 1982 والذي قطع الاعتماد القانوني لكندا على البرلمان البريطاني . +question : متى تم قطع الاعتماد القانونى لكندا عن البرلمان البريطانى ؟ +prompt : أجب عن السؤال التالي : متى تم قطع الاعتماد القانونى لكندا عن البرلمان البريطانى ؟ الجواب هو +pred_answer : فى عام +answer : عام 1982 + +context : كندا دولة فيدرالية يحكمها نظام ديمقراطي تمثيلي وملكية دستورية حيث الملكة إليزابيث الثانية قائدة للدولة . الأمة الكندية أمة ثنائية اللغة حيث الإنكليزية والفرنسية لغتان رسميتان على المستوى الاتحادي . تعد كندا واحدة من أكثر دول العالم تطورا ، حيث تمتلك اقتصادا متنوعا وتعتمد على مواردها الطبيعية الوفيرة ، وعلى التجارة وبخاصة مع الولايات المتحدة اللتان تربطهما علاقة طويلة ومعقدة . كندا عضو في مجموعة الدول الصناعية السبع ومجموعة الثماني ومجموعة العشرين وحلف شمال الأطلسي ومنظمة التعاون والتنمية الاقتصادية ومنظمة التجارة العالمية ودول الكومنولث والفرنكوفونية ومنظمة الدول الأمريكية والإبيك والأمم المتحدة . تمتلك كندا واحدا من أعلى مستويات المعيشة في العالم حيث مؤشر التنمية البشرية يضعها في المرتبة الثامنة عالميا . +question : ما هو نظام الحكم فى كندا ؟ +prompt : أجب عن السؤال التالي : ما هو نظام الحكم فى كندا ؟ الجواب هو +pred_answer : أن كندا دولة اتحادية تتكون من ثلاثة أقاليم ، +answer : ديمقراطي تمثيلي وملكية دستورية + +context : كندا دولة فيدرالية يحكمها نظام ديمقراطي تمثيلي وملكية دستورية حيث الملكة إليزابيث الثانية قائدة للدولة . الأمة الكندية أمة ثنائية اللغة حيث الإنكليزية والفرنسية لغتان رسميتان على المستوى الاتحادي . تعد كندا واحدة من أكثر دول العالم تطورا ، حيث تمتلك اقتصادا متنوعا وتعتمد على مواردها الطبيعية الوفيرة ، وعلى التجارة وبخاصة مع الولايات المتحدة اللتان تربطهما علاقة طويلة ومعقدة . كندا عضو في مجموعة الدول الصناعية السبع ومجموعة الثماني ومجموعة العشرين وحلف شمال الأطلسي ومنظمة التعاون والتنمية الاقتصادية ومنظمة التجارة العالمية ودول الكومنولث والفرنكوفونية ومنظمة الدول الأمريكية والإبيك والأمم المتحدة . تمتلك كندا واحدا من أعلى مستويات المعيشة في العالم حيث مؤشر التنمية البشرية يضعها في المرتبة الثامنة عالميا . +question : ما هى اللغة الرسمية لكندا ؟ +prompt : أجب عن السؤال التالي : ما هى اللغة الرسمية لكندا ؟ الجواب هو +pred_answer : : الإنجليزية . +answer : الإنكليزية والفرنسية + +context : كندا دولة فيدرالية يحكمها نظام ديمقراطي تمثيلي وملكية دستورية حيث الملكة إليزابيث الثانية قائدة للدولة . الأمة الكندية أمة ثنائية اللغة حيث الإنكليزية والفرنسية لغتان رسميتان على المستوى الاتحادي . تعد كندا واحدة من أكثر دول العالم تطورا ، حيث تمتلك اقتصادا متنوعا وتعتمد على مواردها الطبيعية الوفيرة ، وعلى التجارة وبخاصة مع الولايات المتحدة اللتان تربطهما علاقة طويلة ومعقدة . كندا عضو في مجموعة الدول الصناعية السبع ومجموعة الثماني ومجموعة العشرين وحلف شمال الأطلسي ومنظمة التعاون والتنمية الاقتصادية ومنظمة التجارة العالمية ودول الكومنولث والفرنكوفونية ومنظمة الدول الأمريكية والإبيك والأمم المتحدة . تمتلك كندا واحدا من أعلى مستويات المعيشة في العالم حيث مؤشر التنمية البشرية يضعها في المرتبة الثامنة عالميا . +question : ما نوع العلاقة بين كندا والولايات المتحدة ؟ +prompt : أجب عن السؤال التالي : ما نوع العلاقة بين كندا والولايات المتحدة ؟ الجواب هو +pred_answer : أن الولايات المتحدة هي أكبر +answer : علاقة طويلة ومعقدة + +context : تعود كلمة " كندا " في الأصل إلى " كنتا " ، وهي كلمة ترجع إلى لغة الإيروكواس في سانت لورانس وتعني قرية أو مستوطنة . في عام 1535 ، استخدم السكان الأصليون لمنطقة مدينة كيبك الحالية هذه الكلمة لإرشاد المستكشف الفرنسي جاك كارتييه إلى قرية ستاداكونا . ثم استخدم كارتييه فيما بعد كلمة " كندا " ليس للإشارة لتلك القرية بعينها فقط ، بل ولكامل المنطقة التي تقع تحت حكم الزعيم دوناكونا ( زعيم قرية ستاداكونا ) . بحلول عام 1545 ، أصبحت جميع الكتب والخرائط الأوروبية تشير إلى تلك المنطقة المستكشفة باسم " كندا " . +question : ما اصل كلمة كندا ؟ +prompt : أجب عن السؤال التالي : ما اصل كلمة كندا ؟ الجواب هو +pred_answer : انها مشتقة من الكلمة اللاتينية Canadiensis ، والتي تعني " الأرض الخصبة " +answer : كنتا وهي كلمة ترجع إلى لغة الإيروكواس في سانت لورانس وتعني قرية أو مستوطنة + +context : تعود كلمة " كندا " في الأصل إلى " كنتا " ، وهي كلمة ترجع إلى لغة الإيروكواس في سانت لورانس وتعني قرية أو مستوطنة . في عام 1535 ، استخدم السكان الأصليون لمنطقة مدينة كيبك الحالية هذه الكلمة لإرشاد المستكشف الفرنسي جاك كارتييه إلى قرية ستاداكونا . ثم استخدم كارتييه فيما بعد كلمة " كندا " ليس للإشارة لتلك القرية بعينها فقط ، بل ولكامل المنطقة التي تقع تحت حكم الزعيم دوناكونا ( زعيم قرية ستاداكونا ) . بحلول عام 1545 ، أصبحت جميع الكتب والخرائط الأوروبية تشير إلى تلك المنطقة المستكشفة باسم " كندا " . +question : متى استخدمت كلمة كنتا ؟ +prompt : أجب عن السؤال التالي : متى استخدمت كلمة كنتا ؟ الجواب هو في عام +pred_answer : 1890 +answer : 1535 + +context : تعود كلمة " كندا " في الأصل إلى " كنتا " ، وهي كلمة ترجع إلى لغة الإيروكواس في سانت لورانس وتعني قرية أو مستوطنة . في عام 1535 ، استخدم السكان الأصليون لمنطقة مدينة كيبك الحالية هذه الكلمة لإرشاد المستكشف الفرنسي جاك كارتييه إلى قرية ستاداكونا . ثم استخدم كارتييه فيما بعد كلمة " كندا " ليس للإشارة لتلك القرية بعينها فقط ، بل ولكامل المنطقة التي تقع تحت حكم الزعيم دوناكونا ( زعيم قرية ستاداكونا ) . بحلول عام 1545 ، أصبحت جميع الكتب والخرائط الأوروبية تشير إلى تلك المنطقة المستكشفة باسم " كندا " . +question : من اول من استخدم كلمة كندا ؟ +prompt : أجب عن السؤال التالي : من اول من استخدم كلمة كندا ؟ الجواب هو +pred_answer : الملك ادوارد السابع ، الذي كان +answer : المستكشف الفرنسي جاك كارتييه + +context : عبد الفتاح سعيد حسين خليل السيسي ( 19 نوفمبر 1954 ) ، هو الرئيس السادس والحالي لجمهورية مصر العربية ، والقائد الأعلى للقوات المسلحة المصرية ، تم انتخابه سنة 2014 لمدة 4 سنوات بعد نجاحه في الانتخابات الرئاسية 2014 ، ذلك بعد إطاحته بالرئيس محمد مرسي في 3 يوليو 2013 ( أول رئيس مدني منتخب بعد ثورة 25 يناير ) بعد سنة من توليه مقاليد الحكم عقب مظاهرات طالبت برحيله ، وأعلن عن إجراءات صاحبت ذلك عرفت بخارطة الطريق ، عارضها مؤيدو الرئيس محمد مرسي وقتها واعتبروها - ومعهم جزء من المجتمع الدولي والعربي - انقلابا عسكريا بينما أيدها المتظاهرون والمعارضون للرئيس محمد مرسي وقتها واعتبروها ثورة وتأييدا لمطالب شعبية . تخرج في الكلية الحربية عام 1977 ، وخدم في سلاح المشاة ، وعين قائدا للمنطقة الشمالية العسكرية ، وتولى منصب مدير إدارة المخابرات الحربية والاستطلاع . تخرج في الكلية الحربية عام 1977 ، وخدم في سلاح المشاة ، وعين قائدا للمنطقة الشمالية العسكرية ، وتولى منصب مدير إدارة المخابرات الحربية والاستطلاع . ثم شغل بعد ذلك منصب القائد العام للقوات المسلحة المصرية ووزير الدفاع الرابع والأربعين منذ 12 أغسطس 2012 حتى استقالته في 26 مارس 2014 للترشح للرئاسة . أدى اليمين الدستورية لولايته الرئاسية الأولى لمدة أربع سنوات أمام المحكمة الدستورية في 8 يونيو 2014 ، بينما أدى اليمين الدستورية لولايته الثانية أمام مجلس النواب في 2 يونيو 2018 . +question : متى ولد عبد الفتاح سعيد حسين السيسى ؟ +prompt : أجب عن السؤال التالي : متى ولد عبد الفتاح سعيد حسين السيسى ؟ الجواب هو +pred_answer : يوم 3 يوليو +answer : 19 نوفمبر 1954 + +context : عبد الفتاح سعيد حسين خليل السيسي ( 19 نوفمبر 1954 ) ، هو الرئيس السادس والحالي لجمهورية مصر العربية ، والقائد الأعلى للقوات المسلحة المصرية ، تم انتخابه سنة 2014 لمدة 4 سنوات بعد نجاحه في الانتخابات الرئاسية 2014 ، ذلك بعد إطاحته بالرئيس محمد مرسي في 3 يوليو 2013 ( أول رئيس مدني منتخب بعد ثورة 25 يناير ) بعد سنة من توليه مقاليد الحكم عقب مظاهرات طالبت برحيله ، وأعلن عن إجراءات صاحبت ذلك عرفت بخارطة الطريق ، عارضها مؤيدو الرئيس محمد مرسي وقتها واعتبروها - ومعهم جزء من المجتمع الدولي والعربي - انقلابا عسكريا بينما أيدها المتظاهرون والمعارضون للرئيس محمد مرسي وقتها واعتبروها ثورة وتأييدا لمطالب شعبية . تخرج في الكلية الحربية عام 1977 ، وخدم في سلاح المشاة ، وعين قائدا للمنطقة الشمالية العسكرية ، وتولى منصب مدير إدارة المخابرات الحربية والاستطلاع . تخرج في الكلية الحربية عام 1977 ، وخدم في سلاح المشاة ، وعين قائدا للمنطقة الشمالية العسكرية ، وتولى منصب مدير إدارة المخابرات الحربية والاستطلاع . ثم شغل بعد ذلك منصب القائد العام للقوات المسلحة المصرية ووزير الدفاع الرابع والأربعين منذ 12 أغسطس 2012 حتى استقالته في 26 مارس 2014 للترشح للرئاسة . أدى اليمين الدستورية لولايته الرئاسية الأولى لمدة أربع سنوات أمام المحكمة الدستورية في 8 يونيو 2014 ، بينما أدى اليمين الدستورية لولايته الثانية أمام مجلس النواب في 2 يونيو 2018 . +question : متى تولى رئاسة الجمهورية ؟ +prompt : أجب عن السؤال التالي : متى تولى رئاسة الجمهورية ؟ الجواب هو في عام +pred_answer : 1952 ، +answer : 2014 + +context : كان أصغر أعضاء المجلس الأعلى للقوات المسلحة سنا قبل اختياره لمنصبه . كما كان أول من أكد أن أفرادا من الشرطة العسكرية قد أجروا ، في مارس 2011 ، ما عرف إعلاميا بكشوف العذرية ، قائلا أنها مبررة ؛ لأنها تحمي الفتيات من الاغتصاب وتحمي الجنود من الاتهام بالاغتصاب . +question : ماذا اكد عبد الفتاح السيسى بخصوص الشرطة العسكرية ؟ +prompt : أجب عن السؤال التالي : ماذا اكد عبد الفتاح السيسى بخصوص الشرطة العسكرية ؟ الجواب هو +pred_answer : ان السيسى قال انه لن يسمح بوجود شرطة عسكرية داخل الجيش المصرى ، وان القوات المسلحة المصرية هى ملك +answer : أفرادا من الشرطة العسكرية قد أجروا في مارس 2011 ما عرف إعلاميا بكشوف العذرية + +context : كان أصغر أعضاء المجلس الأعلى للقوات المسلحة سنا قبل اختياره لمنصبه . كما كان أول من أكد أن أفرادا من الشرطة العسكرية قد أجروا ، في مارس 2011 ، ما عرف إعلاميا بكشوف العذرية ، قائلا أنها مبررة ؛ لأنها تحمي الفتيات من الاغتصاب وتحمي الجنود من الاتهام بالاغتصاب . +question : وماذا قال ؟ +prompt : أجب عن السؤال التالي : وماذا قال ؟ الجواب هو +pred_answer : ما يلي : +answer : أنها مبررة + +context : كان أصغر أعضاء المجلس الأعلى للقوات المسلحة سنا قبل اختياره لمنصبه . كما كان أول من أكد أن أفرادا من الشرطة العسكرية قد أجروا ، في مارس 2011 ، ما عرف إعلاميا بكشوف العذرية ، قائلا أنها مبررة ؛ لأنها تحمي الفتيات من الاغتصاب وتحمي الجنود من الاتهام بالاغتصاب . +question : لماذا قال انها مبررة ؟ +prompt : أجب عن السؤال التالي : لماذا قال انها مبررة ؟ الجواب هو +pred_answer : ان ما حصل في العراق ، وما يحصل الآن في فلسطين ، +answer : لأنها تحمي الفتيات من الاغتصاب وتحمي الجنود من الاتهام بالاغتصاب + +context : في 12 أغسطس 2012 ، أصدر الرئيس آنذاك محمد مرسي قرارا بترقية السيسي من رتبة لواء إلى رتبة فريق أول وتعيينه وزيرا للدفاع وقائدا عاما للقوات المسلحة ، خلفا للمشير محمد حسين طنطاوي ، وكان وقتها يشغل منصب رئيس المخابرات الحربية والاستطلاع . وقد اعتبره حزب الحرية والعدالة وقتها « وزير دفاع بنكهة الثورة » . +question : ماذا كان منصب السيسى قبل ان يعين وزيرا للدفاع ؟ +prompt : أجب عن السؤال التالي : ماذا كان منصب السيسى قبل ان يعين وزيرا للدفاع ؟ الجواب هو +pred_answer : انه لم يكن يشغل منصبا رسميا +answer : رئيس المخابرات الحربية والاستطلاع + +context : في 12 أغسطس 2012 ، أصدر الرئيس آنذاك محمد مرسي قرارا بترقية السيسي من رتبة لواء إلى رتبة فريق أول وتعيينه وزيرا للدفاع وقائدا عاما للقوات المسلحة ، خلفا للمشير محمد حسين طنطاوي ، وكان وقتها يشغل منصب رئيس المخابرات الحربية والاستطلاع . وقد اعتبره حزب الحرية والعدالة وقتها « وزير دفاع بنكهة الثورة » . +question : متى تم تعين السيسى وزيرا للدفاع ؟ +prompt : أجب عن السؤال التالي : متى تم تعين السيسى وزيرا للدفاع ؟ الجواب هو +pred_answer : يوم 3 يوليو +answer : 12 أغسطس 2012 + +context : في 12 أغسطس 2012 ، أصدر الرئيس آنذاك محمد مرسي قرارا بترقية السيسي من رتبة لواء إلى رتبة فريق أول وتعيينه وزيرا للدفاع وقائدا عاما للقوات المسلحة ، خلفا للمشير محمد حسين طنطاوي ، وكان وقتها يشغل منصب رئيس المخابرات الحربية والاستطلاع . وقد اعتبره حزب الحرية والعدالة وقتها « وزير دفاع بنكهة الثورة » . +question : ومن عينه وزيرا للدفاع ؟ +prompt : أجب عن السؤال التالي : ومن عينه وزيرا للدفاع ؟ الجواب هو +pred_answer : : لا أعرف .س +answer : الرئيس آنذاك محمد مرسي + +context : الدولة الأموية أو الخلافة الأموية أو دولة بني أمية ( 41 - 132 ه 662 - 750 م ) هي ثاني خلافة في تاريخ الإسلام ، وأكبر دولة في تاريخ الإسلام ، وواحدة من أكبر الدول الحاكمة في التاريخ . يرجع الأمويون في نسبهم إلى أمية بن عبد شمس من قبيلة قريش . وكان لهم دور هام في عهد الجاهلية وخلال العهد الإسلامي . أسلم معاوية بن أبي سفيان في عهد الرسول محمد ، وتأسست الدولة الأموية على يده ، وكان قبلا واليا على الشام في عهد الخليفة عمر بن الخطاب ، ثم نشب نزاع بينه وبين علي بن أبي طالب بعد فتنة مقتل عثمان ، حتى تنازل ابنه الحسن عن الخلافة لمعاوية بعد مقتل أبيه ، فتأسست الدولة بذلك . أخذ معاوية عن البيزنطيين بعض مظاهر الحكم والإدارة إذ جعل الخلافة وراثية عندما عهد لابنه يزيد بولاية العهد ، واتخذ عرشا وحراسا وأحاط نفسه بأبهة الملك ، وبنى له مقصورة خاصة في المسجد ، كما أنشأ ديوان الخاتم ونظام البريد . بعد وفاة يزيد اضطربت الأمور ، فطالب ابن الزبير بالخلافة ، ثم تمكن عبد الملك بن مروان بن الحكم من هزمه وقتله في مكة سنة 73 ه ، فاستقرت الدولة مجددا . +question : متى اسلم معاوية بن ابى سفيان ؟ +prompt : أجب عن السؤال التالي : متى اسلم معاوية بن ابى سفيان ؟ الجواب هو +pred_answer : انه أسلم في السنة +answer : عهد الرسول محمد + +context : الدولة الأموية أو الخلافة الأموية أو دولة بني أمية ( 41 - 132 ه 662 - 750 م ) هي ثاني خلافة في تاريخ الإسلام ، وأكبر دولة في تاريخ الإسلام ، وواحدة من أكبر الدول الحاكمة في التاريخ . يرجع الأمويون في نسبهم إلى أمية بن عبد شمس من قبيلة قريش . وكان لهم دور هام في عهد الجاهلية وخلال العهد الإسلامي . أسلم معاوية بن أبي سفيان في عهد الرسول محمد ، وتأسست الدولة الأموية على يده ، وكان قبلا واليا على الشام في عهد الخليفة عمر بن الخطاب ، ثم نشب نزاع بينه وبين علي بن أبي طالب بعد فتنة مقتل عثمان ، حتى تنازل ابنه الحسن عن الخلافة لمعاوية بعد مقتل أبيه ، فتأسست الدولة بذلك . أخذ معاوية عن البيزنطيين بعض مظاهر الحكم والإدارة إذ جعل الخلافة وراثية عندما عهد لابنه يزيد بولاية العهد ، واتخذ عرشا وحراسا وأحاط نفسه بأبهة الملك ، وبنى له مقصورة خاصة في المسجد ، كما أنشأ ديوان الخاتم ونظام البريد . بعد وفاة يزيد اضطربت الأمور ، فطالب ابن الزبير بالخلافة ، ثم تمكن عبد الملك بن مروان بن الحكم من هزمه وقتله في مكة سنة 73 ه ، فاستقرت الدولة مجددا . +question : ما مدة حكم بنى امية ؟ +prompt : أجب عن السؤال التالي : ما مدة حكم بنى امية ؟ الجواب هو +pred_answer : ان عمر بن عبد العزيز كان +answer : 662 750 م + +context : الدولة الأموية أو الخلافة الأموية أو دولة بني أمية ( 41 - 132 ه 662 - 750 م ) هي ثاني خلافة في تاريخ الإسلام ، وأكبر دولة في تاريخ الإسلام ، وواحدة من أكبر الدول الحاكمة في التاريخ . يرجع الأمويون في نسبهم إلى أمية بن عبد شمس من قبيلة قريش . وكان لهم دور هام في عهد الجاهلية وخلال العهد الإسلامي . أسلم معاوية بن أبي سفيان في عهد الرسول محمد ، وتأسست الدولة الأموية على يده ، وكان قبلا واليا على الشام في عهد الخليفة عمر بن الخطاب ، ثم نشب نزاع بينه وبين علي بن أبي طالب بعد فتنة مقتل عثمان ، حتى تنازل ابنه الحسن عن الخلافة لمعاوية بعد مقتل أبيه ، فتأسست الدولة بذلك . أخذ معاوية عن البيزنطيين بعض مظاهر الحكم والإدارة إذ جعل الخلافة وراثية عندما عهد لابنه يزيد بولاية العهد ، واتخذ عرشا وحراسا وأحاط نفسه بأبهة الملك ، وبنى له مقصورة خاصة في المسجد ، كما أنشأ ديوان الخاتم ونظام البريد . بعد وفاة يزيد اضطربت الأمور ، فطالب ابن الزبير بالخلافة ، ثم تمكن عبد الملك بن مروان بن الحكم من هزمه وقتله في مكة سنة 73 ه ، فاستقرت الدولة مجددا . +question : من اسس الولة الاموية +prompt : أجب عن السؤال التالي : من اسس الولة الاموية الجواب هو +pred_answer : الامام علي بن ابي طالب +answer : معاوية بن أبي سفيان + +context : جرت أكبر الفتوحات الأموية في عهد الوليد بن عبد الملك ، فاستكمل فتح المغرب ، وفتحت الأندلس بكاملها ، وفتحت السند بقيادة محمد بن القاسم الثقفي وبلاد ما وراء النهر بقيادة قتيبة بن مسلم . خلفه سليمان بن عبد الملك الذي توفي مرابطا في مرج دابق لإدارة حصار القسطنطينية ، ثم الخليفة الزاهد عمر بن عبد العزيز ، الذي يعد من أفضل الخلفاء الأمويين سيرة . وخلفه بعده ابن عمه يزيد ، ثم هشام ، الذي فتح في عهده جنوب فرنسا ، وكان عهده طويلا وكثير الاستقرار . وبعد موته دخلت الدولة في حالة من الاضطراب الشديد ، حتى سيطر مروان بن محمد على الخلافة ، فأخذ يتنقل بين الأقاليم ويقمع الثورات والاضطرابات ، ثم التقى مع العباسيين في معركة الزاب فهزم وقتل ، وكانت نهاية الدولة الأموية . +question : ما اهم الفتوحات فى عهد الدولة الاموية ؟ +prompt : أجب عن السؤال التالي : ما اهم الفتوحات فى عهد الدولة الاموية ؟ الجواب هو +pred_answer : فتح بلاد السند ( باكستان حاليا ) سنة 711 م ، +answer : المغرب وفتحت الأندلس بكاملها وفتحت السند بقيادة محمد بن القاسم الثقفي وبلاد ما وراء + +context : جرت أكبر الفتوحات الأموية في عهد الوليد بن عبد الملك ، فاستكمل فتح المغرب ، وفتحت الأندلس بكاملها ، وفتحت السند بقيادة محمد بن القاسم الثقفي وبلاد ما وراء النهر بقيادة قتيبة بن مسلم . خلفه سليمان بن عبد الملك الذي توفي مرابطا في مرج دابق لإدارة حصار القسطنطينية ، ثم الخليفة الزاهد عمر بن عبد العزيز ، الذي يعد من أفضل الخلفاء الأمويين سيرة . وخلفه بعده ابن عمه يزيد ، ثم هشام ، الذي فتح في عهده جنوب فرنسا ، وكان عهده طويلا وكثير الاستقرار . وبعد موته دخلت الدولة في حالة من الاضطراب الشديد ، حتى سيطر مروان بن محمد على الخلافة ، فأخذ يتنقل بين الأقاليم ويقمع الثورات والاضطرابات ، ثم التقى مع العباسيين في معركة الزاب فهزم وقتل ، وكانت نهاية الدولة الأموية . +question : من افضل خلفاء بنى امية ؟ +prompt : أجب عن السؤال التالي : من افضل خلفاء بنى امية ؟ الجواب هو +pred_answer : عبد الملك بن مروان +answer : عمر بن عبد العزيز + +context : جرت أكبر الفتوحات الأموية في عهد الوليد بن عبد الملك ، فاستكمل فتح المغرب ، وفتحت الأندلس بكاملها ، وفتحت السند بقيادة محمد بن القاسم الثقفي وبلاد ما وراء النهر بقيادة قتيبة بن مسلم . خلفه سليمان بن عبد الملك الذي توفي مرابطا في مرج دابق لإدارة حصار القسطنطينية ، ثم الخليفة الزاهد عمر بن عبد العزيز ، الذي يعد من أفضل الخلفاء الأمويين سيرة . وخلفه بعده ابن عمه يزيد ، ثم هشام ، الذي فتح في عهده جنوب فرنسا ، وكان عهده طويلا وكثير الاستقرار . وبعد موته دخلت الدولة في حالة من الاضطراب الشديد ، حتى سيطر مروان بن محمد على الخلافة ، فأخذ يتنقل بين الأقاليم ويقمع الثورات والاضطرابات ، ثم التقى مع العباسيين في معركة الزاب فهزم وقتل ، وكانت نهاية الدولة الأموية . +question : يف انتهت الدولة الاموية ؟ +prompt : أجب عن السؤال التالي : يف انتهت الدولة الاموية ؟ الجواب هو +pred_answer : نعم .فالدولة الاموية استمرت من سنة 41 ه الى 132 ه +answer : محمد على الخلافة فأخذ يتنقل بين الأقاليم ويقمع الثورات والاضطرابات ثم التقى مع العباسيين + +context : شهد عهد الدولة الأموية ثورات وفتنا كثيرة ، وكان منفذوا أغلب هذه الثورات إما الخوارج أو الشيعة . من أبرز تلك الثورات ثورة الحسين بن علي على يزيد بن معاوية ، عندما طالب بالخلافة ، فالتقت معه جيوش الأمويين في معركة كربلاء التي انتهت بمقتله . وقامت بعدها ثورات شيعية كثيرة للثأر له ، منها ثورة التوابين وثورة المختار الثقفي ، ثم هدأوا بعد قمعهما أكثر من نصف قرن حتى ثورة زيد بن علي . كما ثار الخوارج مرارا وتكرارا ، ولم يهدؤوا إلا لقرابة عشرين عاما بين أواسط عهد عبد الملك وبداية عهد يزيد . وقد كان لأشهر ولاة الأمويين الحجاج بن يوسف الثقفي دور كبير في إخماد هذه الثورات وتهدئتها خلال أواخر القرن الأول الهجري ، خصوصا وأنه كان والي العراق والمشرق ، التي كانت - وخصوصا مدينة الكوفة - ألد أعداء الحكم الأموي ، فيما كانت الشام تعد حليفة الأمويين وعاصمتهم . من أشرس الثورات التي قامت على الدولة الأموية أيضا ثورتا عبد الله بن الزبير وعبد الرحمن بن الأشعث . +question : ماذا شهد عصر الدولة الاموية ؟ +prompt : أجب عن السؤال التالي : ماذا شهد عصر الدولة الاموية ؟ الجواب هو +pred_answer : ان العصر الاموي كان +answer : ثورات وفتنا كثيرة + +context : شهد عهد الدولة الأموية ثورات وفتنا كثيرة ، وكان منفذوا أغلب هذه الثورات إما الخوارج أو الشيعة . من أبرز تلك الثورات ثورة الحسين بن علي على يزيد بن معاوية ، عندما طالب بالخلافة ، فالتقت معه جيوش الأمويين في معركة كربلاء التي انتهت بمقتله . وقامت بعدها ثورات شيعية كثيرة للثأر له ، منها ثورة التوابين وثورة المختار الثقفي ، ثم هدأوا بعد قمعهما أكثر من نصف قرن حتى ثورة زيد بن علي . كما ثار الخوارج مرارا وتكرارا ، ولم يهدؤوا إلا لقرابة عشرين عاما بين أواسط عهد عبد الملك وبداية عهد يزيد . وقد كان لأشهر ولاة الأمويين الحجاج بن يوسف الثقفي دور كبير في إخماد هذه الثورات وتهدئتها خلال أواخر القرن الأول الهجري ، خصوصا وأنه كان والي العراق والمشرق ، التي كانت - وخصوصا مدينة الكوفة - ألد أعداء الحكم الأموي ، فيما كانت الشام تعد حليفة الأمويين وعاصمتهم . من أشرس الثورات التي قامت على الدولة الأموية أيضا ثورتا عبد الله بن الزبير وعبد الرحمن بن الأشعث . +question : ما اشهر الثورات اللتى قامت على الدولة الاموية ؟ +prompt : أجب عن السؤال التالي : ما اشهر الثورات اللتى قامت على الدولة الاموية ؟ الجواب هو +pred_answer : : ثورة الزنج ، وثورة القرام +answer : ثورة الحسين بن علي على يزيد بن معاوية + +context : شهد عهد الدولة الأموية ثورات وفتنا كثيرة ، وكان منفذوا أغلب هذه الثورات إما الخوارج أو الشيعة . من أبرز تلك الثورات ثورة الحسين بن علي على يزيد بن معاوية ، عندما طالب بالخلافة ، فالتقت معه جيوش الأمويين في معركة كربلاء التي انتهت بمقتله . وقامت بعدها ثورات شيعية كثيرة للثأر له ، منها ثورة التوابين وثورة المختار الثقفي ، ثم هدأوا بعد قمعهما أكثر من نصف قرن حتى ثورة زيد بن علي . كما ثار الخوارج مرارا وتكرارا ، ولم يهدؤوا إلا لقرابة عشرين عاما بين أواسط عهد عبد الملك وبداية عهد يزيد . وقد كان لأشهر ولاة الأمويين الحجاج بن يوسف الثقفي دور كبير في إخماد هذه الثورات وتهدئتها خلال أواخر القرن الأول الهجري ، خصوصا وأنه كان والي العراق والمشرق ، التي كانت - وخصوصا مدينة الكوفة - ألد أعداء الحكم الأموي ، فيما كانت الشام تعد حليفة الأمويين وعاصمتهم . من أشرس الثورات التي قامت على الدولة الأموية أيضا ثورتا عبد الله بن الزبير وعبد الرحمن بن الأشعث . +question : من اشهر ولاة الدولة الاموية ؟ +prompt : أجب عن السؤال التالي : من اشهر ولاة الدولة الاموية ؟ الجواب هو +pred_answer : عبد الملك بن مروان . +answer : الحجاج بن يوسف الثقفي + +context : كأس العالم لكرة القدم هي أهم مسابقة لرياضة كرة القدم تقام تحت إشراف الاتحاد الدولي لكرة القدم . وتقام بطولة كأس العالم كل أربع سنوات منذ عام 1930 ، ما عدا بطولتي عام 1942 و 1946 اللتين ألغيتا بسبب الحرب العالمية الثانية . شهدت النسخ العشرين السابقة من بطولات كأس العالم فوز ثمانية منتخبات مختلفة باللقب . كما يسجل للمنتخب البرازيلي حضوره في كل البطولات ، فهو لم يغب أبدا عن أي بطولة كأس عالم حتى الآن وهو الأكثر تتويجا بالكأس حيث فاز بها خمس مرات أعوام : 1958 ، و 1962 ، و 1970 ، و 1994 و 2002 . يليه المنتخب الإيطالي الذي أحرزها أربع مرات في أعوام : 1934 ، و 1938 ، و 1982 و 2006 ، مع المنتخب الألماني الذي أحرزها 4 مرات أيضا أعوام : 1954 ، 1974 ، و 1990 ، و 2014 . فاز كل من المنتخب الأرجنتيني والمنتخب الأوروغوياني والمنتخب الفرنسي باللقب مرتين ، بينما فازت منتخبات إنجلترا وإسبانيا بلقب البطولة مرة واحدة . +question : ما هى كلأس العالم ؟ +prompt : أجب عن السؤال التالي : ما هى كلأس العالم ؟ الجواب هو +pred_answer : : 1 - الأرض 2 - الشمس 3 - القمر 4 - النجوم +answer : هي أهم مسابقة لرياضة كرة القدم تقام تحت إشراف الاتحاد الدولي لكرة القدم + +context : كأس العالم لكرة القدم هي أهم مسابقة لرياضة كرة القدم تقام تحت إشراف الاتحاد الدولي لكرة القدم . وتقام بطولة كأس العالم كل أربع سنوات منذ عام 1930 ، ما عدا بطولتي عام 1942 و 1946 اللتين ألغيتا بسبب الحرب العالمية الثانية . شهدت النسخ العشرين السابقة من بطولات كأس العالم فوز ثمانية منتخبات مختلفة باللقب . كما يسجل للمنتخب البرازيلي حضوره في كل البطولات ، فهو لم يغب أبدا عن أي بطولة كأس عالم حتى الآن وهو الأكثر تتويجا بالكأس حيث فاز بها خمس مرات أعوام : 1958 ، و 1962 ، و 1970 ، و 1994 و 2002 . يليه المنتخب الإيطالي الذي أحرزها أربع مرات في أعوام : 1934 ، و 1938 ، و 1982 و 2006 ، مع المنتخب الألماني الذي أحرزها 4 مرات أيضا أعوام : 1954 ، 1974 ، و 1990 ، و 2014 . فاز كل من المنتخب الأرجنتيني والمنتخب الأوروغوياني والمنتخب الفرنسي باللقب مرتين ، بينما فازت منتخبات إنجلترا وإسبانيا بلقب البطولة مرة واحدة . +question : متى تقام كأس العالم ؟ +prompt : أجب عن السؤال التالي : متى تقام كأس العالم ؟ الجواب هو +pred_answer : في عام 2026 ، أي +answer : كل أربع سنوات منذ عام 1930 + +context : كأس العالم لكرة القدم هي أهم مسابقة لرياضة كرة القدم تقام تحت إشراف الاتحاد الدولي لكرة القدم . وتقام بطولة كأس العالم كل أربع سنوات منذ عام 1930 ، ما عدا بطولتي عام 1942 و 1946 اللتين ألغيتا بسبب الحرب العالمية الثانية . شهدت النسخ العشرين السابقة من بطولات كأس العالم فوز ثمانية منتخبات مختلفة باللقب . كما يسجل للمنتخب البرازيلي حضوره في كل البطولات ، فهو لم يغب أبدا عن أي بطولة كأس عالم حتى الآن وهو الأكثر تتويجا بالكأس حيث فاز بها خمس مرات أعوام : 1958 ، و 1962 ، و 1970 ، و 1994 و 2002 . يليه المنتخب الإيطالي الذي أحرزها أربع مرات في أعوام : 1934 ، و 1938 ، و 1982 و 2006 ، مع المنتخب الألماني الذي أحرزها 4 مرات أيضا أعوام : 1954 ، 1974 ، و 1990 ، و 2014 . فاز كل من المنتخب الأرجنتيني والمنتخب الأوروغوياني والمنتخب الفرنسي باللقب مرتين ، بينما فازت منتخبات إنجلترا وإسبانيا بلقب البطولة مرة واحدة . +question : كم مرة فاز منتخب البرازيل بكأس العالم ؟ +prompt : أجب عن السؤال التالي : كم مرة فاز منتخب البرازيل بكأس العالم ؟ الجواب هو +pred_answer : خمس مرات ، +answer : خمس مرات + +context : بطولة كأس العالم من أكثر الأحداث الرياضية مشاهدة على مستوى العالم ، ففي نهائي كأس العالم لكرة القدم 2006 ، الذي أقيم في ألمانيا ، قدر عدد من تابع المباراة النهائية ب 715 مليون شخص . حامل اللقب الحالي هو المنتخب الفرنسي الفائز بكأس العالم 2018 الذي أقيم في روسيا بعد فوزها في النهائي على المنتخب الكرواتي بنتيجة 4 - 2 . +question : بماذا تتميز بطولة كأس العالم ؟ +prompt : أجب عن السؤال التالي : بماذا تتميز بطولة كأس العالم ؟ الجواب هو +pred_answer : أن هذه البطولة هي أكبر حدث رياضي في +answer : أكثر الأحداث الرياضية مشاهدة على مستوى العالم + +context : بطولة كأس العالم من أكثر الأحداث الرياضية مشاهدة على مستوى العالم ، ففي نهائي كأس العالم لكرة القدم 2006 ، الذي أقيم في ألمانيا ، قدر عدد من تابع المباراة النهائية ب 715 مليون شخص . حامل اللقب الحالي هو المنتخب الفرنسي الفائز بكأس العالم 2018 الذي أقيم في روسيا بعد فوزها في النهائي على المنتخب الكرواتي بنتيجة 4 - 2 . +question : كم عدد من تابعوا المباراة النهائية لعام 2006 ؟ +prompt : أجب عن السؤال التالي : كم عدد من تابعوا المباراة النهائية لعام 2006 ؟ الجواب هو +pred_answer : أكثر من مليون ونصف +answer : 715 مليون شخص + +context : بطولة كأس العالم من أكثر الأحداث الرياضية مشاهدة على مستوى العالم ، ففي نهائي كأس العالم لكرة القدم 2006 ، الذي أقيم في ألمانيا ، قدر عدد من تابع المباراة النهائية ب 715 مليون شخص . حامل اللقب الحالي هو المنتخب الفرنسي الفائز بكأس العالم 2018 الذي أقيم في روسيا بعد فوزها في النهائي على المنتخب الكرواتي بنتيجة 4 - 2 . +question : من هو حامل اللقب الحالى ؟ +prompt : أجب عن السؤال التالي : من هو حامل اللقب الحالى ؟ الجواب هو +pred_answer : محمد صلاح نجم +answer : المنتخب الفرنسي + +context : أقيمت أول مباراة كرة قدم دولية في 1872 بين منتخبي اسكتلندا وإنجلترا وانتهت بالتعادل السلبي . وكانت أول بطولة دولية هي " البطولة البريطانية " التي جرت في عام 1884 . في هذه المرحلة كان نادرا ما تلعب هذه الرياضة خارج بريطانيا العظمى وأيرلندا . +question : متى اقيمت اول مبارة دولية ؟ +prompt : أجب عن السؤال التالي : متى اقيمت اول مبارة دولية ؟ الجواب هو في عام +pred_answer : 1904 +answer : 1872 + +context : أقيمت أول مباراة كرة قدم دولية في 1872 بين منتخبي اسكتلندا وإنجلترا وانتهت بالتعادل السلبي . وكانت أول بطولة دولية هي " البطولة البريطانية " التي جرت في عام 1884 . في هذه المرحلة كان نادرا ما تلعب هذه الرياضة خارج بريطانيا العظمى وأيرلندا . +question : و ما نتيجتها ؟ +prompt : أجب عن السؤال التالي : و ما نتيجتها ؟ الجواب هو +pred_answer : أنه لا يمكن أن تكون هناك نتيجة واحدة ، بل +answer : دولية في 1872 بين منتخبي اسكتلندا وإنجلترا + +context : أقيمت أول مباراة كرة قدم دولية في 1872 بين منتخبي اسكتلندا وإنجلترا وانتهت بالتعادل السلبي . وكانت أول بطولة دولية هي " البطولة البريطانية " التي جرت في عام 1884 . في هذه المرحلة كان نادرا ما تلعب هذه الرياضة خارج بريطانيا العظمى وأيرلندا . +question : ما هى اول بطولة دولية ؟ +prompt : أجب عن السؤال التالي : ما هى اول بطولة دولية ؟ الجواب هو +pred_answer : بطولة كأس العالم +answer : البطولة البريطانية + +context : محمد رمضان ( 23 مايو 1988 - ) ، ممثل ومغني مصري . بدأ التمثيل في مسرح المدرسة ، كما أشاد به الممثل المصري عمر الشريف وصرح أنه اختاره ليكمل مسيرته الفنية . ذكر محمد رمضان في لقاء تلفزيوني أن عمر الشريف أثنى على حسن تمثيله لدور ابن بواب في مسلسل " حنان وحنين " في أول لقاء بينهما . +question : من هو محمد رمضان ؟ +prompt : أجب عن السؤال التالي : من هو محمد رمضان ؟ الجواب هو +pred_answer : أنه ممثل مصري شاب ، +answer : ممثل ومغني مصري + +context : محمد رمضان ( 23 مايو 1988 - ) ، ممثل ومغني مصري . بدأ التمثيل في مسرح المدرسة ، كما أشاد به الممثل المصري عمر الشريف وصرح أنه اختاره ليكمل مسيرته الفنية . ذكر محمد رمضان في لقاء تلفزيوني أن عمر الشريف أثنى على حسن تمثيله لدور ابن بواب في مسلسل " حنان وحنين " في أول لقاء بينهما . +question : متى ولد ؟ +prompt : أجب عن السؤال التالي : متى ولد ؟ الجواب هو +pred_answer : : في عام +answer : 23 مايو 1988 + +context : محمد رمضان ( 23 مايو 1988 - ) ، ممثل ومغني مصري . بدأ التمثيل في مسرح المدرسة ، كما أشاد به الممثل المصري عمر الشريف وصرح أنه اختاره ليكمل مسيرته الفنية . ذكر محمد رمضان في لقاء تلفزيوني أن عمر الشريف أثنى على حسن تمثيله لدور ابن بواب في مسلسل " حنان وحنين " في أول لقاء بينهما . +question : ما هو اول عمل فنى جمع بين عمر الشريف و محمد رمضان ؟ +prompt : أجب عن السؤال التالي : ما هو اول عمل فنى جمع بين عمر الشريف و محمد رمضان ؟ الجواب هو +pred_answer : فيلم “ صراع فى الوادى +answer : مسلسل حنان وحنين + +context : بدأ حياته بأدوار صغيرة في عدد من المسلسلات مثل مسلسل السندريلا ، إلى أن قدم دورا متميزا في فيلم احكي يا شهرزاد ، أصبح رمضان مع الوقت من نجوم الصف الأول ، خصوصا بعد أن قام ببطولة مجموعة من الأفلام جعلته نجما جماهيريا ، وحققت أفلامه تلك إيرادات عالية وكان أهمها أفلام الألماني ، عبده موتة ، وقلب الأسد ، وشد أجزاء . +question : كيف بدأ حياته الفنية ؟ +prompt : أجب عن السؤال التالي : كيف بدأ حياته الفنية ؟ الجواب هو +pred_answer : : عندما كنت في السادسة عشرة من عمري ، بدأت أتعلم +answer : بأدوار صغيرة في عدد من المسلسلات مثل مسلسل السندريلا + +context : بدأ حياته بأدوار صغيرة في عدد من المسلسلات مثل مسلسل السندريلا ، إلى أن قدم دورا متميزا في فيلم احكي يا شهرزاد ، أصبح رمضان مع الوقت من نجوم الصف الأول ، خصوصا بعد أن قام ببطولة مجموعة من الأفلام جعلته نجما جماهيريا ، وحققت أفلامه تلك إيرادات عالية وكان أهمها أفلام الألماني ، عبده موتة ، وقلب الأسد ، وشد أجزاء . +question : ما هو اول دور متميز قام به ؟ +prompt : أجب عن السؤال التالي : ما هو اول دور متميز قام به ؟ الجواب هو +pred_answer : أن أول دور له كان في +answer : فيلم احكي يا شهرزاد + +context : بدأ حياته بأدوار صغيرة في عدد من المسلسلات مثل مسلسل السندريلا ، إلى أن قدم دورا متميزا في فيلم احكي يا شهرزاد ، أصبح رمضان مع الوقت من نجوم الصف الأول ، خصوصا بعد أن قام ببطولة مجموعة من الأفلام جعلته نجما جماهيريا ، وحققت أفلامه تلك إيرادات عالية وكان أهمها أفلام الألماني ، عبده موتة ، وقلب الأسد ، وشد أجزاء . +question : ماهى اهم افلامه ؟ +prompt : أجب عن السؤال التالي : ماهى اهم افلامه ؟ الجواب هو +pred_answer : فيلم " الرسالة " للمخرج السوري الراحل مصطفى العقاد +answer : الألماني عبده موتة وقلب الأسد وشد أجزاء + +context : شبهه البعض بالممثل أحمد زكي . وقد ذكر أن أحمد زكي مثله الأعلى في 2004 . اتهمه بعض النقاد بالتشبه بأحمد زكي وتقليده ، وعلق على ذلك في 2016 : " الأخير علامة في السينما المصرية ، وأن الأيام فقط ستثبت إن كان يقلده أم إنه يملك موهبة حقيقية تميزه " ، وأضاف أن استمراره على الشاشة حتى الآن " لأنه لا يشبه أحمد زكي " . قال هيثم أحمد زكي في 2015 : " محمد رمضان وعمرو سعد هم أفضل من يقلد أحمد زكي وهذا حقهم " . +question : من هو مثله الاعلى ؟ +prompt : أجب عن السؤال التالي : من هو مثله الاعلى ؟ الجواب هو +pred_answer : يسوع المسيح +answer : أحمد زكي + +context : شبهه البعض بالممثل أحمد زكي . وقد ذكر أن أحمد زكي مثله الأعلى في 2004 . اتهمه بعض النقاد بالتشبه بأحمد زكي وتقليده ، وعلق على ذلك في 2016 : " الأخير علامة في السينما المصرية ، وأن الأيام فقط ستثبت إن كان يقلده أم إنه يملك موهبة حقيقية تميزه " ، وأضاف أن استمراره على الشاشة حتى الآن " لأنه لا يشبه أحمد زكي " . قال هيثم أحمد زكي في 2015 : " محمد رمضان وعمرو سعد هم أفضل من يقلد أحمد زكي وهذا حقهم " . +question : و متى ذكر ذلك ؟ +prompt : أجب عن السؤال التالي : و متى ذكر ذلك ؟ الجواب هو في عام +pred_answer : 1492 +answer : 2004 + +context : شبهه البعض بالممثل أحمد زكي . وقد ذكر أن أحمد زكي مثله الأعلى في 2004 . اتهمه بعض النقاد بالتشبه بأحمد زكي وتقليده ، وعلق على ذلك في 2016 : " الأخير علامة في السينما المصرية ، وأن الأيام فقط ستثبت إن كان يقلده أم إنه يملك موهبة حقيقية تميزه " ، وأضاف أن استمراره على الشاشة حتى الآن " لأنه لا يشبه أحمد زكي " . قال هيثم أحمد زكي في 2015 : " محمد رمضان وعمرو سعد هم أفضل من يقلد أحمد زكي وهذا حقهم " . +question : بماذا اتهمه بعض النقاد ؟ +prompt : أجب عن السؤال التالي : بماذا اتهمه بعض النقاد ؟ الجواب هو +pred_answer : ما يلي : " لقد كان فيلسوفا +answer : بالتشبه بأحمد زكي وتقليده + +context : التقويم الهجري القمري أو التقويم الإسلامي هو تقويم قمري يعتمد على دورة القمر لتحديد الأشهر ، ويستخدمه المسلمون خصوصا في تحديد المناسبات الدينية . أنشأه الخليفة عمر بن الخطاب وجعل هجرة رسول الله محمد بن عبد الله صلى الله عليه وسلم من مكة إلى المدينة في 12 رب ع الأول ( 24 سبتمبر عام 622 م ) مرجعا لأول سنة فيه ، وهذا هو سبب تسميته التقويم الهجري لكنه مركز أساسا على الميقات القمري الذي أمر الله في القرآن بإتباعه تبعا للأية 36 من سورة التوبة والأربعة الحرم هي أشهر قمرية وهي رجب وذو القعدة وذو الحجة ومحرم ، ولأن الله نعتها بالدين القيم فقد حرص أئمة المسلمين منذ بداية الأمة أن لا يعملوا إلا به ، رغم أن التقويم أنشئ في عهد المسلمين إلا أن أسماء الأشهر والتقويم القمري كان تستخدم منذ أيام الجاهلية . أول وم هذا التقو م الجمعة 1 محرم 1 ه ( 16 يوليو عام 622 م ) . +question : ما هو التقويم الهجرى ؟ +prompt : أجب عن السؤال التالي : ما هو التقويم الهجرى ؟ الجواب هو +pred_answer : أنه تقويم قمري يعتمد على دورة القمر حول الأرض +answer : هو تقويم قمري يعتمد على دورة القمر لتحديد الأشهر + +context : التقويم الهجري القمري أو التقويم الإسلامي هو تقويم قمري يعتمد على دورة القمر لتحديد الأشهر ، ويستخدمه المسلمون خصوصا في تحديد المناسبات الدينية . أنشأه الخليفة عمر بن الخطاب وجعل هجرة رسول الله محمد بن عبد الله صلى الله عليه وسلم من مكة إلى المدينة في 12 رب ع الأول ( 24 سبتمبر عام 622 م ) مرجعا لأول سنة فيه ، وهذا هو سبب تسميته التقويم الهجري لكنه مركز أساسا على الميقات القمري الذي أمر الله في القرآن بإتباعه تبعا للأية 36 من سورة التوبة والأربعة الحرم هي أشهر قمرية وهي رجب وذو القعدة وذو الحجة ومحرم ، ولأن الله نعتها بالدين القيم فقد حرص أئمة المسلمين منذ بداية الأمة أن لا يعملوا إلا به ، رغم أن التقويم أنشئ في عهد المسلمين إلا أن أسماء الأشهر والتقويم القمري كان تستخدم منذ أيام الجاهلية . أول وم هذا التقو م الجمعة 1 محرم 1 ه ( 16 يوليو عام 622 م ) . +question : من انشأه +prompt : أجب عن السؤال التالي : من انشأه الجواب هو +pred_answer : محمد صلى الله عليه وسلم +answer : الخليفة عمر بن الخطاب + +context : التقويم الهجري القمري أو التقويم الإسلامي هو تقويم قمري يعتمد على دورة القمر لتحديد الأشهر ، ويستخدمه المسلمون خصوصا في تحديد المناسبات الدينية . أنشأه الخليفة عمر بن الخطاب وجعل هجرة رسول الله محمد بن عبد الله صلى الله عليه وسلم من مكة إلى المدينة في 12 رب ع الأول ( 24 سبتمبر عام 622 م ) مرجعا لأول سنة فيه ، وهذا هو سبب تسميته التقويم الهجري لكنه مركز أساسا على الميقات القمري الذي أمر الله في القرآن بإتباعه تبعا للأية 36 من سورة التوبة والأربعة الحرم هي أشهر قمرية وهي رجب وذو القعدة وذو الحجة ومحرم ، ولأن الله نعتها بالدين القيم فقد حرص أئمة المسلمين منذ بداية الأمة أن لا يعملوا إلا به ، رغم أن التقويم أنشئ في عهد المسلمين إلا أن أسماء الأشهر والتقويم القمري كان تستخدم منذ أيام الجاهلية . أول وم هذا التقو م الجمعة 1 محرم 1 ه ( 16 يوليو عام 622 م ) . +question : متى بدأ التقويم الهجرى ؟ +prompt : أجب عن السؤال التالي : متى بدأ التقويم الهجرى ؟ الجواب هو +pred_answer : عندما هاجر الرسول صلى الله عليه وسلم من مكة المكرمة إلى المدينة المنورة ، +answer : الجمعة 1 محرم 1 ه 16 يوليو عام 622 م + +context : يتكون التقويم الهجري من 12 شهرا قمريا أي أن السنة الهجرية تساوي 354 يوما تقريبا ، بالتحديد 354 . 367056 يوما ، والشهر في التقويم الهجري إما أن يكون 29 أو 30 يوما ( لأن دورة القمر الظاهرية تساوي 29 . 530588 يوم ) . وبما أن هناك فارق 11 . 2 يوم تقريبا بين التقويم الميلادي الشائع والتقويم الهجري فإن التقويمين لا يتزامنان مما يجعل التحويل بين التقويمين أكثر صعوبة . +question : كم شهرا فى السنة القمرية ؟ +prompt : أجب عن السؤال التالي : كم شهرا فى السنة القمرية ؟ الجواب هو +pred_answer : 365 يوما و 6 ساعات +answer : 12 شهرا قمريا + +context : يتكون التقويم الهجري من 12 شهرا قمريا أي أن السنة الهجرية تساوي 354 يوما تقريبا ، بالتحديد 354 . 367056 يوما ، والشهر في التقويم الهجري إما أن يكون 29 أو 30 يوما ( لأن دورة القمر الظاهرية تساوي 29 . 530588 يوم ) . وبما أن هناك فارق 11 . 2 يوم تقريبا بين التقويم الميلادي الشائع والتقويم الهجري فإن التقويمين لا يتزامنان مما يجعل التحويل بين التقويمين أكثر صعوبة . +question : ما عدد ايام النة القمرية ؟ +prompt : أجب عن السؤال التالي : ما عدد ايام النة القمرية ؟ الجواب هو +pred_answer : 365 يوما و 6 ساعات و 48 دقيقة و 3 +answer : 354 يوما تقريبا بالتحديد 354 367056 يوما + +context : يتكون التقويم الهجري من 12 شهرا قمريا أي أن السنة الهجرية تساوي 354 يوما تقريبا ، بالتحديد 354 . 367056 يوما ، والشهر في التقويم الهجري إما أن يكون 29 أو 30 يوما ( لأن دورة القمر الظاهرية تساوي 29 . 530588 يوم ) . وبما أن هناك فارق 11 . 2 يوم تقريبا بين التقويم الميلادي الشائع والتقويم الهجري فإن التقويمين لا يتزامنان مما يجعل التحويل بين التقويمين أكثر صعوبة . +question : كم عد ايام الشهر الهجرى ؟ +prompt : أجب عن السؤال التالي : كم عد ايام الشهر الهجرى ؟ الجواب هو +pred_answer : عدد ايام شهر رمضان +answer : 29 أو 30 يوما + +context : في سنة 412 م وقبل البعثة النبوية ب 150 سنة وبمكة المكرمة اجتمع العرب سواء من رؤساء القبائل أو الوفود في حج ذاك العام أيام كلاب بن مرة جد النبي محمد الخامس ، لتحديد أسماء جديدة للأشهر يتفق عليها جميع العرب وأهل الجزيرة العربية بعد أن كانت القبائل تسمي الأشهر بأسماء مختلفة ، فتوحدوا على الأسماء الحالية . +question : متى اجتمع العرب من رؤساء القبائل او الوفود ؟ +prompt : أجب عن السؤال التالي : متى اجتمع العرب من رؤساء القبائل او الوفود ؟ الجواب هو +pred_answer : : في الجاهلية +answer : سنة 412 + +context : في سنة 412 م وقبل البعثة النبوية ب 150 سنة وبمكة المكرمة اجتمع العرب سواء من رؤساء القبائل أو الوفود في حج ذاك العام أيام كلاب بن مرة جد النبي محمد الخامس ، لتحديد أسماء جديدة للأشهر يتفق عليها جميع العرب وأهل الجزيرة العربية بعد أن كانت القبائل تسمي الأشهر بأسماء مختلفة ، فتوحدوا على الأسماء الحالية . +question : لماذا اجتمع رؤساءالقبائل و الوفود ؟ +prompt : أجب عن السؤال التالي : لماذا اجتمع رؤساءالقبائل و الوفود ؟ الجواب هو +pred_answer : أن هذه القبائل كانت في حالة حرب مع بعضها البعض ، فكان لابد من +answer : لتحديد أسماء جديدة للأشهر يتفق عليها جميع العرب وأهل الجزيرة العربية + +context : في سنة 412 م وقبل البعثة النبوية ب 150 سنة وبمكة المكرمة اجتمع العرب سواء من رؤساء القبائل أو الوفود في حج ذاك العام أيام كلاب بن مرة جد النبي محمد الخامس ، لتحديد أسماء جديدة للأشهر يتفق عليها جميع العرب وأهل الجزيرة العربية بعد أن كانت القبائل تسمي الأشهر بأسماء مختلفة ، فتوحدوا على الأسماء الحالية . +question : و ماذا كانت نتيجة الاجتماع ؟ +prompt : أجب عن السؤال التالي : و ماذا كانت نتيجة الاجتماع ؟ الجواب هو +pred_answer : ما يلي : تم الاتفاق على +answer : فتوحدوا على الأسماء الحالية + +context : بطولة كأس العالم لكرة القدم هي أهم مسابقة كرة قدم دولية يقيمها الاتحاد الدولي لكرة القدم ( الفيفا ) . أقيمت البطولة أول مرة عام 1930 م وتقام بطولة كأس العالم لكرة القدم حتى الآن كل أربع سنوات باستثناء بطولتي عام 1942 و 1946 م اللتين ألغيتا بسبب الحرب العالمية الثانية . أقيمت البطولة 21 مرة ، شارك في النهائيات 78 دولة ، وعدد الفرق التي فازت بالبطولة حتى الآن 8 فرق ، ويعد المنتخب البرازيلي الأكثر تتويجا بالكأس حيث فاز بها 5 مرات أعوام : 1958 ، 1962 ، 1970 ، 1994 و 2002 . يليه المنتخب الإيطالي الذي أحرزها 4 مرات في أعوام : 1934 ، 1938 ، 1982 و 2006 ، بالمشاركة مع المنتخب الألماني الذي حققها 4 مرات أيضا أعوام : 1954 ، 1974 و 1990 و 2014 ، ثم الأوروغواي والأرجنتين وفرنسا برصيد بطولتين . بينما أحرزت منتخبات إنجلترا وإسبانيا البطولة مرة واحدة . +question : من يقيم بطولة كأس العالم لكرة القدم ؟ +prompt : أجب عن السؤال التالي : من يقيم بطولة كأس العالم لكرة القدم ؟ الجواب هو +pred_answer : الاتحاد الدولي لكرة القدم ( فيفا +answer : الاتحاد الدولي لكرة القدم الفيفا + +context : بطولة كأس العالم لكرة القدم هي أهم مسابقة كرة قدم دولية يقيمها الاتحاد الدولي لكرة القدم ( الفيفا ) . أقيمت البطولة أول مرة عام 1930 م وتقام بطولة كأس العالم لكرة القدم حتى الآن كل أربع سنوات باستثناء بطولتي عام 1942 و 1946 م اللتين ألغيتا بسبب الحرب العالمية الثانية . أقيمت البطولة 21 مرة ، شارك في النهائيات 78 دولة ، وعدد الفرق التي فازت بالبطولة حتى الآن 8 فرق ، ويعد المنتخب البرازيلي الأكثر تتويجا بالكأس حيث فاز بها 5 مرات أعوام : 1958 ، 1962 ، 1970 ، 1994 و 2002 . يليه المنتخب الإيطالي الذي أحرزها 4 مرات في أعوام : 1934 ، 1938 ، 1982 و 2006 ، بالمشاركة مع المنتخب الألماني الذي حققها 4 مرات أيضا أعوام : 1954 ، 1974 و 1990 و 2014 ، ثم الأوروغواي والأرجنتين وفرنسا برصيد بطولتين . بينما أحرزت منتخبات إنجلترا وإسبانيا البطولة مرة واحدة . +question : متى اقيمت اول بطولة لكأس العالم +prompt : أجب عن السؤال التالي : متى اقيمت اول بطولة لكأس العالم الجواب هو +pred_answer : في عام +answer : عام 1930 + +context : بطولة كأس العالم لكرة القدم هي أهم مسابقة كرة قدم دولية يقيمها الاتحاد الدولي لكرة القدم ( الفيفا ) . أقيمت البطولة أول مرة عام 1930 م وتقام بطولة كأس العالم لكرة القدم حتى الآن كل أربع سنوات باستثناء بطولتي عام 1942 و 1946 م اللتين ألغيتا بسبب الحرب العالمية الثانية . أقيمت البطولة 21 مرة ، شارك في النهائيات 78 دولة ، وعدد الفرق التي فازت بالبطولة حتى الآن 8 فرق ، ويعد المنتخب البرازيلي الأكثر تتويجا بالكأس حيث فاز بها 5 مرات أعوام : 1958 ، 1962 ، 1970 ، 1994 و 2002 . يليه المنتخب الإيطالي الذي أحرزها 4 مرات في أعوام : 1934 ، 1938 ، 1982 و 2006 ، بالمشاركة مع المنتخب الألماني الذي حققها 4 مرات أيضا أعوام : 1954 ، 1974 و 1990 و 2014 ، ثم الأوروغواي والأرجنتين وفرنسا برصيد بطولتين . بينما أحرزت منتخبات إنجلترا وإسبانيا البطولة مرة واحدة . +question : كم مرة اقيمت بطولة كأس العالم ؟ +prompt : أجب عن السؤال التالي : كم مرة اقيمت بطولة كأس العالم ؟ الجواب هو +pred_answer : ثلاث مرات +answer : 21 مرة + +context : ويعتبر المنتخب الإيطالي أول منتخب يحرز البطولة مرتين متتاليتين عامي 1934 و 1938 . بينما استطاعت منتخبات الأوروغواي وإنجلترا وإسبانيا الفوز بالبطولة دون خسارة نهائي ، ويعد المنتخب الهولندي من أكثر المنتخبات وصولا إلى المباراة النهائية دون إحراز البطولة برصيد 3 مرات . +question : من اول منتخب يفوز بالبطولة مرتين متاليتين ؟ +prompt : أجب عن السؤال التالي : من اول منتخب يفوز بالبطولة مرتين متاليتين ؟ الجواب هو +pred_answer : المنتخب البرازيلي . +answer : المنتخب الإيطالي + +context : ويعتبر المنتخب الإيطالي أول منتخب يحرز البطولة مرتين متتاليتين عامي 1934 و 1938 . بينما استطاعت منتخبات الأوروغواي وإنجلترا وإسبانيا الفوز بالبطولة دون خسارة نهائي ، ويعد المنتخب الهولندي من أكثر المنتخبات وصولا إلى المباراة النهائية دون إحراز البطولة برصيد 3 مرات . +question : متى فاز المنتخب الايطالى بالبطولة مرتين متتاليتين ؟ +prompt : أجب عن السؤال التالي : متى فاز المنتخب الايطالى بالبطولة مرتين متتاليتين ؟ الجواب هو +pred_answer : عامى 1934 و 1938 +answer : عامي 1934 و 1938 + +context : ويعتبر المنتخب الإيطالي أول منتخب يحرز البطولة مرتين متتاليتين عامي 1934 و 1938 . بينما استطاعت منتخبات الأوروغواي وإنجلترا وإسبانيا الفوز بالبطولة دون خسارة نهائي ، ويعد المنتخب الهولندي من أكثر المنتخبات وصولا إلى المباراة النهائية دون إحراز البطولة برصيد 3 مرات . +question : من اكثر المنتخبات وصولا للمباراة النهائية دون احراز البطولة ؟ +prompt : أجب عن السؤال التالي : من اكثر المنتخبات وصولا للمباراة النهائية دون احراز البطولة ؟ الجواب هو +pred_answer : المنتخب الهولندي الذي +answer : المنتخب الهولندي + +context : تهيمن قارتا أوروبا وأمريكا الجنوبية على منافسات كأس العالم لكرة القدم ، فلم يخرج اللقب من تلك القارتين منذ إنشاء البطولة ، بل لم يتمكن أي فريق من خارج تلك القارتين بالتأهل للمباراة النهائية . ثمان منتخبات استطاعت الفوز بلقب كأس العالم ، 3 منهم في قارة أمريكا الجنوبية وهم البرازيل والأرجنتين والأوروغواي و 5 من القارة الأوروبية وهم إيطاليا وألمانيا وإنجلترا وفرنسا وإسبانيا . فخلال 21 نسخة من نسخ كأس العالم حققت المنتخبات الأوروبية 12 لقبا ، في المقابل حققت منتخبات أمريكا الجنوبية 9 ألقاب فقط . تكرر الحال في استضافة منافسات فمنذ نشأتها إلى عام 1970 ، لم تقم البطولة خارج القارتين . لكن في عام 1970 أقيمت البطولة لأول مرة في قارة أمريكا الشمالية وتحديدا في المكسيك ، تلتها أيضا أعوام 1986 في المكسيك ، و 1994 في الولايات المتحدة الأمريكية . وبعد إقرار الفيفا لمبدأ المداورة في تنطيم كأس العالم ، استضافات دول آسيا وهي كوريا الجنوبية واليابان منافسات كأس العالم لكرة القدم 2002 ، واستضافت جنوب أفريقيا منافسات كأس العالم لكرة القدم 2010 ، وتبقى بذلك قارة أوقيانوسيا الوحيدة التي لم تستضف فعاليات المنافسة . +question : كم عدد المنتخبات اللتى فازت بلقب كأس العالم ؟ +prompt : أجب عن السؤال التالي : كم عدد المنتخبات اللتى فازت بلقب كأس العالم ؟ الجواب هو +pred_answer : 12 منتخب +answer : ثمان منتخبات + +context : تهيمن قارتا أوروبا وأمريكا الجنوبية على منافسات كأس العالم لكرة القدم ، فلم يخرج اللقب من تلك القارتين منذ إنشاء البطولة ، بل لم يتمكن أي فريق من خارج تلك القارتين بالتأهل للمباراة النهائية . ثمان منتخبات استطاعت الفوز بلقب كأس العالم ، 3 منهم في قارة أمريكا الجنوبية وهم البرازيل والأرجنتين والأوروغواي و 5 من القارة الأوروبية وهم إيطاليا وألمانيا وإنجلترا وفرنسا وإسبانيا . فخلال 21 نسخة من نسخ كأس العالم حققت المنتخبات الأوروبية 12 لقبا ، في المقابل حققت منتخبات أمريكا الجنوبية 9 ألقاب فقط . تكرر الحال في استضافة منافسات فمنذ نشأتها إلى عام 1970 ، لم تقم البطولة خارج القارتين . لكن في عام 1970 أقيمت البطولة لأول مرة في قارة أمريكا الشمالية وتحديدا في المكسيك ، تلتها أيضا أعوام 1986 في المكسيك ، و 1994 في الولايات المتحدة الأمريكية . وبعد إقرار الفيفا لمبدأ المداورة في تنطيم كأس العالم ، استضافات دول آسيا وهي كوريا الجنوبية واليابان منافسات كأس العالم لكرة القدم 2002 ، واستضافت جنوب أفريقيا منافسات كأس العالم لكرة القدم 2010 ، وتبقى بذلك قارة أوقيانوسيا الوحيدة التي لم تستضف فعاليات المنافسة . +question : من هى المنتخبات اللتى فازت بلقب كأس العالم ؟ +prompt : أجب عن السؤال التالي : من هى المنتخبات اللتى فازت بلقب كأس العالم ؟ الجواب هو +pred_answer : منتخب البرازيل ، حيث فاز بكأس العالم خمس مرات . +answer : القارة الأوروبية وهم إيطاليا وألمانيا وإنجلترا وفرنسا وإسبانيا + +context : فرقة إكسو بالكورية : ، بالألفبائية الدولية : " k s " ) هي فرقة فتيان كورية جنوبية صينية تشكلت بواسطة إس إم إنترتينمنت ، تأسست الفرقة في عام 2011 ، في مدينة سول بكوريا الجنوبية . في يناير 2011 ، أعلن المنتج إي سو مان من شركة إس إم إنترتينمنت خططه عن ترسيم فرقة فتيان جديدة في مارس أو أبريل من عام 2011 . تم تسميتهم مؤقتا ب ( M1 ) ، في البداية الفرقة ظهرت كسبعة أعضاء فقط حين تسربت صورة لهم في إستوديو للرقص على الإنترنت . في مايو 2011 ، تحدث إي سو مان عن الفرقة في ندوة لرجال الأعمال " هاليو " التي عقدت في جامعة ستانفورد . في العرض التقديمي ، وضح استراتيجيته عن تقسيم الفرقة إلى فرقتين فرعيتين ، M1 وM2 ، لكي يروجوا بنفس الموسيقى في كوريا الجنوبية والصين ، ولكي يؤدوا بنفس الأغاني باللغة الكورية واللغة الصينية . إي سو مان خطط لترسيم الفرقة في مايو 2011 ولكن ترسيمهم تأجل ولم يظهر حتى أكتوبر 2011 ، عندما ناقش إي سو مان بإيجاز عن خطط مفهوم الفرقة مجددا في مقابلة مع صحيفة تشوسون إلبو . +question : في أي عام تأسست فرقة إكسو ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست فرقة إكسو ؟ الجواب هو في عام +pred_answer : 1984 ، +answer : 2011 + +context : فرقة إكسو بالكورية : ، بالألفبائية الدولية : " k s " ) هي فرقة فتيان كورية جنوبية صينية تشكلت بواسطة إس إم إنترتينمنت ، تأسست الفرقة في عام 2011 ، في مدينة سول بكوريا الجنوبية . في يناير 2011 ، أعلن المنتج إي سو مان من شركة إس إم إنترتينمنت خططه عن ترسيم فرقة فتيان جديدة في مارس أو أبريل من عام 2011 . تم تسميتهم مؤقتا ب ( M1 ) ، في البداية الفرقة ظهرت كسبعة أعضاء فقط حين تسربت صورة لهم في إستوديو للرقص على الإنترنت . في مايو 2011 ، تحدث إي سو مان عن الفرقة في ندوة لرجال الأعمال " هاليو " التي عقدت في جامعة ستانفورد . في العرض التقديمي ، وضح استراتيجيته عن تقسيم الفرقة إلى فرقتين فرعيتين ، M1 وM2 ، لكي يروجوا بنفس الموسيقى في كوريا الجنوبية والصين ، ولكي يؤدوا بنفس الأغاني باللغة الكورية واللغة الصينية . إي سو مان خطط لترسيم الفرقة في مايو 2011 ولكن ترسيمهم تأجل ولم يظهر حتى أكتوبر 2011 ، عندما ناقش إي سو مان بإيجاز عن خطط مفهوم الفرقة مجددا في مقابلة مع صحيفة تشوسون إلبو . +question : في أي مدينة تأسست فرقة إكسو ؟ +prompt : أجب عن السؤال التالي : في أي مدينة تأسست فرقة إكسو ؟ الجواب هو +pred_answer : أن هذه الفرقة تأسست في +answer : مدينة سول بكوريا الجنوبية + +context : فرقة إكسو بالكورية : ، بالألفبائية الدولية : " k s " ) هي فرقة فتيان كورية جنوبية صينية تشكلت بواسطة إس إم إنترتينمنت ، تأسست الفرقة في عام 2011 ، في مدينة سول بكوريا الجنوبية . في يناير 2011 ، أعلن المنتج إي سو مان من شركة إس إم إنترتينمنت خططه عن ترسيم فرقة فتيان جديدة في مارس أو أبريل من عام 2011 . تم تسميتهم مؤقتا ب ( M1 ) ، في البداية الفرقة ظهرت كسبعة أعضاء فقط حين تسربت صورة لهم في إستوديو للرقص على الإنترنت . في مايو 2011 ، تحدث إي سو مان عن الفرقة في ندوة لرجال الأعمال " هاليو " التي عقدت في جامعة ستانفورد . في العرض التقديمي ، وضح استراتيجيته عن تقسيم الفرقة إلى فرقتين فرعيتين ، M1 وM2 ، لكي يروجوا بنفس الموسيقى في كوريا الجنوبية والصين ، ولكي يؤدوا بنفس الأغاني باللغة الكورية واللغة الصينية . إي سو مان خطط لترسيم الفرقة في مايو 2011 ولكن ترسيمهم تأجل ولم يظهر حتى أكتوبر 2011 ، عندما ناقش إي سو مان بإيجاز عن خطط مفهوم الفرقة مجددا في مقابلة مع صحيفة تشوسون إلبو . +question : في أي عام تحدث إي سو مان عن فرقة إكسو خلال ندوة رجال الأعمال ؟ +prompt : أجب عن السؤال التالي : في أي عام تحدث إي سو مان عن فرقة إكسو خلال ندوة رجال الأعمال ؟ الجواب هو في عام +pred_answer : 2009 . +answer : 2011 + +context : في ديسمبر 2011 ، الفرقة اختارت اسمها الذي هو إكسو ، مع أسماء إكسو - كي للفرقة الكورية وإكسو - إم للفرقة الصينية . وتم التعريف عن الأعضاء الأثني عشر بشكل منفرد من خلال 23 تيرز " إعلان " مختلف صدر من ديسمبر 2011 إلى فبراير 2012 . وكان كل من كاي ولوهان وتاو وتشين ، أول أربعة أعضاء يتم التعريف عنهم وقد ظهروا لأول مرة في أول أداء علني لهم في حدث نظام بث سول " دايجو دايجون " بتاريخ 29 ديسمبر 2011 . +question : من هم أول أربعة الأعضاء اللذين تم التعرف عليهم ؟ +prompt : أجب عن السؤال التالي : من هم أول أربعة الأعضاء اللذين تم التعرف عليهم ؟ الجواب هو +pred_answer : محمد بن عبد الله صلى الله عليه +answer : كاي ولوهان وتاو وتشين + +context : في ديسمبر 2011 ، الفرقة اختارت اسمها الذي هو إكسو ، مع أسماء إكسو - كي للفرقة الكورية وإكسو - إم للفرقة الصينية . وتم التعريف عن الأعضاء الأثني عشر بشكل منفرد من خلال 23 تيرز " إعلان " مختلف صدر من ديسمبر 2011 إلى فبراير 2012 . وكان كل من كاي ولوهان وتاو وتشين ، أول أربعة أعضاء يتم التعريف عنهم وقد ظهروا لأول مرة في أول أداء علني لهم في حدث نظام بث سول " دايجو دايجون " بتاريخ 29 ديسمبر 2011 . +question : في أي عام إختارت الفرقة إسمها ؟ +prompt : أجب عن السؤال التالي : في أي عام إختارت الفرقة إسمها ؟ الجواب هو في عام +pred_answer : 1986 +answer : 2011 + +context : في ديسمبر 2011 ، الفرقة اختارت اسمها الذي هو إكسو ، مع أسماء إكسو - كي للفرقة الكورية وإكسو - إم للفرقة الصينية . وتم التعريف عن الأعضاء الأثني عشر بشكل منفرد من خلال 23 تيرز " إعلان " مختلف صدر من ديسمبر 2011 إلى فبراير 2012 . وكان كل من كاي ولوهان وتاو وتشين ، أول أربعة أعضاء يتم التعريف عنهم وقد ظهروا لأول مرة في أول أداء علني لهم في حدث نظام بث سول " دايجو دايجون " بتاريخ 29 ديسمبر 2011 . +question : ما هو تاريخ أول أداء علني لفرقة إكسو ؟ +prompt : أجب عن السؤال التالي : ما هو تاريخ أول أداء علني لفرقة إكسو ؟ الجواب هو +pred_answer : أن فرقة إكس +answer : 29 ديسمبر 2011 + +context : في 15 مايو 2014 قام كريس برفع قضية على وكالة إس إم بسبب كثرة الأعمال وفي وقت القضية لم يحضرها ، وفي شهر أكتوبر سنة 2014 قام لوهان برفع قضية على الوكالة والمحامي هو نفسه لكل من كريس ولوهان وهانكيونغ من سوبر جونيور . +question : في أي عام قام كريس برفع قضية على وكالة إس إم ؟ +prompt : أجب عن السؤال التالي : في أي عام قام كريس برفع قضية على وكالة إس إم ؟ الجواب هو في عام +pred_answer : 2009 . +answer : 2014 + +context : في 15 مايو 2014 قام كريس برفع قضية على وكالة إس إم بسبب كثرة الأعمال وفي وقت القضية لم يحضرها ، وفي شهر أكتوبر سنة 2014 قام لوهان برفع قضية على الوكالة والمحامي هو نفسه لكل من كريس ولوهان وهانكيونغ من سوبر جونيور . +question : ما هو سبب رفع كريس قضية ضد وكالة إس إم ؟ +prompt : أجب عن السؤال التالي : ما هو سبب رفع كريس قضية ضد وكالة إس إم ؟ الجواب هو +pred_answer : أنه يريد أن +answer : كثرة الأعمال + +context : في 15 مايو 2014 قام كريس برفع قضية على وكالة إس إم بسبب كثرة الأعمال وفي وقت القضية لم يحضرها ، وفي شهر أكتوبر سنة 2014 قام لوهان برفع قضية على الوكالة والمحامي هو نفسه لكل من كريس ولوهان وهانكيونغ من سوبر جونيور . +question : في أي عام رفع لوهان قضية على الوكالة و المحامي ؟ +prompt : أجب عن السؤال التالي : في أي عام رفع لوهان قضية على الوكالة و المحامي ؟ الجواب هو في عام +pred_answer : 2009 . +answer : 2014 + +context : فاطمة بنت الشيخ إبراهيم السيد البلتاجي وتعرف أيضا بعدة ألقاب أبرزها أم كلثوم ومنها : ثومة ، الجامعة العربية ، الست ، سيدة الغناء العربي ، شمس الأصيل ، صاحبة العصمة ، كوكب الشرق ، قيثارة الشرق ، فنانة الشعب . ولدت فاطمة لأسرة متواضعة في قرية ريفية تسمى طماي الزهايرة ، في مركز السنبلاوين محافظة الدقهلية ، الخديوية المصرية ، كان والدها الشيخ إبراهيم إمام ومؤذن لمسجد في القرية ، ووالدتها فاطمة المليجي تعمل كربة منزل . تضاربت مصادر تاريخ ميلادها الدقيق ، فبعض المصادر تشير إلى أن تاريخ ميلادها يعود لتاريخ 30 ديسمبر 1898 م ، ومصادر أخرى ترجح أن ميلادها يرجع لتاريخ 4 مايو 1908 م وهو المذكور في سجل مواليد المحافظة . عاشت العائلة في مسكن صغير مشيد من طوب طيني . وكانت حالة الدخل المادي للأسرة منخفضة ، حيث أن المصدر الرئيس للدخل هو أبيها الذي يعمل كمنشد في حفلات الزواج للقرية . +question : أين ولدت أم كلثوم ؟ +prompt : أجب عن السؤال التالي : أين ولدت أم كلثوم ؟ الجواب هو +pred_answer : أنها ولدت في قرية طماي الزهايرة +answer : قرية ريفية تسمى طماي الزهايرة + +context : فاطمة بنت الشيخ إبراهيم السيد البلتاجي وتعرف أيضا بعدة ألقاب أبرزها أم كلثوم ومنها : ثومة ، الجامعة العربية ، الست ، سيدة الغناء العربي ، شمس الأصيل ، صاحبة العصمة ، كوكب الشرق ، قيثارة الشرق ، فنانة الشعب . ولدت فاطمة لأسرة متواضعة في قرية ريفية تسمى طماي الزهايرة ، في مركز السنبلاوين محافظة الدقهلية ، الخديوية المصرية ، كان والدها الشيخ إبراهيم إمام ومؤذن لمسجد في القرية ، ووالدتها فاطمة المليجي تعمل كربة منزل . تضاربت مصادر تاريخ ميلادها الدقيق ، فبعض المصادر تشير إلى أن تاريخ ميلادها يعود لتاريخ 30 ديسمبر 1898 م ، ومصادر أخرى ترجح أن ميلادها يرجع لتاريخ 4 مايو 1908 م وهو المذكور في سجل مواليد المحافظة . عاشت العائلة في مسكن صغير مشيد من طوب طيني . وكانت حالة الدخل المادي للأسرة منخفضة ، حيث أن المصدر الرئيس للدخل هو أبيها الذي يعمل كمنشد في حفلات الزواج للقرية . +question : ما هو إسم والد أم كلثوم ؟ +prompt : أجب عن السؤال التالي : ما هو إسم والد أم كلثوم ؟ الجواب هو +pred_answer : : محمد +answer : الشيخ إبراهيم + +context : فاطمة بنت الشيخ إبراهيم السيد البلتاجي وتعرف أيضا بعدة ألقاب أبرزها أم كلثوم ومنها : ثومة ، الجامعة العربية ، الست ، سيدة الغناء العربي ، شمس الأصيل ، صاحبة العصمة ، كوكب الشرق ، قيثارة الشرق ، فنانة الشعب . ولدت فاطمة لأسرة متواضعة في قرية ريفية تسمى طماي الزهايرة ، في مركز السنبلاوين محافظة الدقهلية ، الخديوية المصرية ، كان والدها الشيخ إبراهيم إمام ومؤذن لمسجد في القرية ، ووالدتها فاطمة المليجي تعمل كربة منزل . تضاربت مصادر تاريخ ميلادها الدقيق ، فبعض المصادر تشير إلى أن تاريخ ميلادها يعود لتاريخ 30 ديسمبر 1898 م ، ومصادر أخرى ترجح أن ميلادها يرجع لتاريخ 4 مايو 1908 م وهو المذكور في سجل مواليد المحافظة . عاشت العائلة في مسكن صغير مشيد من طوب طيني . وكانت حالة الدخل المادي للأسرة منخفضة ، حيث أن المصدر الرئيس للدخل هو أبيها الذي يعمل كمنشد في حفلات الزواج للقرية . +question : ما هو إسم والدة أم كلثوم ؟ +prompt : أجب عن السؤال التالي : ما هو إسم والدة أم كلثوم ؟ الجواب هو +pred_answer : : زينب بنت علي +answer : فاطمة المليجي + +context : وبالرغم من الحالة المادية الصعبة للأسرة إلا أن والديها قاما بإلحاقها بكتاب القرية لتتعلم وتعلمت الغناء من والدها في سن صغيرة ، فبرزت موهبتها المميزة ، وعلمها أيضا تلاوة القرآن ، وذكرت أنها قد حفظته عن ظهر قلب . وذات مرة سمعت أباها يعلم أخيها خالد الغناء ، حيث كان يصطحبه ليغني معه في الإحتفالات ، فعندما سمع ما تعلمته انبهر من قوة نبرتها ، فطلب منها أن تنضم معه لدروس الغناء ، وبدأت الغناء بسن الثانية عشر وذلك بعدما كان يصطحبها والدها إلى الحفلات لتغني معه وكانت تغني وهي تلبس العقال وملابس الأولاد . وبعدما سمعها القاضي علي بك أبو حسين قال لوالدها : " لديك كنز لا تعرف قدره . . . يكمن في حنجرة ابنتك ، " وأوصاه بالإعتناء بها . +question : في أي سن بدأت أم كلثوم الغناء ؟ +prompt : أجب عن السؤال التالي : في أي سن بدأت أم كلثوم الغناء ؟ الجواب هو +pred_answer : أن أم كلثوم +answer : الثانية عشر + +context : وبالرغم من الحالة المادية الصعبة للأسرة إلا أن والديها قاما بإلحاقها بكتاب القرية لتتعلم وتعلمت الغناء من والدها في سن صغيرة ، فبرزت موهبتها المميزة ، وعلمها أيضا تلاوة القرآن ، وذكرت أنها قد حفظته عن ظهر قلب . وذات مرة سمعت أباها يعلم أخيها خالد الغناء ، حيث كان يصطحبه ليغني معه في الإحتفالات ، فعندما سمع ما تعلمته انبهر من قوة نبرتها ، فطلب منها أن تنضم معه لدروس الغناء ، وبدأت الغناء بسن الثانية عشر وذلك بعدما كان يصطحبها والدها إلى الحفلات لتغني معه وكانت تغني وهي تلبس العقال وملابس الأولاد . وبعدما سمعها القاضي علي بك أبو حسين قال لوالدها : " لديك كنز لا تعرف قدره . . . يكمن في حنجرة ابنتك ، " وأوصاه بالإعتناء بها . +question : ما هو إسم أخ أم كلثوم ؟ +prompt : أجب عن السؤال التالي : ما هو إسم أخ أم كلثوم ؟ الجواب هو +pred_answer : : +answer : خالد + +context : وبالرغم من الحالة المادية الصعبة للأسرة إلا أن والديها قاما بإلحاقها بكتاب القرية لتتعلم وتعلمت الغناء من والدها في سن صغيرة ، فبرزت موهبتها المميزة ، وعلمها أيضا تلاوة القرآن ، وذكرت أنها قد حفظته عن ظهر قلب . وذات مرة سمعت أباها يعلم أخيها خالد الغناء ، حيث كان يصطحبه ليغني معه في الإحتفالات ، فعندما سمع ما تعلمته انبهر من قوة نبرتها ، فطلب منها أن تنضم معه لدروس الغناء ، وبدأت الغناء بسن الثانية عشر وذلك بعدما كان يصطحبها والدها إلى الحفلات لتغني معه وكانت تغني وهي تلبس العقال وملابس الأولاد . وبعدما سمعها القاضي علي بك أبو حسين قال لوالدها : " لديك كنز لا تعرف قدره . . . يكمن في حنجرة ابنتك ، " وأوصاه بالإعتناء بها . +question : ماذا كانت أم كلثوم تلبس في الحفلات عندما كانت صغيرة ؟ +prompt : أجب عن السؤال التالي : ماذا كانت أم كلثوم تلبس في الحفلات عندما كانت صغيرة ؟ الجواب هو +pred_answer : أن أم كلثوم كانت +answer : العقال وملابس الأولاد + +context : بدأ صيت ام كلثوم يذيع منذ صغرها ، حين كان عملها مجرد مصدر دخل إضافي للأسرة ، لكنها تجاوزت أحلام الأب حين تحولت إلى المصدر الرئيس لدخل الأسرة ، أدرك الأب ذلك عندما أصبح الشيخ خالد ابنه المنشد وعندما أصبح الأب ذاته في بطانة ابنته الصغيرة . وفي ذات مرة تصادف أن كان أبو العلا معها في القطار وسمعها تردد ألحانه دون أن تعرف أنه معها في القطار ، وذلك بعد عام 1916 م حيث تعرف والدها على الشيخين زكريا أحمد وأبو العلا محمد الذين أتيا إلى السنبلاوين لإحياء ليالي رمضان وبكثير من الإلحاح أقنعا الأب بالانتقال إلى القاهرة ومعه أم كلثوم وذلك في عام 1922 م . كانت تلك الخطوة الأولى في مشوارها الفني . حينها أحيت ليلة الإسراء والمعراج بقصر عز الدين يكن باشا وأعطتها سيدة القصر خاتما ذهبيا وتلقت أم كلثوم 3 جنيهات أجرا لها . +question : في أي عام إنتقلت أم كلثوم و والدها إلى القاهرة ؟ +prompt : أجب عن السؤال التالي : في أي عام إنتقلت أم كلثوم و والدها إلى القاهرة ؟ الجواب هو +pred_answer : سنة 1923 م +answer : 1922 م + +context : بدأ صيت ام كلثوم يذيع منذ صغرها ، حين كان عملها مجرد مصدر دخل إضافي للأسرة ، لكنها تجاوزت أحلام الأب حين تحولت إلى المصدر الرئيس لدخل الأسرة ، أدرك الأب ذلك عندما أصبح الشيخ خالد ابنه المنشد وعندما أصبح الأب ذاته في بطانة ابنته الصغيرة . وفي ذات مرة تصادف أن كان أبو العلا معها في القطار وسمعها تردد ألحانه دون أن تعرف أنه معها في القطار ، وذلك بعد عام 1916 م حيث تعرف والدها على الشيخين زكريا أحمد وأبو العلا محمد الذين أتيا إلى السنبلاوين لإحياء ليالي رمضان وبكثير من الإلحاح أقنعا الأب بالانتقال إلى القاهرة ومعه أم كلثوم وذلك في عام 1922 م . كانت تلك الخطوة الأولى في مشوارها الفني . حينها أحيت ليلة الإسراء والمعراج بقصر عز الدين يكن باشا وأعطتها سيدة القصر خاتما ذهبيا وتلقت أم كلثوم 3 جنيهات أجرا لها . +question : أين أحيت أم كلثوم ليلة الإسراء و المعراج ؟ +prompt : أجب عن السؤال التالي : أين أحيت أم كلثوم ليلة الإسراء و المعراج ؟ الجواب هو +pred_answer : أن أم كلثوم غنت هذه الليلة +answer : بقصر عز الدين يكن باشا + +context : بدأ صيت ام كلثوم يذيع منذ صغرها ، حين كان عملها مجرد مصدر دخل إضافي للأسرة ، لكنها تجاوزت أحلام الأب حين تحولت إلى المصدر الرئيس لدخل الأسرة ، أدرك الأب ذلك عندما أصبح الشيخ خالد ابنه المنشد وعندما أصبح الأب ذاته في بطانة ابنته الصغيرة . وفي ذات مرة تصادف أن كان أبو العلا معها في القطار وسمعها تردد ألحانه دون أن تعرف أنه معها في القطار ، وذلك بعد عام 1916 م حيث تعرف والدها على الشيخين زكريا أحمد وأبو العلا محمد الذين أتيا إلى السنبلاوين لإحياء ليالي رمضان وبكثير من الإلحاح أقنعا الأب بالانتقال إلى القاهرة ومعه أم كلثوم وذلك في عام 1922 م . كانت تلك الخطوة الأولى في مشوارها الفني . حينها أحيت ليلة الإسراء والمعراج بقصر عز الدين يكن باشا وأعطتها سيدة القصر خاتما ذهبيا وتلقت أم كلثوم 3 جنيهات أجرا لها . +question : ما هو أجر أم كلثوم حين أحيت ليلة الإسراء و المعراج في قصر عز الدين يكن باشا ؟ +prompt : أجب عن السؤال التالي : ما هو أجر أم كلثوم حين أحيت ليلة الإسراء و المعراج في قصر عز الدين يكن باشا ؟ الجواب هو +pred_answer : أنها غنت +answer : 3 جنيهات + +context : الشيعة هو اسم يطلق على ثاني أكبر طائفة من المسلمين ، وهم الذين عرفوا تاريخيا ب " شيعة علي " أو " أتباع علي " . الشيعة لغة الفرقة والأتباع والأعوان ، اخذت من الشياع والمشايعة بمعنى المتابعة والمطاوعة . قال ابن منظور : الشيعة كل قوم اجتمعوا على أمر فهم شيعة ، وكل قوم أمرهم واحد يتبع بعضهم رأي بعض فهم شيعة ، والجمع شيع . وقد غلب هذا الاسم على من يتوالى عليا وأهل بيته . ورد لفظ شيعة في القرآن الكريم في العديد من الآيات بمعان مختلفة منها +question : ما هي ثاني أكبر طائفة من المسلمين ؟ +prompt : أجب عن السؤال التالي : ما هي ثاني أكبر طائفة من المسلمين ؟ الجواب هو +pred_answer : أن الشيعة +answer : الشيعة + +context : الشيعة هو اسم يطلق على ثاني أكبر طائفة من المسلمين ، وهم الذين عرفوا تاريخيا ب " شيعة علي " أو " أتباع علي " . الشيعة لغة الفرقة والأتباع والأعوان ، اخذت من الشياع والمشايعة بمعنى المتابعة والمطاوعة . قال ابن منظور : الشيعة كل قوم اجتمعوا على أمر فهم شيعة ، وكل قوم أمرهم واحد يتبع بعضهم رأي بعض فهم شيعة ، والجمع شيع . وقد غلب هذا الاسم على من يتوالى عليا وأهل بيته . ورد لفظ شيعة في القرآن الكريم في العديد من الآيات بمعان مختلفة منها +question : أين ورد لفظ شيعة ؟ +prompt : أجب عن السؤال التالي : أين ورد لفظ شيعة ؟ الجواب هو +pred_answer : في القرآن الكريم +answer : القرآن الكريم + +context : الشيعة هو اسم يطلق على ثاني أكبر طائفة من المسلمين ، وهم الذين عرفوا تاريخيا ب " شيعة علي " أو " أتباع علي " . الشيعة لغة الفرقة والأتباع والأعوان ، اخذت من الشياع والمشايعة بمعنى المتابعة والمطاوعة . قال ابن منظور : الشيعة كل قوم اجتمعوا على أمر فهم شيعة ، وكل قوم أمرهم واحد يتبع بعضهم رأي بعض فهم شيعة ، والجمع شيع . وقد غلب هذا الاسم على من يتوالى عليا وأهل بيته . ورد لفظ شيعة في القرآن الكريم في العديد من الآيات بمعان مختلفة منها +question : ما هو جمع شيعة ؟ +prompt : أجب عن السؤال التالي : ما هو جمع شيعة ؟ الجواب هو +pred_answer : أن الشيعة +answer : شيع + +context : لفظ شيعة في الأساس من الفعل تشيع وهو الاتباع . وعلى مدار التاريخ الإسلامي أطلق لفظ شيعة على العديد من الحركات الإسلامية المجموعات مثل شيعة عثمان وشيعة معاوية وغيرهم ولكن لفظة الشيعة وحدها تعتبر علما لشيعة علي متبعيه . ويرى الشيعة بأن أصل التسمية ورد في حديث لمحمد بن عبد الله نبي الإسلام في حياته حيث سأله علي بن أبي طالب عن خير البرية فأجابه : « أنت وشيعتك » ، لذلك يعتقد الشيعة أن التشيع لم يظهر بعد وفاة محمد بل هو الإسلام الحقيقي الذي بعث به محمد . وقد ورد هذا الحديث بروايات مختلفة في كتب الشيعة وبعض المذاهب الإسلامية الأخرى . +question : ماذا يعتقد الشيعة عن التشيع ؟ +prompt : أجب عن السؤال التالي : ماذا يعتقد الشيعة عن التشيع ؟ الجواب هو +pred_answer : أن الشيعة يعتقدون أن التشيع ليس مذه +answer : الإسلام الحقيقي الذي بعث به محمد + +context : لفظ شيعة في الأساس من الفعل تشيع وهو الاتباع . وعلى مدار التاريخ الإسلامي أطلق لفظ شيعة على العديد من الحركات الإسلامية المجموعات مثل شيعة عثمان وشيعة معاوية وغيرهم ولكن لفظة الشيعة وحدها تعتبر علما لشيعة علي متبعيه . ويرى الشيعة بأن أصل التسمية ورد في حديث لمحمد بن عبد الله نبي الإسلام في حياته حيث سأله علي بن أبي طالب عن خير البرية فأجابه : « أنت وشيعتك » ، لذلك يعتقد الشيعة أن التشيع لم يظهر بعد وفاة محمد بل هو الإسلام الحقيقي الذي بعث به محمد . وقد ورد هذا الحديث بروايات مختلفة في كتب الشيعة وبعض المذاهب الإسلامية الأخرى . +question : أين ورد أصل تسمية الشيعة ؟ +prompt : أجب عن السؤال التالي : أين ورد أصل تسمية الشيعة ؟ الجواب هو +pred_answer : أن أول من سمى الشيعة بهذا الاسم هم +answer : حديث لمحمد بن عبد الله نبي الإسلام + +context : لفظ شيعة في الأساس من الفعل تشيع وهو الاتباع . وعلى مدار التاريخ الإسلامي أطلق لفظ شيعة على العديد من الحركات الإسلامية المجموعات مثل شيعة عثمان وشيعة معاوية وغيرهم ولكن لفظة الشيعة وحدها تعتبر علما لشيعة علي متبعيه . ويرى الشيعة بأن أصل التسمية ورد في حديث لمحمد بن عبد الله نبي الإسلام في حياته حيث سأله علي بن أبي طالب عن خير البرية فأجابه : « أنت وشيعتك » ، لذلك يعتقد الشيعة أن التشيع لم يظهر بعد وفاة محمد بل هو الإسلام الحقيقي الذي بعث به محمد . وقد ورد هذا الحديث بروايات مختلفة في كتب الشيعة وبعض المذاهب الإسلامية الأخرى . +question : ما هو فعل كلمة شيعة ؟ +prompt : أجب عن السؤال التالي : ما هو فعل كلمة شيعة ؟ الجواب هو +pred_answer : أن الشيعة +answer : تشيع + +context : يؤمن الشيعة أن التشيع هو الإسلام ذاته ، ويتبناه الشيعة أنفسهم حيث يرون أن المذهب الشيعي أصلا لم يظهر بعد الإسلام . ويرون أن المسلم التقي يجب أن يتشيع ويوالي علي بن أبي طالب ، وبالتالي فإن التشيع هو ركن من أركان الإسلام الأصيل وضع أساسه النبي محمد نفسه على مدار حياته ، فعندما نزلت الاية الكريمة من سورة البينة آية 7 . +question : بماذا يؤمن الشيعة ؟ +prompt : أجب عن السؤال التالي : بماذا يؤمن الشيعة ؟ الجواب هو +pred_answer : : الإيمان بولاية علي بن +answer : أن التشيع هو الإسلام ذاته + +context : يؤمن الشيعة أن التشيع هو الإسلام ذاته ، ويتبناه الشيعة أنفسهم حيث يرون أن المذهب الشيعي أصلا لم يظهر بعد الإسلام . ويرون أن المسلم التقي يجب أن يتشيع ويوالي علي بن أبي طالب ، وبالتالي فإن التشيع هو ركن من أركان الإسلام الأصيل وضع أساسه النبي محمد نفسه على مدار حياته ، فعندما نزلت الاية الكريمة من سورة البينة آية 7 . +question : من وضع أساس التشيع ؟ +prompt : أجب عن السؤال التالي : من وضع أساس التشيع ؟ الجواب هو +pred_answer : علي بن أبي +answer : النبي محمد + +context : يؤمن الشيعة أن التشيع هو الإسلام ذاته ، ويتبناه الشيعة أنفسهم حيث يرون أن المذهب الشيعي أصلا لم يظهر بعد الإسلام . ويرون أن المسلم التقي يجب أن يتشيع ويوالي علي بن أبي طالب ، وبالتالي فإن التشيع هو ركن من أركان الإسلام الأصيل وضع أساسه النبي محمد نفسه على مدار حياته ، فعندما نزلت الاية الكريمة من سورة البينة آية 7 . +question : ماذا يعتبر التشيع ؟ +prompt : أجب عن السؤال التالي : ماذا يعتبر التشيع ؟ الجواب هو +pred_answer : أنه مذهب من المذاهب الإسلامية ، +answer : ركن من أركان الإسلام الأصيل + +context : الأردن أو ( رسميا : المملكة الأردنية الهاشمية ) هي دولة عربية تقع في جنوب غرب آسيا ، تتوسط الشرق الأوسط بوقوعها في الجزء الجنوبي من منطقة بلاد الشام ، والشمالي لمنطقة شبه الجزيرة العربية . يعتبر الأردن بلد يجمع بين ثقافات ولهجات عربية مختلفة بشكل ملفت ، ولا تفصله أي حدود طبيعية عن جيرانه العرب سوى نهر الأردن ونهر اليرموك اللذين يشكلان على التوالي جزءا من حدوده مع فلسطين وسوريا . أما باقي الحدود فهي امتداد لبادية الشام في الشمال والشرق وصحراء النفوذ في الجنوب ، ووادي عربة إلى الجنوب الغربي . تتنوع التضاريس بالأردن بشكل كبير ، وأهم جباله جبال عجلون في الشمال الغربي ، وجبال الشراة في الجنوب ، أعلى قمة تلك الموجودة على جبل أم الدامي 1854 متر ، وأخفض نقطة في البحر الميت والتي تعتبر أخفض نقطة في العالم . +question : أين تقع الأردن ؟ +prompt : أجب عن السؤال التالي : أين تقع الأردن ؟ الجواب هو +pred_answer : أنها تقع في +answer : جنوب غرب آسيا + +context : الأردن أو ( رسميا : المملكة الأردنية الهاشمية ) هي دولة عربية تقع في جنوب غرب آسيا ، تتوسط الشرق الأوسط بوقوعها في الجزء الجنوبي من منطقة بلاد الشام ، والشمالي لمنطقة شبه الجزيرة العربية . يعتبر الأردن بلد يجمع بين ثقافات ولهجات عربية مختلفة بشكل ملفت ، ولا تفصله أي حدود طبيعية عن جيرانه العرب سوى نهر الأردن ونهر اليرموك اللذين يشكلان على التوالي جزءا من حدوده مع فلسطين وسوريا . أما باقي الحدود فهي امتداد لبادية الشام في الشمال والشرق وصحراء النفوذ في الجنوب ، ووادي عربة إلى الجنوب الغربي . تتنوع التضاريس بالأردن بشكل كبير ، وأهم جباله جبال عجلون في الشمال الغربي ، وجبال الشراة في الجنوب ، أعلى قمة تلك الموجودة على جبل أم الدامي 1854 متر ، وأخفض نقطة في البحر الميت والتي تعتبر أخفض نقطة في العالم . +question : ما هي أعلى قمة جبل في الأردن ؟ +prompt : أجب عن السؤال التالي : ما هي أعلى قمة جبل في الأردن ؟ الجواب هو +pred_answer : جبل النبي شعيب ( عليه السلام ) +answer : جبل أم الدامي 1854 متر + +context : الأردن أو ( رسميا : المملكة الأردنية الهاشمية ) هي دولة عربية تقع في جنوب غرب آسيا ، تتوسط الشرق الأوسط بوقوعها في الجزء الجنوبي من منطقة بلاد الشام ، والشمالي لمنطقة شبه الجزيرة العربية . يعتبر الأردن بلد يجمع بين ثقافات ولهجات عربية مختلفة بشكل ملفت ، ولا تفصله أي حدود طبيعية عن جيرانه العرب سوى نهر الأردن ونهر اليرموك اللذين يشكلان على التوالي جزءا من حدوده مع فلسطين وسوريا . أما باقي الحدود فهي امتداد لبادية الشام في الشمال والشرق وصحراء النفوذ في الجنوب ، ووادي عربة إلى الجنوب الغربي . تتنوع التضاريس بالأردن بشكل كبير ، وأهم جباله جبال عجلون في الشمال الغربي ، وجبال الشراة في الجنوب ، أعلى قمة تلك الموجودة على جبل أم الدامي 1854 متر ، وأخفض نقطة في البحر الميت والتي تعتبر أخفض نقطة في العالم . +question : أين توجد أخفض نقطة في العالم ؟ +prompt : أجب عن السؤال التالي : أين توجد أخفض نقطة في العالم ؟ الجواب هو +pred_answer : على بعد +answer : البحر الميت + +context : أسس الأمير عبد الله بن الحسين عام 1921 ، إمارة شرق الأردن بمساعدة بريطانيا وكانت خاضعة آنذاك لفلسطين الانتدابية ، استقلت عام 1946 ونودي بالأمير عبد الله ملكا عليها ، فعرفت منذ ذلك الحين باسم " المملكة الأردنية الهاشمية " . النظام بالمملكة الأردنية الهاشمية هو نظام ملكي دستوري مع حكومة تمثيلية . الملك يمارس سلطته التنفيذية من خلال رئيس الوزراء ومجلس الوزراء ، الذي في الوقت نفسه ، هو مسؤول أمام مجلس النواب ( المنتخب ) ومجلس الأعيان ( المعين من قبل الملك ) الذين يشكلان السلطة التشريعية للدولة . هناك أيضا السلطة القضائية المستقلة . +question : في أي عام أسست إمارة شرق الأردن ؟ +prompt : أجب عن السؤال التالي : في أي عام أسست إمارة شرق الأردن ؟ الجواب هو في عام +pred_answer : 1921 ، +answer : 1921 + +context : أسس الأمير عبد الله بن الحسين عام 1921 ، إمارة شرق الأردن بمساعدة بريطانيا وكانت خاضعة آنذاك لفلسطين الانتدابية ، استقلت عام 1946 ونودي بالأمير عبد الله ملكا عليها ، فعرفت منذ ذلك الحين باسم " المملكة الأردنية الهاشمية " . النظام بالمملكة الأردنية الهاشمية هو نظام ملكي دستوري مع حكومة تمثيلية . الملك يمارس سلطته التنفيذية من خلال رئيس الوزراء ومجلس الوزراء ، الذي في الوقت نفسه ، هو مسؤول أمام مجلس النواب ( المنتخب ) ومجلس الأعيان ( المعين من قبل الملك ) الذين يشكلان السلطة التشريعية للدولة . هناك أيضا السلطة القضائية المستقلة . +question : في أي عام إستقلت الأردن من فلسطين الإنتدابية ؟ +prompt : أجب عن السؤال التالي : في أي عام إستقلت الأردن من فلسطين الإنتدابية ؟ الجواب هو في عام +pred_answer : 1946 +answer : 1946 + +context : أسس الأمير عبد الله بن الحسين عام 1921 ، إمارة شرق الأردن بمساعدة بريطانيا وكانت خاضعة آنذاك لفلسطين الانتدابية ، استقلت عام 1946 ونودي بالأمير عبد الله ملكا عليها ، فعرفت منذ ذلك الحين باسم " المملكة الأردنية الهاشمية " . النظام بالمملكة الأردنية الهاشمية هو نظام ملكي دستوري مع حكومة تمثيلية . الملك يمارس سلطته التنفيذية من خلال رئيس الوزراء ومجلس الوزراء ، الذي في الوقت نفسه ، هو مسؤول أمام مجلس النواب ( المنتخب ) ومجلس الأعيان ( المعين من قبل الملك ) الذين يشكلان السلطة التشريعية للدولة . هناك أيضا السلطة القضائية المستقلة . +question : ما هو النظام بالمملكة الأردنية ؟ +prompt : أجب عن السؤال التالي : ما هو النظام بالمملكة الأردنية ؟ الجواب هو +pred_answer : نظام ملكي دستوري ، +answer : نظام ملكي دستوري + +context : سميت الأردن نسبة إلى نهر الأردن . تتألف كلمة جوردان ( Jordan ) من " جور " و " دان " فهي جمع لاسم رافد النهر المقدس المار بالأردن جور ( بانياس ) ورافده دان ( اللدان ) فيصبح الاسم جوردان ويوردان في بعض اللغات ، أصبحت مع الزمن أوردان وأردن ، وأطلق العرب عليه اسم الأردن ، وقد عرفت المنطقة المجاورة لنهر الأردن من منبعه إلى مصبه على الجانبين باسم " الأردن " واسم " فلسطين " على حد سواء . وتعني كلمة " الأردن " الشدة والغلبة وقيل أن الأردن أحد أحفاد نوح . ويذكر قاموس الكتاب المقدس أن الأردن اسم عبري معناه الوارد المنحدر ، وهو أهم أنهار فلسطين . الاسم الإغريقي للأردن هو يوردانيم ( jordanem ) وجوردن ( Jordan ) ومعناها المنحدر أو السحيق . وأطلق اليونان والرومان على بلاد الأردن لفظ ثيم الأردن وهو مسمى عسكري حيث كانت الأردن مقرا لمقاطعة عسكرية ، كما أطلق الفاتحون العرب على مناطق الشام اسم الأجناد ، وكان من بينها جند الأردن الذي كان يضم جزءا من جنوبي لبنان ، وشمالي فلسطين ، وكذلك أجزاء من سورية . أما مسمى شرقي الأردن ؛ فقد عرف لأول مرة في العهد الصليبي ، وأن أول تسمية بهذا المعنى نقلها وليم الصوري ، مؤرخ مملكة بيت المقدس اللاتينية ، فقد أطلق عليها " ultra jordanem " وذكر أنها تشمل بلاد ؛ جلعاد ، وعمون ، ومؤاب ، ويطلق عليها أحيانا اسم ترانس جوردن " trans Jordan " التي تعني بلاد ما وراء النهر ، عبر الأردن ، أو شرقي الأردن أيضا ، وعندما أسس الملك عبد الله بن الحسين الإمارة الأردنية أطلق على البلاد اسم إمارة الشرق العربي ثم استقلت الإمارة تحت اسم إمارة شرقي الأردن . +question : ماذا تعني كلمة " الأردن " ؟ +prompt : أجب عن السؤال التالي : ماذا تعني كلمة " الأردن " ؟ الجواب هو +pred_answer : أن المملكة الأردنية الهاشمية +answer : الشدة والغلبة + +context : سميت الأردن نسبة إلى نهر الأردن . تتألف كلمة جوردان ( Jordan ) من " جور " و " دان " فهي جمع لاسم رافد النهر المقدس المار بالأردن جور ( بانياس ) ورافده دان ( اللدان ) فيصبح الاسم جوردان ويوردان في بعض اللغات ، أصبحت مع الزمن أوردان وأردن ، وأطلق العرب عليه اسم الأردن ، وقد عرفت المنطقة المجاورة لنهر الأردن من منبعه إلى مصبه على الجانبين باسم " الأردن " واسم " فلسطين " على حد سواء . وتعني كلمة " الأردن " الشدة والغلبة وقيل أن الأردن أحد أحفاد نوح . ويذكر قاموس الكتاب المقدس أن الأردن اسم عبري معناه الوارد المنحدر ، وهو أهم أنهار فلسطين . الاسم الإغريقي للأردن هو يوردانيم ( jordanem ) وجوردن ( Jordan ) ومعناها المنحدر أو السحيق . وأطلق اليونان والرومان على بلاد الأردن لفظ ثيم الأردن وهو مسمى عسكري حيث كانت الأردن مقرا لمقاطعة عسكرية ، كما أطلق الفاتحون العرب على مناطق الشام اسم الأجناد ، وكان من بينها جند الأردن الذي كان يضم جزءا من جنوبي لبنان ، وشمالي فلسطين ، وكذلك أجزاء من سورية . أما مسمى شرقي الأردن ؛ فقد عرف لأول مرة في العهد الصليبي ، وأن أول تسمية بهذا المعنى نقلها وليم الصوري ، مؤرخ مملكة بيت المقدس اللاتينية ، فقد أطلق عليها " ultra jordanem " وذكر أنها تشمل بلاد ؛ جلعاد ، وعمون ، ومؤاب ، ويطلق عليها أحيانا اسم ترانس جوردن " trans Jordan " التي تعني بلاد ما وراء النهر ، عبر الأردن ، أو شرقي الأردن أيضا ، وعندما أسس الملك عبد الله بن الحسين الإمارة الأردنية أطلق على البلاد اسم إمارة الشرق العربي ثم استقلت الإمارة تحت اسم إمارة شرقي الأردن . +question : ماذا تعني كلمة الأردن بالعبرية ؟ +prompt : أجب عن السؤال التالي : ماذا تعني كلمة الأردن بالعبرية ؟ الجواب هو +pred_answer : " أرض جلعاد " +answer : الوارد المنحدر + +context : سميت الأردن نسبة إلى نهر الأردن . تتألف كلمة جوردان ( Jordan ) من " جور " و " دان " فهي جمع لاسم رافد النهر المقدس المار بالأردن جور ( بانياس ) ورافده دان ( اللدان ) فيصبح الاسم جوردان ويوردان في بعض اللغات ، أصبحت مع الزمن أوردان وأردن ، وأطلق العرب عليه اسم الأردن ، وقد عرفت المنطقة المجاورة لنهر الأردن من منبعه إلى مصبه على الجانبين باسم " الأردن " واسم " فلسطين " على حد سواء . وتعني كلمة " الأردن " الشدة والغلبة وقيل أن الأردن أحد أحفاد نوح . ويذكر قاموس الكتاب المقدس أن الأردن اسم عبري معناه الوارد المنحدر ، وهو أهم أنهار فلسطين . الاسم الإغريقي للأردن هو يوردانيم ( jordanem ) وجوردن ( Jordan ) ومعناها المنحدر أو السحيق . وأطلق اليونان والرومان على بلاد الأردن لفظ ثيم الأردن وهو مسمى عسكري حيث كانت الأردن مقرا لمقاطعة عسكرية ، كما أطلق الفاتحون العرب على مناطق الشام اسم الأجناد ، وكان من بينها جند الأردن الذي كان يضم جزءا من جنوبي لبنان ، وشمالي فلسطين ، وكذلك أجزاء من سورية . أما مسمى شرقي الأردن ؛ فقد عرف لأول مرة في العهد الصليبي ، وأن أول تسمية بهذا المعنى نقلها وليم الصوري ، مؤرخ مملكة بيت المقدس اللاتينية ، فقد أطلق عليها " ultra jordanem " وذكر أنها تشمل بلاد ؛ جلعاد ، وعمون ، ومؤاب ، ويطلق عليها أحيانا اسم ترانس جوردن " trans Jordan " التي تعني بلاد ما وراء النهر ، عبر الأردن ، أو شرقي الأردن أيضا ، وعندما أسس الملك عبد الله بن الحسين الإمارة الأردنية أطلق على البلاد اسم إمارة الشرق العربي ثم استقلت الإمارة تحت اسم إمارة شرقي الأردن . +question : ما هو الإسم الذي أطلقه الفاتحون العرب على مناطق الشام ؟ +prompt : أجب عن السؤال التالي : ما هو الإسم الذي أطلقه الفاتحون العرب على مناطق الشام ؟ الجواب هو +pred_answer : : بلاد الشام +answer : الأجناد + +context : دونالد جون ترامب ( بالإنجليزية : Donald John Trump ) ( ولد في 14 يونيو 1946 ) هو الرئيس الخامس والأربعون للولايات المتحدة الأمريكية والحالي منذ 20 يناير 2017 ، وهو أيضا رجل أعمال وملياردير أمريكي ، وشخصية تلفزيونية ومؤلف أمريكي ورئيس منظمة ترامب ، والتي يقع مقرها في الولايات المتحدة . أسس ترامب وأدار عدة مشاريع وشركات ومنتجعات ترفيهية ، التي تدير العديد من الكازينوهات ، الفنادق ، ملاعب الغولف ، والمنشآت الأخرى في جميع أنحاء العالم ، ساعد نمط حياته ونشر علامته التجارية وطريقته الصريحة بالتعامل مع السياسة في الحديث ؛ على جعله من المشاهير في كل من الولايات المتحدة والعالم ، وقدم البرنامج الواقعي " ذا أبرينتايس " على قناة إن بي سي . +question : ما هو تاريخ ميلاد دونالد ترامب ؟ +prompt : أجب عن السؤال التالي : ما هو تاريخ ميلاد دونالد ترامب ؟ الجواب هو +pred_answer : أنه ولد في +answer : 14 يونيو 1946 + +context : دونالد جون ترامب ( بالإنجليزية : Donald John Trump ) ( ولد في 14 يونيو 1946 ) هو الرئيس الخامس والأربعون للولايات المتحدة الأمريكية والحالي منذ 20 يناير 2017 ، وهو أيضا رجل أعمال وملياردير أمريكي ، وشخصية تلفزيونية ومؤلف أمريكي ورئيس منظمة ترامب ، والتي يقع مقرها في الولايات المتحدة . أسس ترامب وأدار عدة مشاريع وشركات ومنتجعات ترفيهية ، التي تدير العديد من الكازينوهات ، الفنادق ، ملاعب الغولف ، والمنشآت الأخرى في جميع أنحاء العالم ، ساعد نمط حياته ونشر علامته التجارية وطريقته الصريحة بالتعامل مع السياسة في الحديث ؛ على جعله من المشاهير في كل من الولايات المتحدة والعالم ، وقدم البرنامج الواقعي " ذا أبرينتايس " على قناة إن بي سي . +question : ما هو تاريخ تولي دونالد ترامب لمنصبه كرئيس للولايات المتحدة ؟ +prompt : أجب عن السؤال التالي : ما هو تاريخ تولي دونالد ترامب لمنصبه كرئيس للولايات المتحدة ؟ الجواب هو +pred_answer : أن هذا التاريخ +answer : 20 يناير 2017 + +context : دونالد جون ترامب ( بالإنجليزية : Donald John Trump ) ( ولد في 14 يونيو 1946 ) هو الرئيس الخامس والأربعون للولايات المتحدة الأمريكية والحالي منذ 20 يناير 2017 ، وهو أيضا رجل أعمال وملياردير أمريكي ، وشخصية تلفزيونية ومؤلف أمريكي ورئيس منظمة ترامب ، والتي يقع مقرها في الولايات المتحدة . أسس ترامب وأدار عدة مشاريع وشركات ومنتجعات ترفيهية ، التي تدير العديد من الكازينوهات ، الفنادق ، ملاعب الغولف ، والمنشآت الأخرى في جميع أنحاء العالم ، ساعد نمط حياته ونشر علامته التجارية وطريقته الصريحة بالتعامل مع السياسة في الحديث ؛ على جعله من المشاهير في كل من الولايات المتحدة والعالم ، وقدم البرنامج الواقعي " ذا أبرينتايس " على قناة إن بي سي . +question : ما هو إسم برنامج دونالد ترامب الذي عرض على إن بي سي ؟ +prompt : أجب عن السؤال التالي : ما هو إسم برنامج دونالد ترامب الذي عرض على إن بي سي ؟ الجواب هو +pred_answer : “ Donald Tr +answer : ذا أبرينتايس + +context : ترامب هو الابن الرابع لعائلة مكونة من خمسة أطفال ، والده فريد ترامب أحد الأثرياء وملاك العقارات في مدينة نيويورك ، وقد تأثر دونالد تأثرا شديدا بوالده ، ولذلك انتهى به المطاف إلى جعل مهنته في مجال التطوير العقاري ، وعند تخرجه من كلية وارتون في جامعة بنسلفانيا وفي عام 1968 ، انضم دونالد ترامب إلى شركة والده : منظمة ترامب . وعند منحه التحكم بالشركة قام بتغيير اسمها إلى منظمة ترامب . +question : ما هو اسم والد دونالد ترامب ؟ +prompt : أجب عن السؤال التالي : ما هو اسم والد دونالد ترامب ؟ الجواب هو +pred_answer : “ جورج ” +answer : فريد ترامب + +context : ترامب هو الابن الرابع لعائلة مكونة من خمسة أطفال ، والده فريد ترامب أحد الأثرياء وملاك العقارات في مدينة نيويورك ، وقد تأثر دونالد تأثرا شديدا بوالده ، ولذلك انتهى به المطاف إلى جعل مهنته في مجال التطوير العقاري ، وعند تخرجه من كلية وارتون في جامعة بنسلفانيا وفي عام 1968 ، انضم دونالد ترامب إلى شركة والده : منظمة ترامب . وعند منحه التحكم بالشركة قام بتغيير اسمها إلى منظمة ترامب . +question : أين درس دونالد ترامب ؟ +prompt : أجب عن السؤال التالي : أين درس دونالد ترامب ؟ الجواب هو +pred_answer : في جامعة ييل ، حيث كان +answer : كلية وارتون في جامعة بنسلفانيا + +context : ترامب هو الابن الرابع لعائلة مكونة من خمسة أطفال ، والده فريد ترامب أحد الأثرياء وملاك العقارات في مدينة نيويورك ، وقد تأثر دونالد تأثرا شديدا بوالده ، ولذلك انتهى به المطاف إلى جعل مهنته في مجال التطوير العقاري ، وعند تخرجه من كلية وارتون في جامعة بنسلفانيا وفي عام 1968 ، انضم دونالد ترامب إلى شركة والده : منظمة ترامب . وعند منحه التحكم بالشركة قام بتغيير اسمها إلى منظمة ترامب . +question : في أي عام إنظم دونالد ترامب إلى شركة والده ؟ +prompt : أجب عن السؤال التالي : في أي عام إنظم دونالد ترامب إلى شركة والده ؟ الجواب هو في عام +pred_answer : 1995 ، +answer : 1968 + +context : بدأ حياته العملية بتجديد لفندق الكومودور في فندق غراند حياة مع عائلة بريتزكر ، ثم تابع مع برج ترامب في مدينة نيويورك وغيرها من المشاريع العديدة في المجمعات السكنية . في وقت لاحق انتقل إلى التوسع في صناعة الطيران ، واتلانتيك سيتي كازينو ، بما في ذلك شراء كازينو تاج محل من عائلة كروسبي ، ولكن مشروع الكازينو افلس . وقد أدى هذا التوسع في الأعمال التجارية إلى تصاعد الديون . حيث أن الكثير من الأخبار التي نقلت عنه في أوائل التسعينيات كانت تغطي مشاكله المالية ، وفضائح علاقاته خارج نطاق الزوجية مع مارلا مابلز ، والناتجة عن طلاق زوجته الأولى ، إيفانا ترامب . +question : ما هو إسم زوجة ترامب الأولى ؟ +prompt : أجب عن السؤال التالي : ما هو إسم زوجة ترامب الأولى ؟ الجواب هو +pred_answer : “ ميلانيا ” ، +answer : إيفانا ترامب + +context : بدأ حياته العملية بتجديد لفندق الكومودور في فندق غراند حياة مع عائلة بريتزكر ، ثم تابع مع برج ترامب في مدينة نيويورك وغيرها من المشاريع العديدة في المجمعات السكنية . في وقت لاحق انتقل إلى التوسع في صناعة الطيران ، واتلانتيك سيتي كازينو ، بما في ذلك شراء كازينو تاج محل من عائلة كروسبي ، ولكن مشروع الكازينو افلس . وقد أدى هذا التوسع في الأعمال التجارية إلى تصاعد الديون . حيث أن الكثير من الأخبار التي نقلت عنه في أوائل التسعينيات كانت تغطي مشاكله المالية ، وفضائح علاقاته خارج نطاق الزوجية مع مارلا مابلز ، والناتجة عن طلاق زوجته الأولى ، إيفانا ترامب . +question : متى نقلت عن ترامب أخبار مشاكله المالية ؟ +prompt : أجب عن السؤال التالي : متى نقلت عن ترامب أخبار مشاكله المالية ؟ الجواب هو +pred_answer : عندما كان في +answer : أوائل التسعينيات + +context : بدأ حياته العملية بتجديد لفندق الكومودور في فندق غراند حياة مع عائلة بريتزكر ، ثم تابع مع برج ترامب في مدينة نيويورك وغيرها من المشاريع العديدة في المجمعات السكنية . في وقت لاحق انتقل إلى التوسع في صناعة الطيران ، واتلانتيك سيتي كازينو ، بما في ذلك شراء كازينو تاج محل من عائلة كروسبي ، ولكن مشروع الكازينو افلس . وقد أدى هذا التوسع في الأعمال التجارية إلى تصاعد الديون . حيث أن الكثير من الأخبار التي نقلت عنه في أوائل التسعينيات كانت تغطي مشاكله المالية ، وفضائح علاقاته خارج نطاق الزوجية مع مارلا مابلز ، والناتجة عن طلاق زوجته الأولى ، إيفانا ترامب . +question : ما هو إسم الكازينو الذي إشتراه دونالد ترامب من عائلة كروسبي ؟ +prompt : أجب عن السؤال التالي : ما هو إسم الكازينو الذي إشتراه دونالد ترامب من عائلة كروسبي ؟ الجواب هو +pred_answer : : كازينو +answer : تاج محل + +context : نانسي نبيل عجرم هي مغنية لبنانية ( من مواليد 16 مايو 1983 - قرية سهيلة ، بمحافظة جبل لبنان ) حاصلة على جوائز بلاتينية متعددة وفائزة بثلاث جوائز موسيقى عالمية ؛ تشتهر بأغانيها المصورة البلاتينية ، شكلت ثنائيا مع المخرجة اللبنانية نادين لبكي في أغاني اشتهرت على الصعيد اللبناني والعربي ، مثل : « أخاصمك آه » ، « يا سلام » ، « آه ونص » ، « يا طبطب يا دلع » ، « شخبط شخابيط » ، « بتفكر في ايه » ؛ ووجدت أغنيتها « إحساس جديد » إستحسان الجماهير . ولدت في قرية سهيلة إحدى قرى قضاء كسروان في محافظة جبل لبنان ، من أسرة مسيحية أرثوذكسية شرقية ، والديها هما نبيل وريموندا ، وهي الأكبر بين أخواتها وهما نادين ، ونبيل مغن أيضا ، تزوجت عام 2008 من طبيب الأسنان « فادي الهاشم » ، وانجبا طفلة في نفس يوم ميلادها 16 مايو 2009 أطلقت عليها اسم « ميلا » وغنت لها أغنية بعنوان « يارب تكبر ميلا » ، وأنجبا ابنتهما الثانية بعام 23 أبريل 2011 وأسمتها « إيلا » . +question : من هى نانسى عجرم ؟ +prompt : أجب عن السؤال التالي : من هى نانسى عجرم ؟ الجواب هو +pred_answer : : نانسى +answer : مغنية لبنانية + +context : نانسي نبيل عجرم هي مغنية لبنانية ( من مواليد 16 مايو 1983 - قرية سهيلة ، بمحافظة جبل لبنان ) حاصلة على جوائز بلاتينية متعددة وفائزة بثلاث جوائز موسيقى عالمية ؛ تشتهر بأغانيها المصورة البلاتينية ، شكلت ثنائيا مع المخرجة اللبنانية نادين لبكي في أغاني اشتهرت على الصعيد اللبناني والعربي ، مثل : « أخاصمك آه » ، « يا سلام » ، « آه ونص » ، « يا طبطب يا دلع » ، « شخبط شخابيط » ، « بتفكر في ايه » ؛ ووجدت أغنيتها « إحساس جديد » إستحسان الجماهير . ولدت في قرية سهيلة إحدى قرى قضاء كسروان في محافظة جبل لبنان ، من أسرة مسيحية أرثوذكسية شرقية ، والديها هما نبيل وريموندا ، وهي الأكبر بين أخواتها وهما نادين ، ونبيل مغن أيضا ، تزوجت عام 2008 من طبيب الأسنان « فادي الهاشم » ، وانجبا طفلة في نفس يوم ميلادها 16 مايو 2009 أطلقت عليها اسم « ميلا » وغنت لها أغنية بعنوان « يارب تكبر ميلا » ، وأنجبا ابنتهما الثانية بعام 23 أبريل 2011 وأسمتها « إيلا » . +question : متى ولدت نانسى عجرم ؟ +prompt : أجب عن السؤال التالي : متى ولدت نانسى عجرم ؟ الجواب هو +pred_answer : عندما كانت نان +answer : 16 مايو 1983 + +context : نانسي نبيل عجرم هي مغنية لبنانية ( من مواليد 16 مايو 1983 - قرية سهيلة ، بمحافظة جبل لبنان ) حاصلة على جوائز بلاتينية متعددة وفائزة بثلاث جوائز موسيقى عالمية ؛ تشتهر بأغانيها المصورة البلاتينية ، شكلت ثنائيا مع المخرجة اللبنانية نادين لبكي في أغاني اشتهرت على الصعيد اللبناني والعربي ، مثل : « أخاصمك آه » ، « يا سلام » ، « آه ونص » ، « يا طبطب يا دلع » ، « شخبط شخابيط » ، « بتفكر في ايه » ؛ ووجدت أغنيتها « إحساس جديد » إستحسان الجماهير . ولدت في قرية سهيلة إحدى قرى قضاء كسروان في محافظة جبل لبنان ، من أسرة مسيحية أرثوذكسية شرقية ، والديها هما نبيل وريموندا ، وهي الأكبر بين أخواتها وهما نادين ، ونبيل مغن أيضا ، تزوجت عام 2008 من طبيب الأسنان « فادي الهاشم » ، وانجبا طفلة في نفس يوم ميلادها 16 مايو 2009 أطلقت عليها اسم « ميلا » وغنت لها أغنية بعنوان « يارب تكبر ميلا » ، وأنجبا ابنتهما الثانية بعام 23 أبريل 2011 وأسمتها « إيلا » . +question : اين ولدت نانسى عجرم ؟ +prompt : أجب عن السؤال التالي : اين ولدت نانسى عجرم ؟ الجواب هو +pred_answer : انها ولدت فى حى شبرا بالقاهرة ، +answer : قرية سهيلة بمحافظة جبل لبنان + +context : في الحادية عشرة من عمرها شاركت في برنامج نجوم المستقبل وأخذت الميدالية الذهبية في فئة الطرب ، بعدها اختفت عن أعين الجمهور وبدأت في دراسة فن الصوت والموسيقى وكان عمرها آنذاك أقل من 18 عاما ونقابة الفنانين اللبنانيين المحترفين قبلتها كعضوة و " أن تكون استثنائية " . أطلقت ألبوم محتجالك ثم شيل عيونك عني ، تعرفت على مدير أعمالها الحالي جيجي لامارا أثمر هذا التعاون بينها ألبوم يا سلام الذي أطلقها للشهرة . +question : متى شاركت نانسى عجرم فى برنامج نجوم المستقبل ؟ +prompt : أجب عن السؤال التالي : متى شاركت نانسى عجرم فى برنامج نجوم المستقبل ؟ الجواب هو +pred_answer : عندما كان عمرها 16 عاما +answer : الحادية عشرة من عمرها + +context : في الحادية عشرة من عمرها شاركت في برنامج نجوم المستقبل وأخذت الميدالية الذهبية في فئة الطرب ، بعدها اختفت عن أعين الجمهور وبدأت في دراسة فن الصوت والموسيقى وكان عمرها آنذاك أقل من 18 عاما ونقابة الفنانين اللبنانيين المحترفين قبلتها كعضوة و " أن تكون استثنائية " . أطلقت ألبوم محتجالك ثم شيل عيونك عني ، تعرفت على مدير أعمالها الحالي جيجي لامارا أثمر هذا التعاون بينها ألبوم يا سلام الذي أطلقها للشهرة . +question : متى بدأت دراسة فن الصوت و الموسيقى ؟ +prompt : أجب عن السؤال التالي : متى بدأت دراسة فن الصوت و الموسيقى ؟ الجواب هو +pred_answer : : في عام 1887 م +answer : وكان عمرها آنذاك أقل من 18 عاما + +context : في الحادية عشرة من عمرها شاركت في برنامج نجوم المستقبل وأخذت الميدالية الذهبية في فئة الطرب ، بعدها اختفت عن أعين الجمهور وبدأت في دراسة فن الصوت والموسيقى وكان عمرها آنذاك أقل من 18 عاما ونقابة الفنانين اللبنانيين المحترفين قبلتها كعضوة و " أن تكون استثنائية " . أطلقت ألبوم محتجالك ثم شيل عيونك عني ، تعرفت على مدير أعمالها الحالي جيجي لامارا أثمر هذا التعاون بينها ألبوم يا سلام الذي أطلقها للشهرة . +question : من مدير اعمالها الحالى ؟ +prompt : أجب عن السؤال التالي : من مدير اعمالها الحالى ؟ الجواب هو +pred_answer : المنتج طارق الجنايني +answer : جيجي لامارا + +context : اختارتها الإعلامية الأمريكية أوبرا وينفري لتطل في برنامجها أوبرا ونفري شو عبر حلقة خاصة عن المشاهير الأكثر شهرة في العالم وجاء الاختيار عليها كالنجمة الأكثر جماهيرية في الشرق الأوسط . وفي أكتوبر 2009 عينت كسفيرة للنوايا الحسنة في منطقة شمال أفريقيا والشرق الأوسط التي تضم 22 بلدا من قبل صندوق الأمم المتحدة للطفولة ( يونيسيف ) ، حيث ذكر راي فيرجيليو ممثل المنظمة أن اختيارها تم لأنها ستساعد في دعم القضايا التي تهتم بها اليونيسيف في المنطقة . +question : لماذا ظهرت فى برنامج اوبرا ونفرى شو ؟ +prompt : أجب عن السؤال التالي : لماذا ظهرت فى برنامج اوبرا ونفرى شو ؟ الجواب هو +pred_answer : أن أوبرا نفرى هى واحدة من أكثر +answer : كالنجمة الأكثر جماهيرية في الشرق الأوسط + +context : اختارتها الإعلامية الأمريكية أوبرا وينفري لتطل في برنامجها أوبرا ونفري شو عبر حلقة خاصة عن المشاهير الأكثر شهرة في العالم وجاء الاختيار عليها كالنجمة الأكثر جماهيرية في الشرق الأوسط . وفي أكتوبر 2009 عينت كسفيرة للنوايا الحسنة في منطقة شمال أفريقيا والشرق الأوسط التي تضم 22 بلدا من قبل صندوق الأمم المتحدة للطفولة ( يونيسيف ) ، حيث ذكر راي فيرجيليو ممثل المنظمة أن اختيارها تم لأنها ستساعد في دعم القضايا التي تهتم بها اليونيسيف في المنطقة . +question : متى عينت سفيرة للنوايا الحسنة ؟ +prompt : أجب عن السؤال التالي : متى عينت سفيرة للنوايا الحسنة ؟ الجواب هو +pred_answer : عندما كنت في +answer : وفي أكتوبر 2009 + +context : اختارتها الإعلامية الأمريكية أوبرا وينفري لتطل في برنامجها أوبرا ونفري شو عبر حلقة خاصة عن المشاهير الأكثر شهرة في العالم وجاء الاختيار عليها كالنجمة الأكثر جماهيرية في الشرق الأوسط . وفي أكتوبر 2009 عينت كسفيرة للنوايا الحسنة في منطقة شمال أفريقيا والشرق الأوسط التي تضم 22 بلدا من قبل صندوق الأمم المتحدة للطفولة ( يونيسيف ) ، حيث ذكر راي فيرجيليو ممثل المنظمة أن اختيارها تم لأنها ستساعد في دعم القضايا التي تهتم بها اليونيسيف في المنطقة . +question : لماذا اختيرت سفيرة للنوايا الحسنة ؟ +prompt : أجب عن السؤال التالي : لماذا اختيرت سفيرة للنوايا الحسنة ؟ الجواب هو +pred_answer : لأنني أحب العمل الخيري ، وأحب مساعدة الآخرين ، وهذا ما دفع +answer : لأنها ستساعد في دعم القضايا التي تهتم بها اليونيسيف في المنطقة + +context : سورة الملك هي إحدى سور القرآن المكية وعدد آياتها 30 آية . وهي أول سورة في الجزء التاسع والعشرين والحزب السابع و الخمسون . 2 - وسميت أيضا ( تبارك الملك ) بمجموع الكلمتين في عهد النبي وبسمع منه فيما رواه الترمذي عن ابن عباس « أن رجلا من أصحاب النبي قال له ضربت خبائي على قبر وأنا لا أحسب أنه قبر فإذا فيه إنسان ( أي دفين فيه ) يقرأ سورة ( تبارك الملك ) حتى ختمها فقال رسول الله : هي المانعة هي المنجية تنجيه من عذاب القبر » حديث حسن غريب ( قلت : قال الألباني : ضعيف ، وإنما يصح منه قوله : « هي المانعة . . . » ) ويكون اسم السورة مجموع هذين اللفظين على طريقة عد الكلمات في اللفظ دون إضافة إحداهما إلى الأخرى مثل تسمية « لام ألف » . ونظيره أسماء السور بالأحرف المقطعة التي في أولها على بعض الأقوال في المراد منها وعليه فيحكى لفظ ( تبارك ) بصيغة الماضي ويحكى لفظ ( الملك ) مرفوعا كما هو في الآية فيكون لفظ « سورة » مضافا من إضافة المسمى إلى الاسم . لأن المقصود تعريف السورة بهاتين الكلمتين على حكاية اللفظين الواقعين في أولها مع اختصار ما بين الكلمتين وذلك قصدا للفرق بينهما وبين « تبارك الفرقان » . كما قالوا : عبيد الله الرقيات بإضافة مجموع « عبيد الله » إلى « الرقيات » تمييزا لعبيد الله بن قيس العامري الشاعر عن غيره ممن يشبه اسمه اسمه مثل عبيد الله بن عبد الله بن عتبة بن مسعود أو لمجرد اشتهاره بالتشبيه في نساء كان اسم كل واحدة منهن رقية وهن ثلاث . ولذلك يجب أن يكون لفظ ( تبارك ) في هذا المركب مفتوح الآخر . ولفظ ( الملك ) مضموم الكاف . وكذلك وقع ضبطه في نسخة جامع الترمذي وكلتاهما حركة حكاية . +question : ما هى سورم الملك ؟ +prompt : أجب عن السؤال التالي : ما هى سورم الملك ؟ الجواب هو +pred_answer : أن السورم عبارة عن قطعة +answer : هي إحدى سور القرآن المكية + +context : سورة الملك هي إحدى سور القرآن المكية وعدد آياتها 30 آية . وهي أول سورة في الجزء التاسع والعشرين والحزب السابع و الخمسون . 2 - وسميت أيضا ( تبارك الملك ) بمجموع الكلمتين في عهد النبي وبسمع منه فيما رواه الترمذي عن ابن عباس « أن رجلا من أصحاب النبي قال له ضربت خبائي على قبر وأنا لا أحسب أنه قبر فإذا فيه إنسان ( أي دفين فيه ) يقرأ سورة ( تبارك الملك ) حتى ختمها فقال رسول الله : هي المانعة هي المنجية تنجيه من عذاب القبر » حديث حسن غريب ( قلت : قال الألباني : ضعيف ، وإنما يصح منه قوله : « هي المانعة . . . » ) ويكون اسم السورة مجموع هذين اللفظين على طريقة عد الكلمات في اللفظ دون إضافة إحداهما إلى الأخرى مثل تسمية « لام ألف » . ونظيره أسماء السور بالأحرف المقطعة التي في أولها على بعض الأقوال في المراد منها وعليه فيحكى لفظ ( تبارك ) بصيغة الماضي ويحكى لفظ ( الملك ) مرفوعا كما هو في الآية فيكون لفظ « سورة » مضافا من إضافة المسمى إلى الاسم . لأن المقصود تعريف السورة بهاتين الكلمتين على حكاية اللفظين الواقعين في أولها مع اختصار ما بين الكلمتين وذلك قصدا للفرق بينهما وبين « تبارك الفرقان » . كما قالوا : عبيد الله الرقيات بإضافة مجموع « عبيد الله » إلى « الرقيات » تمييزا لعبيد الله بن قيس العامري الشاعر عن غيره ممن يشبه اسمه اسمه مثل عبيد الله بن عبد الله بن عتبة بن مسعود أو لمجرد اشتهاره بالتشبيه في نساء كان اسم كل واحدة منهن رقية وهن ثلاث . ولذلك يجب أن يكون لفظ ( تبارك ) في هذا المركب مفتوح الآخر . ولفظ ( الملك ) مضموم الكاف . وكذلك وقع ضبطه في نسخة جامع الترمذي وكلتاهما حركة حكاية . +question : كم عدد اياتها ؟ +prompt : أجب عن السؤال التالي : كم عدد اياتها ؟ الجواب هو +pred_answer : ( 114 +answer : 30 آية + +context : سورة الملك هي إحدى سور القرآن المكية وعدد آياتها 30 آية . وهي أول سورة في الجزء التاسع والعشرين والحزب السابع و الخمسون . 2 - وسميت أيضا ( تبارك الملك ) بمجموع الكلمتين في عهد النبي وبسمع منه فيما رواه الترمذي عن ابن عباس « أن رجلا من أصحاب النبي قال له ضربت خبائي على قبر وأنا لا أحسب أنه قبر فإذا فيه إنسان ( أي دفين فيه ) يقرأ سورة ( تبارك الملك ) حتى ختمها فقال رسول الله : هي المانعة هي المنجية تنجيه من عذاب القبر » حديث حسن غريب ( قلت : قال الألباني : ضعيف ، وإنما يصح منه قوله : « هي المانعة . . . » ) ويكون اسم السورة مجموع هذين اللفظين على طريقة عد الكلمات في اللفظ دون إضافة إحداهما إلى الأخرى مثل تسمية « لام ألف » . ونظيره أسماء السور بالأحرف المقطعة التي في أولها على بعض الأقوال في المراد منها وعليه فيحكى لفظ ( تبارك ) بصيغة الماضي ويحكى لفظ ( الملك ) مرفوعا كما هو في الآية فيكون لفظ « سورة » مضافا من إضافة المسمى إلى الاسم . لأن المقصود تعريف السورة بهاتين الكلمتين على حكاية اللفظين الواقعين في أولها مع اختصار ما بين الكلمتين وذلك قصدا للفرق بينهما وبين « تبارك الفرقان » . كما قالوا : عبيد الله الرقيات بإضافة مجموع « عبيد الله » إلى « الرقيات » تمييزا لعبيد الله بن قيس العامري الشاعر عن غيره ممن يشبه اسمه اسمه مثل عبيد الله بن عبد الله بن عتبة بن مسعود أو لمجرد اشتهاره بالتشبيه في نساء كان اسم كل واحدة منهن رقية وهن ثلاث . ولذلك يجب أن يكون لفظ ( تبارك ) في هذا المركب مفتوح الآخر . ولفظ ( الملك ) مضموم الكاف . وكذلك وقع ضبطه في نسخة جامع الترمذي وكلتاهما حركة حكاية . +question : بماذا سميت ايضا ؟ +prompt : أجب عن السؤال التالي : بماذا سميت ايضا ؟ الجواب هو +pred_answer : ان الاسم مشتق +answer : تبارك الملك + +context : 4 - وأخرج الطبراني عن ابن مسعود قال « كنا نسميها على عهد رسول الله المانعة » ( قال الهيثمي : رواه الطبراني في الكبير والأوسط ورجاله ثقات ) أي أخذا من وصف النبي إياها بأنها المانعة المنجية كما في حديث الترمذي المذكور آنفا وليس بالصريح في التسمية . +question : بماذا سميت على عهد رسول الله ؟ +prompt : أجب عن السؤال التالي : بماذا سميت على عهد رسول الله ؟ الجواب هو +pred_answer : : ( +answer : المانعة + +context : 4 - وأخرج الطبراني عن ابن مسعود قال « كنا نسميها على عهد رسول الله المانعة » ( قال الهيثمي : رواه الطبراني في الكبير والأوسط ورجاله ثقات ) أي أخذا من وصف النبي إياها بأنها المانعة المنجية كما في حديث الترمذي المذكور آنفا وليس بالصريح في التسمية . +question : و بماذا سميت ايضا ؟ +prompt : أجب عن السؤال التالي : و بماذا سميت ايضا ؟ الجواب هو +pred_answer : ان الاسم مشتق من +answer : المانعة المنجية + +context : 4 - وأخرج الطبراني عن ابن مسعود قال « كنا نسميها على عهد رسول الله المانعة » ( قال الهيثمي : رواه الطبراني في الكبير والأوسط ورجاله ثقات ) أي أخذا من وصف النبي إياها بأنها المانعة المنجية كما في حديث الترمذي المذكور آنفا وليس بالصريح في التسمية . +question : من وصفها بالمانعة المنجية ؟ +prompt : أجب عن السؤال التالي : من وصفها بالمانعة المنجية ؟ الجواب هو +pred_answer : الله سبحانه وتعالى +answer : رسول الله + +context : قال بن عاشور : وهي مكية قال ابن عطية والقرطبي : باتفاق الجميع فيحتمل أن الضحاك عنى استثناء ثلاث آيات نزلت في المدينة وهذا الاحتمال هو الذي يقتضيه إخراج صاحب الإتقان هذا النقل في عداد السور المختلف في بعض آياتها ويحتمل أن يريد أن ثلاث آيات منها غير مخاطب بها أهل مكة – قلت : يعنى أنزلت في شأن أقوام غير أهل مكة ولو كانت أحكامها عامة - وعلى كلا الاحتمالين فهو لم يعين هذه الآيات الثلاث وليس في آيات السورة ثلاث آيات لا تتعلق بالمشركين خاصة بل نجد الخمس الآيات الأوائل يجوز أن يكون القصد منها الفريقين من أول السورة إلى قوله ( عذاب السعير ) وقال في الإتقان أيضا « فيها قول غريب » لم يعزه « أن جميع السورة مدني « . +question : من القائل بانها مكية ؟ +prompt : أجب عن السؤال التالي : من القائل بانها مكية ؟ الجواب هو +pred_answer : : الله سبحانه وتعالى يقول في سورة +answer : بن عاشور وهي مكية قال ابن + +context : قال بن عاشور : وهي مكية قال ابن عطية والقرطبي : باتفاق الجميع فيحتمل أن الضحاك عنى استثناء ثلاث آيات نزلت في المدينة وهذا الاحتمال هو الذي يقتضيه إخراج صاحب الإتقان هذا النقل في عداد السور المختلف في بعض آياتها ويحتمل أن يريد أن ثلاث آيات منها غير مخاطب بها أهل مكة – قلت : يعنى أنزلت في شأن أقوام غير أهل مكة ولو كانت أحكامها عامة - وعلى كلا الاحتمالين فهو لم يعين هذه الآيات الثلاث وليس في آيات السورة ثلاث آيات لا تتعلق بالمشركين خاصة بل نجد الخمس الآيات الأوائل يجوز أن يكون القصد منها الفريقين من أول السورة إلى قوله ( عذاب السعير ) وقال في الإتقان أيضا « فيها قول غريب » لم يعزه « أن جميع السورة مدني « . +question : كم عدد الايات اللتى نزلت بالمدينة ؟ +prompt : أجب عن السؤال التالي : كم عدد الايات اللتى نزلت بالمدينة ؟ الجواب هو +pred_answer : ( 114 ) +answer : ثلاث آيات + +context : قال بن عاشور : وهي مكية قال ابن عطية والقرطبي : باتفاق الجميع فيحتمل أن الضحاك عنى استثناء ثلاث آيات نزلت في المدينة وهذا الاحتمال هو الذي يقتضيه إخراج صاحب الإتقان هذا النقل في عداد السور المختلف في بعض آياتها ويحتمل أن يريد أن ثلاث آيات منها غير مخاطب بها أهل مكة – قلت : يعنى أنزلت في شأن أقوام غير أهل مكة ولو كانت أحكامها عامة - وعلى كلا الاحتمالين فهو لم يعين هذه الآيات الثلاث وليس في آيات السورة ثلاث آيات لا تتعلق بالمشركين خاصة بل نجد الخمس الآيات الأوائل يجوز أن يكون القصد منها الفريقين من أول السورة إلى قوله ( عذاب السعير ) وقال في الإتقان أيضا « فيها قول غريب » لم يعزه « أن جميع السورة مدني « . +question : من المخاطب بها ؟ +prompt : أجب عن السؤال التالي : من المخاطب بها ؟ الجواب هو +pred_answer : الله عز وجل ، والمخاطب +answer : شأن أقوام غير أهل مكة + +context : نزار بن توفيق القباني ( 1342 - 1419 ه 1923 - 1998 م ) دبلوماسي وشاعر سوري معاصر ، ولد في 21 مارس 1923 من أسرة عربية دمشقية عريقة . على الصعيد الشخصي ، عرف قباني مآسي عديدة في حياته ، منها مقتل زوجته بلقيس خلال تفجير إنتحاري استهدف السفارة العراقية في بيروت حيث كانت تعمل ، وصولا إلى وفاة ابنه توفيق الذي رثاه في قصيدته " الأمير الخرافي توفيق قباني " . عاش السنوات الأخيرة من حياته مقيما في لندن حيث مال أكثر نحو الشعر السياسي ومن أشهر قصائده الأخيرة " متى يعلنون وفاة العرب ؟ " ، وقد وافته المنية في 30 أبريل 1998 ودفن في مسقط رأسه ، دمشق . +question : من هو نزار القبانى ؟ +prompt : أجب عن السؤال التالي : من هو نزار القبانى ؟ الجواب هو +pred_answer : الشاعر السورى الكبير نزار قبانى +answer : دبلوماسي وشاعر سوري معاصر + +context : نزار بن توفيق القباني ( 1342 - 1419 ه 1923 - 1998 م ) دبلوماسي وشاعر سوري معاصر ، ولد في 21 مارس 1923 من أسرة عربية دمشقية عريقة . على الصعيد الشخصي ، عرف قباني مآسي عديدة في حياته ، منها مقتل زوجته بلقيس خلال تفجير إنتحاري استهدف السفارة العراقية في بيروت حيث كانت تعمل ، وصولا إلى وفاة ابنه توفيق الذي رثاه في قصيدته " الأمير الخرافي توفيق قباني " . عاش السنوات الأخيرة من حياته مقيما في لندن حيث مال أكثر نحو الشعر السياسي ومن أشهر قصائده الأخيرة " متى يعلنون وفاة العرب ؟ " ، وقد وافته المنية في 30 أبريل 1998 ودفن في مسقط رأسه ، دمشق . +question : متى ولد ؟ +prompt : أجب عن السؤال التالي : متى ولد ؟ الجواب هو +pred_answer : : في عام +answer : 21 مارس 1923 + +context : نزار بن توفيق القباني ( 1342 - 1419 ه 1923 - 1998 م ) دبلوماسي وشاعر سوري معاصر ، ولد في 21 مارس 1923 من أسرة عربية دمشقية عريقة . على الصعيد الشخصي ، عرف قباني مآسي عديدة في حياته ، منها مقتل زوجته بلقيس خلال تفجير إنتحاري استهدف السفارة العراقية في بيروت حيث كانت تعمل ، وصولا إلى وفاة ابنه توفيق الذي رثاه في قصيدته " الأمير الخرافي توفيق قباني " . عاش السنوات الأخيرة من حياته مقيما في لندن حيث مال أكثر نحو الشعر السياسي ومن أشهر قصائده الأخيرة " متى يعلنون وفاة العرب ؟ " ، وقد وافته المنية في 30 أبريل 1998 ودفن في مسقط رأسه ، دمشق . +question : متى توفى ؟ +prompt : أجب عن السؤال التالي : متى توفى ؟ الجواب هو +pred_answer : : توفي في +answer : 30 أبريل 1998 + +context : ولد نزار في دمشق القديمة في حي " مئذنة الشحم " في 21 مارس آذار عام 1923 وشب وترعرع في بيت دمشقي تقليدي لأسرة عربية دمشقية عريقة . وبحسب ما يقول في مذكراته ، فقد ورث القباني من أبيه ، ميله نحو الشعر كما ورث عن جده حبه للفن بمختلف أشكاله . يقول في مذكراته أيضا ، أنه خلال طفولته كان يحب الرسم ولذلك " وجد نفسه بين الخامسة والثانية عشرة من عمره غارقا في بحر من الألوان " ، وقد ذكر أن سر محبته للجمال والألوان واللون الأخضر بالذات أنه في منزلهم الدمشقي كان لديهم أغلب أصناف الزروع الشامية من زنبق وريحان وياسمين ونعناع ونارنج . وكأي فتى في هذا السن ، ما بين سن الخامسة عشر والسادسة عشر احتار كثيرا ماذا يفعل ، فبدأ بكونه خطاطا تتلمذ على يد خطاط يدوي ثم اتجه للرسم وما زال يعشق الرسم حتى أن له ديوانا أسماه " الرسم بالكلمات " . ومن ثم شغف بالموسيقى ، وتعلم على يد أستاذ خاص العزف والتلحين على آلة العود ، لكن الدراسة خاصة خلال المرحلة الثانوية ، جعلته يعكف عنها . ثم رسا بالنهاية على الشعر ، وراح يحفظ أشعار عمر بن أبي ربيعة ، وجميل بثينة ، وطرفة ابن العبد ، وقيس بن الملوح ، متتلمذا على يد الشاعر خليل مردم بك وقد علمه أصول النحو والصرف والبديع . +question : اين ولد نزار قبانى ؟ +prompt : أجب عن السؤال التالي : اين ولد نزار قبانى ؟ الجواب هو +pred_answer : فى حى مئذنة الشحم بدمشق عام 1923 +answer : دمشق القديمة في حي مئذنة الشحم + +context : ولد نزار في دمشق القديمة في حي " مئذنة الشحم " في 21 مارس آذار عام 1923 وشب وترعرع في بيت دمشقي تقليدي لأسرة عربية دمشقية عريقة . وبحسب ما يقول في مذكراته ، فقد ورث القباني من أبيه ، ميله نحو الشعر كما ورث عن جده حبه للفن بمختلف أشكاله . يقول في مذكراته أيضا ، أنه خلال طفولته كان يحب الرسم ولذلك " وجد نفسه بين الخامسة والثانية عشرة من عمره غارقا في بحر من الألوان " ، وقد ذكر أن سر محبته للجمال والألوان واللون الأخضر بالذات أنه في منزلهم الدمشقي كان لديهم أغلب أصناف الزروع الشامية من زنبق وريحان وياسمين ونعناع ونارنج . وكأي فتى في هذا السن ، ما بين سن الخامسة عشر والسادسة عشر احتار كثيرا ماذا يفعل ، فبدأ بكونه خطاطا تتلمذ على يد خطاط يدوي ثم اتجه للرسم وما زال يعشق الرسم حتى أن له ديوانا أسماه " الرسم بالكلمات " . ومن ثم شغف بالموسيقى ، وتعلم على يد أستاذ خاص العزف والتلحين على آلة العود ، لكن الدراسة خاصة خلال المرحلة الثانوية ، جعلته يعكف عنها . ثم رسا بالنهاية على الشعر ، وراح يحفظ أشعار عمر بن أبي ربيعة ، وجميل بثينة ، وطرفة ابن العبد ، وقيس بن الملوح ، متتلمذا على يد الشاعر خليل مردم بك وقد علمه أصول النحو والصرف والبديع . +question : ما هو سر محبته للجمال و الالوان وبالذات اللون الاخضر ؟ +prompt : أجب عن السؤال التالي : ما هو سر محبته للجمال و الالوان وبالذات اللون الاخضر ؟ الجواب هو +pred_answer : ان الله سبحانه وتعالى خلق كل شيء في هذا الكون جميلا ، قال تعالى : ( صنع الله الذي أتقن كل شيء +answer : منزلهم الدمشقي كان لديهم أغلب أصناف الزروع الشامية من زنبق وريحان وياسمين ونعناع ونارنج + +context : خلال طفولته انتحرت شقيقته وصال ، بعد أن أجبرها أهلها على الزواج من رجل لم تكن تحبه ، وهو ما ترك أثرا عميقا في نفسه ، وربما ساعد في صياغة فلسفته العشقية لاحقا ومفهومه عن صراع المرأة لتحقيق ذاتها وأنوثتها . ولم يكشف عن حقيقة هذه الحادثة باكرا بل قال أنها توفيت بمرض القلب ، إلا أن كوليت خوري كشفت قصة الإنتحار ، وهو ما ثبت لاحقا في مذكراته الخاصة ، إذ كتب : " إن الحب في العالم العربي سجين وأنا أريد تحريره " . يصف نزار حادثة الإنتحار بقوله : " صورة أختي وهي تموت من أجل الحب محفورة في لحمي . . . كانت في ميتتها أجمل من رابعة العدوية " . كما ارتبط بعلاقة قوية مع أمه . +question : ماذا فعلت اخته وصال بعد ان اجبرها اهلها على الزواج من رجل لم تكن تحبه ؟ +prompt : أجب عن السؤال التالي : ماذا فعلت اخته وصال بعد ان اجبرها اهلها على الزواج من رجل لم تكن تحبه ؟ الجواب هو +pred_answer : ما يلي : +answer : انتحرت + +context : خلال طفولته انتحرت شقيقته وصال ، بعد أن أجبرها أهلها على الزواج من رجل لم تكن تحبه ، وهو ما ترك أثرا عميقا في نفسه ، وربما ساعد في صياغة فلسفته العشقية لاحقا ومفهومه عن صراع المرأة لتحقيق ذاتها وأنوثتها . ولم يكشف عن حقيقة هذه الحادثة باكرا بل قال أنها توفيت بمرض القلب ، إلا أن كوليت خوري كشفت قصة الإنتحار ، وهو ما ثبت لاحقا في مذكراته الخاصة ، إذ كتب : " إن الحب في العالم العربي سجين وأنا أريد تحريره " . يصف نزار حادثة الإنتحار بقوله : " صورة أختي وهي تموت من أجل الحب محفورة في لحمي . . . كانت في ميتتها أجمل من رابعة العدوية " . كما ارتبط بعلاقة قوية مع أمه . +question : متى انتحرت اخته وصال ؟ +prompt : أجب عن السؤال التالي : متى انتحرت اخته وصال ؟ الجواب هو +pred_answer : ان صال +answer : خلال طفولته + +context : خلال طفولته انتحرت شقيقته وصال ، بعد أن أجبرها أهلها على الزواج من رجل لم تكن تحبه ، وهو ما ترك أثرا عميقا في نفسه ، وربما ساعد في صياغة فلسفته العشقية لاحقا ومفهومه عن صراع المرأة لتحقيق ذاتها وأنوثتها . ولم يكشف عن حقيقة هذه الحادثة باكرا بل قال أنها توفيت بمرض القلب ، إلا أن كوليت خوري كشفت قصة الإنتحار ، وهو ما ثبت لاحقا في مذكراته الخاصة ، إذ كتب : " إن الحب في العالم العربي سجين وأنا أريد تحريره " . يصف نزار حادثة الإنتحار بقوله : " صورة أختي وهي تموت من أجل الحب محفورة في لحمي . . . كانت في ميتتها أجمل من رابعة العدوية " . كما ارتبط بعلاقة قوية مع أمه . +question : من كشف قصة انتحار اخته ؟ +prompt : أجب عن السؤال التالي : من كشف قصة انتحار اخته ؟ الجواب هو +pred_answer : ( . . +answer : كوليت خوري + +context : الهند رسميا جمهورية الهند ( بالهندية : ) ، هي جمهورية تقع في جنوب آسيا . تعد سابع أكبر بلد من حيث المساحة الجغرافية ، والثانية من حيث عدد السكان ، وهي الجمهورية الديموقراطية الأكثر ازدحاما بالسكان في العالم . تعد الهند مهد حضارة وادي السند ومنطقة طريق التجارة التاريخية والعديد من الإمبراطوريات . كانت شبه القارة الهندية معروفة بثراوتها التجارية والثقافية لفترة كبيرة من تاريخها الطويل . وقد نشأت على الأراضي الهندية أربعة أديان رئيسية هي الهندوسية والبوذية والجاينية والسيخية ، في حين أن الزرادشتية ، اليهودية ، المسيحية والإسلام وصلت إليها في الألفية الأولى الميلادية ، وشكلت هذه الديانات والثقافات التنوع الثقافي للمنطقة . تاريخيا ، أسندت إدارة الهند إلى شركة الهند الشرقية البريطانية في وقت مبكر من القرن الثامن عشر ، ثم استعمرت من قبل المملكة المتحدة في الفترة من منتصف القرن التاسع عشر إلى منتصف القرن العشرين ، ثم استقلت الهند في عام 1947 بعد حركة الكفاح من أجل الاستقلال التي تميزت على نطاق واسع بالمقاومة غير العنيفة +question : اتن تقع الهند ؟ +prompt : أجب عن السؤال التالي : اتن تقع الهند ؟ الجواب هو +pred_answer : : تقع +answer : جنوب آسيا + +context : الهند رسميا جمهورية الهند ( بالهندية : ) ، هي جمهورية تقع في جنوب آسيا . تعد سابع أكبر بلد من حيث المساحة الجغرافية ، والثانية من حيث عدد السكان ، وهي الجمهورية الديموقراطية الأكثر ازدحاما بالسكان في العالم . تعد الهند مهد حضارة وادي السند ومنطقة طريق التجارة التاريخية والعديد من الإمبراطوريات . كانت شبه القارة الهندية معروفة بثراوتها التجارية والثقافية لفترة كبيرة من تاريخها الطويل . وقد نشأت على الأراضي الهندية أربعة أديان رئيسية هي الهندوسية والبوذية والجاينية والسيخية ، في حين أن الزرادشتية ، اليهودية ، المسيحية والإسلام وصلت إليها في الألفية الأولى الميلادية ، وشكلت هذه الديانات والثقافات التنوع الثقافي للمنطقة . تاريخيا ، أسندت إدارة الهند إلى شركة الهند الشرقية البريطانية في وقت مبكر من القرن الثامن عشر ، ثم استعمرت من قبل المملكة المتحدة في الفترة من منتصف القرن التاسع عشر إلى منتصف القرن العشرين ، ثم استقلت الهند في عام 1947 بعد حركة الكفاح من أجل الاستقلال التي تميزت على نطاق واسع بالمقاومة غير العنيفة +question : ما هى الاديان الرئيسية اللتى ظهرت بالهند ؟ +prompt : أجب عن السؤال التالي : ما هى الاديان الرئيسية اللتى ظهرت بالهند ؟ الجواب هو +pred_answer : الهندوسية والبوذية والجاينية والسيخية . +answer : الهندوسية والبوذية والجاينية والسيخية + +context : الهند رسميا جمهورية الهند ( بالهندية : ) ، هي جمهورية تقع في جنوب آسيا . تعد سابع أكبر بلد من حيث المساحة الجغرافية ، والثانية من حيث عدد السكان ، وهي الجمهورية الديموقراطية الأكثر ازدحاما بالسكان في العالم . تعد الهند مهد حضارة وادي السند ومنطقة طريق التجارة التاريخية والعديد من الإمبراطوريات . كانت شبه القارة الهندية معروفة بثراوتها التجارية والثقافية لفترة كبيرة من تاريخها الطويل . وقد نشأت على الأراضي الهندية أربعة أديان رئيسية هي الهندوسية والبوذية والجاينية والسيخية ، في حين أن الزرادشتية ، اليهودية ، المسيحية والإسلام وصلت إليها في الألفية الأولى الميلادية ، وشكلت هذه الديانات والثقافات التنوع الثقافي للمنطقة . تاريخيا ، أسندت إدارة الهند إلى شركة الهند الشرقية البريطانية في وقت مبكر من القرن الثامن عشر ، ثم استعمرت من قبل المملكة المتحدة في الفترة من منتصف القرن التاسع عشر إلى منتصف القرن العشرين ، ثم استقلت الهند في عام 1947 بعد حركة الكفاح من أجل الاستقلال التي تميزت على نطاق واسع بالمقاومة غير العنيفة +question : متى استقلت الهند ؟ +prompt : أجب عن السؤال التالي : متى استقلت الهند ؟ الجواب هو في عام +pred_answer : 1947 +answer : 1947 + +context : على الصعيد الإداري تعد الهند جمهورية فيدرالية ، تتألف من 28 ولاية وسبعة أقاليم اتحادية مع وجود نظام برلماني ديموقراطي . الاقتصاد الهندي هو سابع أكبر اقتصاد في العالم وثالث أكبر قوة شرائية . وبعد الإصلاحات المستندة على اقتصاد السوق عام 1991 ، أصبحت الهند واحدة من أسرع اقتصادات العالم نموا كما أنها تصنف ضمن الدول الصناعية الجديدة . رغم ذلك ، ما زالت البلاد تواجه تحديات الفقر والفساد وسوء التغذية وعدم كفاءة أنظمة الرعاية الصحية العامة . في الجانب العسكري تعد الهند قوة عسكرية إقليمية كما تصنف ضمن الدول المالكة للأسلحة النووية . الجيش الهندي يتم تصنيفه على أنه ثالث أكبر جيش في العالم في حين تحتل الهند المرتبة السادسة في الإنفاق العسكري بين الدول . نظرا للكثافة السكانية الهائلة تملك الهند مجتمعا متعدد الديانات ، كما أنه متعدد اللغات والأعراق ، وتعد الهند أيضا موطن التنوعات في الحياة البرية بأنواع عديدة من المحميات . +question : كم عد اقاليم الهند ؟ +prompt : أجب عن السؤال التالي : كم عد اقاليم الهند ؟ الجواب هو +pred_answer : خمسة عشر ( 15 ) +answer : وسبعة أقاليم اتحادية + +context : على الصعيد الإداري تعد الهند جمهورية فيدرالية ، تتألف من 28 ولاية وسبعة أقاليم اتحادية مع وجود نظام برلماني ديموقراطي . الاقتصاد الهندي هو سابع أكبر اقتصاد في العالم وثالث أكبر قوة شرائية . وبعد الإصلاحات المستندة على اقتصاد السوق عام 1991 ، أصبحت الهند واحدة من أسرع اقتصادات العالم نموا كما أنها تصنف ضمن الدول الصناعية الجديدة . رغم ذلك ، ما زالت البلاد تواجه تحديات الفقر والفساد وسوء التغذية وعدم كفاءة أنظمة الرعاية الصحية العامة . في الجانب العسكري تعد الهند قوة عسكرية إقليمية كما تصنف ضمن الدول المالكة للأسلحة النووية . الجيش الهندي يتم تصنيفه على أنه ثالث أكبر جيش في العالم في حين تحتل الهند المرتبة السادسة في الإنفاق العسكري بين الدول . نظرا للكثافة السكانية الهائلة تملك الهند مجتمعا متعدد الديانات ، كما أنه متعدد اللغات والأعراق ، وتعد الهند أيضا موطن التنوعات في الحياة البرية بأنواع عديدة من المحميات . +question : كم عدد ولايات الهند ؟ +prompt : أجب عن السؤال التالي : كم عدد ولايات الهند ؟ الجواب هو في عام +pred_answer : 1947 +answer : 28 + +context : على الصعيد الإداري تعد الهند جمهورية فيدرالية ، تتألف من 28 ولاية وسبعة أقاليم اتحادية مع وجود نظام برلماني ديموقراطي . الاقتصاد الهندي هو سابع أكبر اقتصاد في العالم وثالث أكبر قوة شرائية . وبعد الإصلاحات المستندة على اقتصاد السوق عام 1991 ، أصبحت الهند واحدة من أسرع اقتصادات العالم نموا كما أنها تصنف ضمن الدول الصناعية الجديدة . رغم ذلك ، ما زالت البلاد تواجه تحديات الفقر والفساد وسوء التغذية وعدم كفاءة أنظمة الرعاية الصحية العامة . في الجانب العسكري تعد الهند قوة عسكرية إقليمية كما تصنف ضمن الدول المالكة للأسلحة النووية . الجيش الهندي يتم تصنيفه على أنه ثالث أكبر جيش في العالم في حين تحتل الهند المرتبة السادسة في الإنفاق العسكري بين الدول . نظرا للكثافة السكانية الهائلة تملك الهند مجتمعا متعدد الديانات ، كما أنه متعدد اللغات والأعراق ، وتعد الهند أيضا موطن التنوعات في الحياة البرية بأنواع عديدة من المحميات . +question : ما هو نظام الحكم فى الهند ؟ +prompt : أجب عن السؤال التالي : ما هو نظام الحكم فى الهند ؟ الجواب هو +pred_answer : أن الدستور الهندى ينص +answer : برلماني ديموقراطي الاقتصاد + +context : اشتق اسم الهند من كلمة " أندوس " والتي بدورها مشتقة من اللغة الفارسية القديمة التي كانت تستخدم كلمة " هندوس " لوصف الهنود . في اللغة السنسكريتية كانت تطلق على الهند تسمية " سيندو " وهي التسمية التاريخية لنهر أندوس . اليونانيون القدامى أطلقوا عليها اسم أندو ، وأشاروا أيضا إلى شعبها أحيانا بشعب أندوس . على الصعيد الرسمي ، وبسبب عدم وجود لغة مركزية رسمية للبلاد ، فقد أقر الدستور الهندي اسم " بهرات " كاسم رسمي للبلاد ومنحه المساواة القانونية الكاملة في الاستخدام إلى جانب تسمية الهند . الاسم بهرات مشتق من اسم لملك هندي أسطوري . تستخدم أحيانا كلمة هندوستان وهي الترجمة الفارسية المباشرة لاسم أرض الهندوس كوصف لبلاد وهي تستخدم أحيانا كمرادف لاسم الهند . رغم أنها تاريخيا كانت تشير إلى شمال الهند . +question : ما هى التسمية التاريخية لنهر اندوس ؟ +prompt : أجب عن السؤال التالي : ما هى التسمية التاريخية لنهر اندوس ؟ الجواب هو +pred_answer : " نهر +answer : سيندو + +context : اشتق اسم الهند من كلمة " أندوس " والتي بدورها مشتقة من اللغة الفارسية القديمة التي كانت تستخدم كلمة " هندوس " لوصف الهنود . في اللغة السنسكريتية كانت تطلق على الهند تسمية " سيندو " وهي التسمية التاريخية لنهر أندوس . اليونانيون القدامى أطلقوا عليها اسم أندو ، وأشاروا أيضا إلى شعبها أحيانا بشعب أندوس . على الصعيد الرسمي ، وبسبب عدم وجود لغة مركزية رسمية للبلاد ، فقد أقر الدستور الهندي اسم " بهرات " كاسم رسمي للبلاد ومنحه المساواة القانونية الكاملة في الاستخدام إلى جانب تسمية الهند . الاسم بهرات مشتق من اسم لملك هندي أسطوري . تستخدم أحيانا كلمة هندوستان وهي الترجمة الفارسية المباشرة لاسم أرض الهندوس كوصف لبلاد وهي تستخدم أحيانا كمرادف لاسم الهند . رغم أنها تاريخيا كانت تشير إلى شمال الهند . +question : ما هو الاسم الرسمى للهند كمت ذكر فى الدستور ؟ +prompt : أجب عن السؤال التالي : ما هو الاسم الرسمى للهند كمت ذكر فى الدستور ؟ الجواب هو +pred_answer : جمهورية الهند +answer : بهرات + +context : اشتق اسم الهند من كلمة " أندوس " والتي بدورها مشتقة من اللغة الفارسية القديمة التي كانت تستخدم كلمة " هندوس " لوصف الهنود . في اللغة السنسكريتية كانت تطلق على الهند تسمية " سيندو " وهي التسمية التاريخية لنهر أندوس . اليونانيون القدامى أطلقوا عليها اسم أندو ، وأشاروا أيضا إلى شعبها أحيانا بشعب أندوس . على الصعيد الرسمي ، وبسبب عدم وجود لغة مركزية رسمية للبلاد ، فقد أقر الدستور الهندي اسم " بهرات " كاسم رسمي للبلاد ومنحه المساواة القانونية الكاملة في الاستخدام إلى جانب تسمية الهند . الاسم بهرات مشتق من اسم لملك هندي أسطوري . تستخدم أحيانا كلمة هندوستان وهي الترجمة الفارسية المباشرة لاسم أرض الهندوس كوصف لبلاد وهي تستخدم أحيانا كمرادف لاسم الهند . رغم أنها تاريخيا كانت تشير إلى شمال الهند . +question : من اين اشتق اسم الهند ؟ +prompt : أجب عن السؤال التالي : من اين اشتق اسم الهند ؟ الجواب هو +pred_answer : ان الاسم مشتق من +answer : من كلمة أندوس + +context : هيفاء وهبي ( 10 مارس 1976 - ) ، مغنية وممثلة وفنانة استعراضية لبنانية مصرية ، حصلت خلال مشوارها الفني على العديد من الجوائز عن فئة الممثلات والمغنيات والفنانات الإستعراضيات . في عام 1992 تم اختيارها كملكة جمال لبنان ، وبدأت حياتها كعارضة أزياء وشاركت أيضا كمودل في عدة فيديو كليبات وأعلانات تلفزيونية ، ثم عملت كمذيعة في شبكة راديو وتلفزيون العرب عام 1999 ، وقدمت أولى ألبوماتها الغنائية في 2001 وقدمت العديد من الألبومات الغنائية وأحيت عدة حفلات في العديد من الدول العربية . دخلت مجال التمثيل كضيفة شرف في فيلم بحر النجوم عام 2008 وفي عام 2009 اختيرت لبطولة فيلم دكان شحاتة الذي أخرجه المصري خالد يوسف استمرت بالتمثيل ايضا وقدمت عدد من الأعمال مثل : فيلم حلاوة روح ومسلسل كلام على ورق ومريم والحرباية . +question : متى ولدت هيفاء وهبى ؟ +prompt : أجب عن السؤال التالي : متى ولدت هيفاء وهبى ؟ الجواب هو +pred_answer : أنها ولدت فى +answer : 10 مارس 1976 + +context : هيفاء وهبي ( 10 مارس 1976 - ) ، مغنية وممثلة وفنانة استعراضية لبنانية مصرية ، حصلت خلال مشوارها الفني على العديد من الجوائز عن فئة الممثلات والمغنيات والفنانات الإستعراضيات . في عام 1992 تم اختيارها كملكة جمال لبنان ، وبدأت حياتها كعارضة أزياء وشاركت أيضا كمودل في عدة فيديو كليبات وأعلانات تلفزيونية ، ثم عملت كمذيعة في شبكة راديو وتلفزيون العرب عام 1999 ، وقدمت أولى ألبوماتها الغنائية في 2001 وقدمت العديد من الألبومات الغنائية وأحيت عدة حفلات في العديد من الدول العربية . دخلت مجال التمثيل كضيفة شرف في فيلم بحر النجوم عام 2008 وفي عام 2009 اختيرت لبطولة فيلم دكان شحاتة الذي أخرجه المصري خالد يوسف استمرت بالتمثيل ايضا وقدمت عدد من الأعمال مثل : فيلم حلاوة روح ومسلسل كلام على ورق ومريم والحرباية . +question : متى اختيرت ملكة جمال لبنان ؟ +prompt : أجب عن السؤال التالي : متى اختيرت ملكة جمال لبنان ؟ الجواب هو +pred_answer : في العام +answer : عام 1992 + +context : هيفاء وهبي ( 10 مارس 1976 - ) ، مغنية وممثلة وفنانة استعراضية لبنانية مصرية ، حصلت خلال مشوارها الفني على العديد من الجوائز عن فئة الممثلات والمغنيات والفنانات الإستعراضيات . في عام 1992 تم اختيارها كملكة جمال لبنان ، وبدأت حياتها كعارضة أزياء وشاركت أيضا كمودل في عدة فيديو كليبات وأعلانات تلفزيونية ، ثم عملت كمذيعة في شبكة راديو وتلفزيون العرب عام 1999 ، وقدمت أولى ألبوماتها الغنائية في 2001 وقدمت العديد من الألبومات الغنائية وأحيت عدة حفلات في العديد من الدول العربية . دخلت مجال التمثيل كضيفة شرف في فيلم بحر النجوم عام 2008 وفي عام 2009 اختيرت لبطولة فيلم دكان شحاتة الذي أخرجه المصري خالد يوسف استمرت بالتمثيل ايضا وقدمت عدد من الأعمال مثل : فيلم حلاوة روح ومسلسل كلام على ورق ومريم والحرباية . +question : كيف بدأت حياتها الفنية ؟ +prompt : أجب عن السؤال التالي : كيف بدأت حياتها الفنية ؟ الجواب هو +pred_answer : : عندما كنت +answer : كعارضة أزياء + +context : ولدت في بلدة محرونة في قضاء صور جنوب لبنان في 10 مارس 1976 من أب لبناني مسلم شيعي " محمد وهبي " وأم مصرية " سيدة عبد العزيز ابراهيم " ، وقد نشأت وترعرعت هيفاء فيما بعد بالعاصمة بيروت ، ولديها ثلاث شقيقات وشقيق واحد ، وفي عام 1990 تزوجت هيفا من ابن عمتها " نصر فياض " زواج عائلي وأثناء حملها سافرت معه إلى أفريقيا حيث كان يعمل ، وخلال فترة حملها عادت إلى لبنان ووضعت طفلتها في بيروت وتم طلاقهما بعد أنجاب ابنتها بعد أن أنجبت ابنتها زينب عام 1998 ، وفي 24 أبريل 2009 تزوجت من رجل الأعمال المصري أحمد أبو هشيمة و انفصلت عنه في نوفمبر 2012 . +question : اين ولدت هيفتء وهبى ؟ +prompt : أجب عن السؤال التالي : اين ولدت هيفتء وهبى ؟ الجواب هو +pred_answer : : في القاهرة .سؤال آخر : أين +answer : بلدة محرونة في قضاء صور جنوب لبنان + +context : ولدت في بلدة محرونة في قضاء صور جنوب لبنان في 10 مارس 1976 من أب لبناني مسلم شيعي " محمد وهبي " وأم مصرية " سيدة عبد العزيز ابراهيم " ، وقد نشأت وترعرعت هيفاء فيما بعد بالعاصمة بيروت ، ولديها ثلاث شقيقات وشقيق واحد ، وفي عام 1990 تزوجت هيفا من ابن عمتها " نصر فياض " زواج عائلي وأثناء حملها سافرت معه إلى أفريقيا حيث كان يعمل ، وخلال فترة حملها عادت إلى لبنان ووضعت طفلتها في بيروت وتم طلاقهما بعد أنجاب ابنتها بعد أن أنجبت ابنتها زينب عام 1998 ، وفي 24 أبريل 2009 تزوجت من رجل الأعمال المصري أحمد أبو هشيمة و انفصلت عنه في نوفمبر 2012 . +question : من ابوها ؟ +prompt : أجب عن السؤال التالي : من ابوها ؟ الجواب هو +pred_answer : : امها +answer : محمد وهبي + +context : ولدت في بلدة محرونة في قضاء صور جنوب لبنان في 10 مارس 1976 من أب لبناني مسلم شيعي " محمد وهبي " وأم مصرية " سيدة عبد العزيز ابراهيم " ، وقد نشأت وترعرعت هيفاء فيما بعد بالعاصمة بيروت ، ولديها ثلاث شقيقات وشقيق واحد ، وفي عام 1990 تزوجت هيفا من ابن عمتها " نصر فياض " زواج عائلي وأثناء حملها سافرت معه إلى أفريقيا حيث كان يعمل ، وخلال فترة حملها عادت إلى لبنان ووضعت طفلتها في بيروت وتم طلاقهما بعد أنجاب ابنتها بعد أن أنجبت ابنتها زينب عام 1998 ، وفي 24 أبريل 2009 تزوجت من رجل الأعمال المصري أحمد أبو هشيمة و انفصلت عنه في نوفمبر 2012 . +question : من امها ؟ +prompt : أجب عن السؤال التالي : من امها ؟ الجواب هو +pred_answer : : أمها . . . +answer : سيدة عبد العزيز ابراهيم + +context : بدأت هيفا تظهر في المسابقات الجمالية فقد شاركت عام 1992 في انتخابات ملكة جمال الجنوب بلبنان ، حيث كانت تجري المسابقة على صعيد المحافظات ، فازت هيفا باللقب ولكن سحبت منها الجائزة بسبب اكتشاف المنظمين وجود ابنة لها من زواج سابق ، وبعدها بدأت العمل كعارضة أزياء في وكالة نضال البشراوي وكانت من أشهر عارضات الأزياء في العالم العربي وبدأ الجمهور يتعرف عليها عندما قامت ببطولة إعلان " معكرونة دانا " الذي حقق نجاحا كبيرا في العالم العربي . وعادت عام 1994 لتكون موديل في فيديو كليب أغنية " يا قصص " للمطربة الوطنية جوليا بطرس . وفي عام 1995 كانت موديل في فيديو كليب اغنية " بحبك حبيبي " للفنان هاني العمري لكن منع عرض الكليب من قبل الأجهزة الأمنية حينها ، نظرا لتصوير بعض مشاهد الكليب في مراكب بحرية الجيش اللبناني . وفي نفس العام صورت هيفا إعلان " مبيض الغسيل " . وفي عام 1996 كانت موديل في كليب الأغنية الشهيرة " إرضى بالنصيب " لسلطان الطرب جورج وسوف . وفي عام 1997 كانت موديل في كليب أغنية " يا ميمة " للمطرب اللبناني عاصي الحلاني . وقد قامت أيضا ببطولة إعلان " مسحوق الغسيل " في نفس السنة ، ثم بدأت في العمل كمذيعة لبرنامج عملوها إزاي بمشاركة أحمد السقا وإخراج مجدي هواري على قناة art المنوعات من خلال خيمة القاهرة الرمضانيه في رمضان من ديسمبر سنة 1998 حتى يناير سنة 1999 . +question : متى بدأت هيفاء فى الظهور فى المسبقات الجمالية ؟ +prompt : أجب عن السؤال التالي : متى بدأت هيفاء فى الظهور فى المسبقات الجمالية ؟ الجواب هو +pred_answer : عندما كانت +answer : عام 1992 + +context : بدأت هيفا تظهر في المسابقات الجمالية فقد شاركت عام 1992 في انتخابات ملكة جمال الجنوب بلبنان ، حيث كانت تجري المسابقة على صعيد المحافظات ، فازت هيفا باللقب ولكن سحبت منها الجائزة بسبب اكتشاف المنظمين وجود ابنة لها من زواج سابق ، وبعدها بدأت العمل كعارضة أزياء في وكالة نضال البشراوي وكانت من أشهر عارضات الأزياء في العالم العربي وبدأ الجمهور يتعرف عليها عندما قامت ببطولة إعلان " معكرونة دانا " الذي حقق نجاحا كبيرا في العالم العربي . وعادت عام 1994 لتكون موديل في فيديو كليب أغنية " يا قصص " للمطربة الوطنية جوليا بطرس . وفي عام 1995 كانت موديل في فيديو كليب اغنية " بحبك حبيبي " للفنان هاني العمري لكن منع عرض الكليب من قبل الأجهزة الأمنية حينها ، نظرا لتصوير بعض مشاهد الكليب في مراكب بحرية الجيش اللبناني . وفي نفس العام صورت هيفا إعلان " مبيض الغسيل " . وفي عام 1996 كانت موديل في كليب الأغنية الشهيرة " إرضى بالنصيب " لسلطان الطرب جورج وسوف . وفي عام 1997 كانت موديل في كليب أغنية " يا ميمة " للمطرب اللبناني عاصي الحلاني . وقد قامت أيضا ببطولة إعلان " مسحوق الغسيل " في نفس السنة ، ثم بدأت في العمل كمذيعة لبرنامج عملوها إزاي بمشاركة أحمد السقا وإخراج مجدي هواري على قناة art المنوعات من خلال خيمة القاهرة الرمضانيه في رمضان من ديسمبر سنة 1998 حتى يناير سنة 1999 . +question : متى بدأ الجمهور يتعرف عليها ؟ +prompt : أجب عن السؤال التالي : متى بدأ الجمهور يتعرف عليها ؟ الجواب هو +pred_answer : أنها بدأت منذ أن كانت في السابعة من +answer : عندما قامت ببطولة إعلان معكرونة دانا + +context : بدأت هيفا تظهر في المسابقات الجمالية فقد شاركت عام 1992 في انتخابات ملكة جمال الجنوب بلبنان ، حيث كانت تجري المسابقة على صعيد المحافظات ، فازت هيفا باللقب ولكن سحبت منها الجائزة بسبب اكتشاف المنظمين وجود ابنة لها من زواج سابق ، وبعدها بدأت العمل كعارضة أزياء في وكالة نضال البشراوي وكانت من أشهر عارضات الأزياء في العالم العربي وبدأ الجمهور يتعرف عليها عندما قامت ببطولة إعلان " معكرونة دانا " الذي حقق نجاحا كبيرا في العالم العربي . وعادت عام 1994 لتكون موديل في فيديو كليب أغنية " يا قصص " للمطربة الوطنية جوليا بطرس . وفي عام 1995 كانت موديل في فيديو كليب اغنية " بحبك حبيبي " للفنان هاني العمري لكن منع عرض الكليب من قبل الأجهزة الأمنية حينها ، نظرا لتصوير بعض مشاهد الكليب في مراكب بحرية الجيش اللبناني . وفي نفس العام صورت هيفا إعلان " مبيض الغسيل " . وفي عام 1996 كانت موديل في كليب الأغنية الشهيرة " إرضى بالنصيب " لسلطان الطرب جورج وسوف . وفي عام 1997 كانت موديل في كليب أغنية " يا ميمة " للمطرب اللبناني عاصي الحلاني . وقد قامت أيضا ببطولة إعلان " مسحوق الغسيل " في نفس السنة ، ثم بدأت في العمل كمذيعة لبرنامج عملوها إزاي بمشاركة أحمد السقا وإخراج مجدي هواري على قناة art المنوعات من خلال خيمة القاهرة الرمضانيه في رمضان من ديسمبر سنة 1998 حتى يناير سنة 1999 . +question : لماذا منع فيديو كليب " بحبك حبيبى " ؟ +prompt : أجب عن السؤال التالي : لماذا منع فيديو كليب " بحبك حبيبى " ؟ الجواب هو +pred_answer : أن هذا الفيديو كليب من إنتاج شركة ميلودى ، وهى +answer : نظرا لتصوير بعض مشاهد الكليب في مراكب بحرية الجيش اللبناني + +context : النادي الأهلي للرياضة البدنية ( بالإنجليزية : Al Ahly Sporting Club ) أو كما يعرف بين مشجعيه اختصارا باسم النادي الأهلي ، هو ناد رياضي مصري محترف في مدينة القاهرة يلعب في الدوري المصري الممتاز وهو النادي الوحيد في مصر بجانب نادي الزمالك الذي لم يهبط إلى دوري الدرجة الثانية . تأسس النادي الأهلي بتاريخ 24 أبريل 1907 علي يد العديد من كبار الشخصيات في مصر مثل عمر لطفي بك وأمين سامي باشا ومصطفي كامل وطلعت حرب ، وتأسس كناد للشباب الوطنيين المصريين ومنذ إنشائه اجتمع فيه المصريون لقضاء أوقاتهم وممارسة الرياضة ، وبعد ذلك تم إنشاء مجلس إدارة للنادي برئاسة الإنجليزي ميشيل إنس ، وفي 1909 تم تأسيس أول ملعب كرة قدم في تاريخ النادي وتطور هذا الملعب حتى أصبح بمسماه الحالي ( ملعب مختار التتش ) ، وتم إنشاء أول فريق كرة قدم عام 1911 ، ووصل عدد الألعاب داخل النادي الأهلي عام 1916 إلى 4 ألعاب هي كرة القدم والتنس والبلياردو والجمباز . +question : من اسس النادي الاهلي ؟ +prompt : أجب عن السؤال التالي : من اسس النادي الاهلي ؟ الجواب هو +pred_answer : صاحب السمو الملكي الأمير خالد بن عبدالله بن عبدالعزيز رئيس هيئة اعضاء الشرف بالنادي الاهلي +answer : كبار الشخصيات في مصر مثل عمر لطفي بك وأمين سامي باشا ومصطفي كامل وطلعت + +context : النادي الأهلي للرياضة البدنية ( بالإنجليزية : Al Ahly Sporting Club ) أو كما يعرف بين مشجعيه اختصارا باسم النادي الأهلي ، هو ناد رياضي مصري محترف في مدينة القاهرة يلعب في الدوري المصري الممتاز وهو النادي الوحيد في مصر بجانب نادي الزمالك الذي لم يهبط إلى دوري الدرجة الثانية . تأسس النادي الأهلي بتاريخ 24 أبريل 1907 علي يد العديد من كبار الشخصيات في مصر مثل عمر لطفي بك وأمين سامي باشا ومصطفي كامل وطلعت حرب ، وتأسس كناد للشباب الوطنيين المصريين ومنذ إنشائه اجتمع فيه المصريون لقضاء أوقاتهم وممارسة الرياضة ، وبعد ذلك تم إنشاء مجلس إدارة للنادي برئاسة الإنجليزي ميشيل إنس ، وفي 1909 تم تأسيس أول ملعب كرة قدم في تاريخ النادي وتطور هذا الملعب حتى أصبح بمسماه الحالي ( ملعب مختار التتش ) ، وتم إنشاء أول فريق كرة قدم عام 1911 ، ووصل عدد الألعاب داخل النادي الأهلي عام 1916 إلى 4 ألعاب هي كرة القدم والتنس والبلياردو والجمباز . +question : ما هي الالعاب التي قدمها النادي ؟ +prompt : أجب عن السؤال التالي : ما هي الالعاب التي قدمها النادي ؟ الجواب هو +pred_answer : ان النادي قدم العديد من الالعاب مثل كرة القدم والسلة والط +answer : 4 ألعاب هي كرة القدم والتنس والبلياردو والجمباز + +context : النادي الأهلي للرياضة البدنية ( بالإنجليزية : Al Ahly Sporting Club ) أو كما يعرف بين مشجعيه اختصارا باسم النادي الأهلي ، هو ناد رياضي مصري محترف في مدينة القاهرة يلعب في الدوري المصري الممتاز وهو النادي الوحيد في مصر بجانب نادي الزمالك الذي لم يهبط إلى دوري الدرجة الثانية . تأسس النادي الأهلي بتاريخ 24 أبريل 1907 علي يد العديد من كبار الشخصيات في مصر مثل عمر لطفي بك وأمين سامي باشا ومصطفي كامل وطلعت حرب ، وتأسس كناد للشباب الوطنيين المصريين ومنذ إنشائه اجتمع فيه المصريون لقضاء أوقاتهم وممارسة الرياضة ، وبعد ذلك تم إنشاء مجلس إدارة للنادي برئاسة الإنجليزي ميشيل إنس ، وفي 1909 تم تأسيس أول ملعب كرة قدم في تاريخ النادي وتطور هذا الملعب حتى أصبح بمسماه الحالي ( ملعب مختار التتش ) ، وتم إنشاء أول فريق كرة قدم عام 1911 ، ووصل عدد الألعاب داخل النادي الأهلي عام 1916 إلى 4 ألعاب هي كرة القدم والتنس والبلياردو والجمباز . +question : ما هو النادي الاهلي للرياضة البدنية ؟ +prompt : أجب عن السؤال التالي : ما هو النادي الاهلي للرياضة البدنية ؟ الجواب هو +pred_answer : انه ناد رياضي ثقافي اجتماعي ، تأسس عام 1375 ه الموافق 1955 م +answer : مشجعيه اختصارا باسم النادي الأهلي هو ناد رياضي مصري محترف في مدينة القاهرة يلعب + +context : يعتبر الأهلي من أكثر الأندية المصرية والعربية والأفريقية شهرة وبطولات في لعبة كرة القدم ، حيث حصل الأهلي على 20 بطولة قارية وضعته في المركز الثاني بين أندية العالم بعد ريال مدريد وحصل النادي الأهلي على درع الدوري المصري لكرة القدم 40 مرة ( رقم قياسي ) آخرها درع عام 2017 وحصل على بطولة كأس مصر 36 مرة ( رقم قياسي ) آخرها عام 2017 . وحصل " نادي الوطنية " أو " المارد الأحمر " كما يلقبه مشجعوه على بطولة دوري أبطال أفريقيا ثمانية مرات ( رقم قياسي ) آخرها في العاشر من نوفمبر 2013 والتي تأهل من خلالها إلى كأس العالم للأندية للمرة الخامسة في تاريخه ، وقد فاز أيضا بكأس السوبر المصري 9 مرات ( رقم قياسي ) وكأس السوبر الإفريقي 6 مرات ( رقم قياسي ) بالإضافة إلي كأس الاتحاد الإفريقي ( الكأس الكونفدرالية ) مرة واحدة وكأس الكؤوس الإفريقية 4 مرات والكأس الأفروآسيوية مرة واحدة ، واختير الأهلي كأفضل ناد أفريقي في القرن العشرين وذلك طبقا لقرار الاتحاد الأفريقي لكرة القدم الذي أصدره عام 2000 ، وتيمنا باسمه سميت عدة أندية في المنطقة باسم الأهلي مثل ( أهلي طرابلس ، أهلي بنغازي الليبي ، أهلي البرج الجزائري ، أهلي جدة السعودي ، الأهلي الأردني ، أهلي دبي الإماراتي ، الأهلي البحريني ، الأهلي القطري ) . +question : حصل النادي الاهلي على كم بطولة ؟ +prompt : أجب عن السؤال التالي : حصل النادي الاهلي على كم بطولة ؟ الجواب هو +pred_answer : انه حصل على عدد كبير من البطولات +answer : حصل الأهلي على 20 بطولة قارية + +context : يعتبر الأهلي من أكثر الأندية المصرية والعربية والأفريقية شهرة وبطولات في لعبة كرة القدم ، حيث حصل الأهلي على 20 بطولة قارية وضعته في المركز الثاني بين أندية العالم بعد ريال مدريد وحصل النادي الأهلي على درع الدوري المصري لكرة القدم 40 مرة ( رقم قياسي ) آخرها درع عام 2017 وحصل على بطولة كأس مصر 36 مرة ( رقم قياسي ) آخرها عام 2017 . وحصل " نادي الوطنية " أو " المارد الأحمر " كما يلقبه مشجعوه على بطولة دوري أبطال أفريقيا ثمانية مرات ( رقم قياسي ) آخرها في العاشر من نوفمبر 2013 والتي تأهل من خلالها إلى كأس العالم للأندية للمرة الخامسة في تاريخه ، وقد فاز أيضا بكأس السوبر المصري 9 مرات ( رقم قياسي ) وكأس السوبر الإفريقي 6 مرات ( رقم قياسي ) بالإضافة إلي كأس الاتحاد الإفريقي ( الكأس الكونفدرالية ) مرة واحدة وكأس الكؤوس الإفريقية 4 مرات والكأس الأفروآسيوية مرة واحدة ، واختير الأهلي كأفضل ناد أفريقي في القرن العشرين وذلك طبقا لقرار الاتحاد الأفريقي لكرة القدم الذي أصدره عام 2000 ، وتيمنا باسمه سميت عدة أندية في المنطقة باسم الأهلي مثل ( أهلي طرابلس ، أهلي بنغازي الليبي ، أهلي البرج الجزائري ، أهلي جدة السعودي ، الأهلي الأردني ، أهلي دبي الإماراتي ، الأهلي البحريني ، الأهلي القطري ) . +question : ما هو مركز النادي بين االاندية ؟ +prompt : أجب عن السؤال التالي : ما هو مركز النادي بين االاندية ؟ الجواب هو +pred_answer : المركز الثاني في الترتيب العام للدوري السعودي لكرة القدم +answer : المركز الثاني بين أندية العالم بعد ريال مدريد + +context : يعتبر الأهلي من أكثر الأندية المصرية والعربية والأفريقية شهرة وبطولات في لعبة كرة القدم ، حيث حصل الأهلي على 20 بطولة قارية وضعته في المركز الثاني بين أندية العالم بعد ريال مدريد وحصل النادي الأهلي على درع الدوري المصري لكرة القدم 40 مرة ( رقم قياسي ) آخرها درع عام 2017 وحصل على بطولة كأس مصر 36 مرة ( رقم قياسي ) آخرها عام 2017 . وحصل " نادي الوطنية " أو " المارد الأحمر " كما يلقبه مشجعوه على بطولة دوري أبطال أفريقيا ثمانية مرات ( رقم قياسي ) آخرها في العاشر من نوفمبر 2013 والتي تأهل من خلالها إلى كأس العالم للأندية للمرة الخامسة في تاريخه ، وقد فاز أيضا بكأس السوبر المصري 9 مرات ( رقم قياسي ) وكأس السوبر الإفريقي 6 مرات ( رقم قياسي ) بالإضافة إلي كأس الاتحاد الإفريقي ( الكأس الكونفدرالية ) مرة واحدة وكأس الكؤوس الإفريقية 4 مرات والكأس الأفروآسيوية مرة واحدة ، واختير الأهلي كأفضل ناد أفريقي في القرن العشرين وذلك طبقا لقرار الاتحاد الأفريقي لكرة القدم الذي أصدره عام 2000 ، وتيمنا باسمه سميت عدة أندية في المنطقة باسم الأهلي مثل ( أهلي طرابلس ، أهلي بنغازي الليبي ، أهلي البرج الجزائري ، أهلي جدة السعودي ، الأهلي الأردني ، أهلي دبي الإماراتي ، الأهلي البحريني ، الأهلي القطري ) . +question : كم عد الدروع التي حصل عليها النادي ؟ +prompt : أجب عن السؤال التالي : كم عد الدروع التي حصل عليها النادي ؟ الجواب هو +pred_answer : ( 10 ) دروع من أصل ( 100 ) درع ، أي أن +answer : وحصل النادي الأهلي على درع الدوري المصري لكرة القدم 40 مرة رقم قياسي + +context : طرح عمر لطفي بك فكرة تأسيس النادي الأهلي في العقد الأول من القرن ، وقد تولدت الفكرة في ذهنه خلال رئاسته لنادي طلبة المدارس العليا الذي أنشئ عام 1905 ، لأنه اعتبر أن تأسيس نادي طلبة المدارس العليا سياسيا بالدرجة الأولى ، ووجد أن هؤلاء الطلبة بحاجة إلى ناد رياضي يجمعهم لقضاء وقت الفراغ وممارسة الرياضة ، فقام بعرض فكرة إنشاء النادي على مجموعة من أصدقائه اللذين تحمسوا للفكرة وكان على رأسهم الزعيم مصطفي كامل ، ليتم تأسيس النادي الأهلي عام 1907 ، ويعتبر النادي الأهلي أول ناد للمصريين في مصر . +question : تولدت فكرة النادي في اي زمن ؟ +prompt : أجب عن السؤال التالي : تولدت فكرة النادي في اي زمن ؟ الجواب هو +pred_answer : : ولدت الفكرة في عام +answer : العقد الأول من القرن + +context : طرح عمر لطفي بك فكرة تأسيس النادي الأهلي في العقد الأول من القرن ، وقد تولدت الفكرة في ذهنه خلال رئاسته لنادي طلبة المدارس العليا الذي أنشئ عام 1905 ، لأنه اعتبر أن تأسيس نادي طلبة المدارس العليا سياسيا بالدرجة الأولى ، ووجد أن هؤلاء الطلبة بحاجة إلى ناد رياضي يجمعهم لقضاء وقت الفراغ وممارسة الرياضة ، فقام بعرض فكرة إنشاء النادي على مجموعة من أصدقائه اللذين تحمسوا للفكرة وكان على رأسهم الزعيم مصطفي كامل ، ليتم تأسيس النادي الأهلي عام 1907 ، ويعتبر النادي الأهلي أول ناد للمصريين في مصر . +question : لماذا أسس النادي للطلبة ؟ +prompt : أجب عن السؤال التالي : لماذا أسس النادي للطلبة ؟ الجواب هو +pred_answer : أن تأسيس النادي كان من أجل الطلبة أنفسهم ، وليس من أجل أي +answer : الطلبة بحاجة إلى ناد رياضي يجمعهم لقضاء وقت الفراغ وممارسة الرياضة + +context : طرح عمر لطفي بك فكرة تأسيس النادي الأهلي في العقد الأول من القرن ، وقد تولدت الفكرة في ذهنه خلال رئاسته لنادي طلبة المدارس العليا الذي أنشئ عام 1905 ، لأنه اعتبر أن تأسيس نادي طلبة المدارس العليا سياسيا بالدرجة الأولى ، ووجد أن هؤلاء الطلبة بحاجة إلى ناد رياضي يجمعهم لقضاء وقت الفراغ وممارسة الرياضة ، فقام بعرض فكرة إنشاء النادي على مجموعة من أصدقائه اللذين تحمسوا للفكرة وكان على رأسهم الزعيم مصطفي كامل ، ليتم تأسيس النادي الأهلي عام 1907 ، ويعتبر النادي الأهلي أول ناد للمصريين في مصر . +question : متى أسس النادي الاهلي ؟ +prompt : أجب عن السؤال التالي : متى أسس النادي الاهلي ؟ الجواب هو +pred_answer : في عام +answer : عام 1907 + +context : ختان الإناث أو تشويه الأعضاء التناسلية الأنثوية أو الخفض مصطلحات لها اختلاف بحسب السياق اللغوي المستخدم . تختلف طريقة ممارسة هذه العملية حسب المكان وحسب التقاليد لكنها تجري في بعض الأماكن دون أي تخدير موضعي وقد يستخدم موس أو سكين بدون أي تعقيم أو تطهير لتلك الأدوات المستخدمة في هذه العملية . يختلف العمر الذي تجري فيه هذه العملية من أسبوع بعد الولادة وحتى سن البلوغ . حسب تقرير اليونيسف ، أغلب الإناث التي تجري عليهن عملية الختان لم يتعدين الخامسة من العمر . تشتمل هذه العملية على إزالة غطاء البظر وحشفته ، واستئصال الشفرين الصغيرين والكبيرين ، وختم الفرج ( غلقه ) ، بحيث لا يترك إلا فتحة صغيرة للسماح بمرور البول ودماء الحيض ؛ وفتح المهبل للسماح بالجماع والإنجاب لاحقا . قدر صندوق سكان الأمم المتحدة سنة 2010 أن 20 % من الإناث اللواتي ختن تمت إزالة الجزء الخارجي من أعضائهن التناسلية وخياطة فرجهن ، وهي العملية المعروفة ب « الختان الفرعوني » أو « » ، الشائعة في شمال شرق أفريقيا بالأخص . +question : ما هو ختان الإناث ؟ +prompt : أجب عن السؤال التالي : ما هو ختان الإناث ؟ الجواب هو +pred_answer : أنه عملية جراحية يتم فيها إزالة القلفة +answer : تشويه الأعضاء التناسلية الأنثوية أو الخفض + +context : ختان الإناث أو تشويه الأعضاء التناسلية الأنثوية أو الخفض مصطلحات لها اختلاف بحسب السياق اللغوي المستخدم . تختلف طريقة ممارسة هذه العملية حسب المكان وحسب التقاليد لكنها تجري في بعض الأماكن دون أي تخدير موضعي وقد يستخدم موس أو سكين بدون أي تعقيم أو تطهير لتلك الأدوات المستخدمة في هذه العملية . يختلف العمر الذي تجري فيه هذه العملية من أسبوع بعد الولادة وحتى سن البلوغ . حسب تقرير اليونيسف ، أغلب الإناث التي تجري عليهن عملية الختان لم يتعدين الخامسة من العمر . تشتمل هذه العملية على إزالة غطاء البظر وحشفته ، واستئصال الشفرين الصغيرين والكبيرين ، وختم الفرج ( غلقه ) ، بحيث لا يترك إلا فتحة صغيرة للسماح بمرور البول ودماء الحيض ؛ وفتح المهبل للسماح بالجماع والإنجاب لاحقا . قدر صندوق سكان الأمم المتحدة سنة 2010 أن 20 % من الإناث اللواتي ختن تمت إزالة الجزء الخارجي من أعضائهن التناسلية وخياطة فرجهن ، وهي العملية المعروفة ب « الختان الفرعوني » أو « » ، الشائعة في شمال شرق أفريقيا بالأخص . +question : كيف تجرى العملية ؟ +prompt : أجب عن السؤال التالي : كيف تجرى العملية ؟ الجواب هو +pred_answer : كالتالي : 1 - يقوم الجراح بعمل فتحة صغيرة في أسفل البطن .2 - +answer : موضعي وقد يستخدم موس أو سكين بدون أي تعقيم أو تطهير لتلك الأدوات المستخدمة + +context : ختان الإناث أو تشويه الأعضاء التناسلية الأنثوية أو الخفض مصطلحات لها اختلاف بحسب السياق اللغوي المستخدم . تختلف طريقة ممارسة هذه العملية حسب المكان وحسب التقاليد لكنها تجري في بعض الأماكن دون أي تخدير موضعي وقد يستخدم موس أو سكين بدون أي تعقيم أو تطهير لتلك الأدوات المستخدمة في هذه العملية . يختلف العمر الذي تجري فيه هذه العملية من أسبوع بعد الولادة وحتى سن البلوغ . حسب تقرير اليونيسف ، أغلب الإناث التي تجري عليهن عملية الختان لم يتعدين الخامسة من العمر . تشتمل هذه العملية على إزالة غطاء البظر وحشفته ، واستئصال الشفرين الصغيرين والكبيرين ، وختم الفرج ( غلقه ) ، بحيث لا يترك إلا فتحة صغيرة للسماح بمرور البول ودماء الحيض ؛ وفتح المهبل للسماح بالجماع والإنجاب لاحقا . قدر صندوق سكان الأمم المتحدة سنة 2010 أن 20 % من الإناث اللواتي ختن تمت إزالة الجزء الخارجي من أعضائهن التناسلية وخياطة فرجهن ، وهي العملية المعروفة ب « الختان الفرعوني » أو « » ، الشائعة في شمال شرق أفريقيا بالأخص . +question : كم تتراوح اعمار الفتيات التي تجري عليهن العملية ؟ +prompt : أجب عن السؤال التالي : كم تتراوح اعمار الفتيات التي تجري عليهن العملية ؟ الجواب هو +pred_answer : ما بين 18 و 25 سنة .واذا كان عمر الفتاة اقل من ذلك +answer : يختلف العمر الذي تجري فيه هذه العملية من أسبوع بعد الولادة وحتى سن البلوغ + +context : ينظر إلى هذه العادة حاليا في العديد من المجمتعات حول العالم على أنها إحدى أبرز أشكال التمييز الجنسي ، أو أنها محاولة للتحكم بالحياة الجنسية للمرأة ، فيما تنظر إليها مجتمعات أو جماعات أخرى على أنها علامة من علامات الطهارة والعفة والتواضع . غالبا ما تقدم النساء البالغات على ختن بناتهن ، اللواتي يعتبرن هذا الفعل مدعاة للشرف ، وإن عدم الإتيان به يعرض بناتهن إلى العار أو الإقصاء الاجتماعي . تختلف الآثار الصحية لختان البنات باختلاف طبيعية العملية ، فقد تعاني المختونة من التهابات متكررة ، وصعوبة في التبول وفي تدفق الطمث ، وبروز خراجات ، وصعوبة في حمل الجنين ، ومضاعفات عند الولادة ، ونزف مهلك . ولا تعرف أية فوائد صحية لهذه العملية . +question : لماذا يتقدمن النساء البالغات على ختن بناتهن ؟ +prompt : أجب عن السؤال التالي : لماذا يتقدمن النساء البالغات على ختن بناتهن ؟ الجواب هو +pred_answer : لأنهن يرغبن في أن يصبحن أمهات جيدات لأطفالهن ، ولأنهن يشعر +answer : يعتبرن هذا الفعل مدعاة للشرف وإن عدم الإتيان به يعرض بناتهن إلى العار + +context : ينظر إلى هذه العادة حاليا في العديد من المجمتعات حول العالم على أنها إحدى أبرز أشكال التمييز الجنسي ، أو أنها محاولة للتحكم بالحياة الجنسية للمرأة ، فيما تنظر إليها مجتمعات أو جماعات أخرى على أنها علامة من علامات الطهارة والعفة والتواضع . غالبا ما تقدم النساء البالغات على ختن بناتهن ، اللواتي يعتبرن هذا الفعل مدعاة للشرف ، وإن عدم الإتيان به يعرض بناتهن إلى العار أو الإقصاء الاجتماعي . تختلف الآثار الصحية لختان البنات باختلاف طبيعية العملية ، فقد تعاني المختونة من التهابات متكررة ، وصعوبة في التبول وفي تدفق الطمث ، وبروز خراجات ، وصعوبة في حمل الجنين ، ومضاعفات عند الولادة ، ونزف مهلك . ولا تعرف أية فوائد صحية لهذه العملية . +question : ما هي اللأخطار الصحية للختن ؟ +prompt : أجب عن السؤال التالي : ما هي اللأخطار الصحية للختن ؟ الجواب هو +pred_answer : أن الختن قد يؤدي إلى حدوث بعض الأمراض مثل التهاب الكبد الوبائي ( ب ) والتهاب الكبد +answer : متكررة وصعوبة في التبول وفي تدفق الطمث وبروز خراجات وصعوبة في حمل الجنين ومضاعفات + +context : ينظر إلى هذه العادة حاليا في العديد من المجمتعات حول العالم على أنها إحدى أبرز أشكال التمييز الجنسي ، أو أنها محاولة للتحكم بالحياة الجنسية للمرأة ، فيما تنظر إليها مجتمعات أو جماعات أخرى على أنها علامة من علامات الطهارة والعفة والتواضع . غالبا ما تقدم النساء البالغات على ختن بناتهن ، اللواتي يعتبرن هذا الفعل مدعاة للشرف ، وإن عدم الإتيان به يعرض بناتهن إلى العار أو الإقصاء الاجتماعي . تختلف الآثار الصحية لختان البنات باختلاف طبيعية العملية ، فقد تعاني المختونة من التهابات متكررة ، وصعوبة في التبول وفي تدفق الطمث ، وبروز خراجات ، وصعوبة في حمل الجنين ، ومضاعفات عند الولادة ، ونزف مهلك . ولا تعرف أية فوائد صحية لهذه العملية . +question : ما هي فوائد العملية ؟ +prompt : أجب عن السؤال التالي : ما هي فوائد العملية ؟ الجواب هو +pred_answer : أن عملية زراعة الشعر تعتبر من العمليات +answer : ولا تعرف أية فوائد صحية لهذه العملية + +context : مصر هي أكثر الدول من حيث عدد الفتيات اللاتي أجريت عليهن العملية حول العالم . والصومال وغينيا وجيبوتي الأعلى نسبة في عدد المختونات . تنص قوانين أغلب الدول التي يشاع فيها ختان الإناث على عدم شرعية هذا الأمر ، على أن القوانين الرادعة للختان قلما تطبق . انطلقت محاولات وجهود حثيثة لإبطال هذه العادة منذ سبعينيات القرن العشرين ، عبر محاولة إقناع الناس بخطورتها وضرورة التخلي عنها ، وفي اجتماع للجمعية العامة للأمم المتحدة سنة 2012 ، صوت الأعضاء بالإجماع على ضرورة تكثيف الجهود لإيقاف ختان الإناث حول العالم باعتبار أن هذا الفعل يعد خرقا لحقوق الإنسان . وكانت الأمم المتحدة قد أعلنت السادس من شباط ( فبراير ) « يوما عالميا لرفض ختان الإناث » . على أن هذه المعارضة الأممية لم تمر مرور الكرام ، فتعرضت للانتقاد المكثف من قبل علماء الإنسانيات ( الأنثرو ولوجيا ) بالأخص . فعلى سبيل المثال ، كتب الدكتور أريك سيل رمان يقول أن ختان الإناث استحال إحدى المواضيع الأخلاقية المركزية في علم الإنسانيات ، طارحا أسئلة معقدة عن النسبوية الثقافية ، ومدى شمولية التسامح البشري وعالمية حقوق الإنسان ، ومدى تقبل الناس لعادات وتقاليد بعضهم البعض . +question : في أي دولة تجري هذه العملية بكثرة ؟ +prompt : أجب عن السؤال التالي : في أي دولة تجري هذه العملية بكثرة ؟ الجواب هو +pred_answer : نعم ، ففي الولايات +answer : مصر هي أكثر الدول + +context : مصر هي أكثر الدول من حيث عدد الفتيات اللاتي أجريت عليهن العملية حول العالم . والصومال وغينيا وجيبوتي الأعلى نسبة في عدد المختونات . تنص قوانين أغلب الدول التي يشاع فيها ختان الإناث على عدم شرعية هذا الأمر ، على أن القوانين الرادعة للختان قلما تطبق . انطلقت محاولات وجهود حثيثة لإبطال هذه العادة منذ سبعينيات القرن العشرين ، عبر محاولة إقناع الناس بخطورتها وضرورة التخلي عنها ، وفي اجتماع للجمعية العامة للأمم المتحدة سنة 2012 ، صوت الأعضاء بالإجماع على ضرورة تكثيف الجهود لإيقاف ختان الإناث حول العالم باعتبار أن هذا الفعل يعد خرقا لحقوق الإنسان . وكانت الأمم المتحدة قد أعلنت السادس من شباط ( فبراير ) « يوما عالميا لرفض ختان الإناث » . على أن هذه المعارضة الأممية لم تمر مرور الكرام ، فتعرضت للانتقاد المكثف من قبل علماء الإنسانيات ( الأنثرو ولوجيا ) بالأخص . فعلى سبيل المثال ، كتب الدكتور أريك سيل رمان يقول أن ختان الإناث استحال إحدى المواضيع الأخلاقية المركزية في علم الإنسانيات ، طارحا أسئلة معقدة عن النسبوية الثقافية ، ومدى شمولية التسامح البشري وعالمية حقوق الإنسان ، ومدى تقبل الناس لعادات وتقاليد بعضهم البعض . +question : بماذا صوت أعضاء ألأمم المتحدة ؟ +prompt : أجب عن السؤال التالي : بماذا صوت أعضاء ألأمم المتحدة ؟ الجواب هو +pred_answer : " نعم " . لقد صوتت الجمعية العامة للأمم المتحدة بأغلبية ساحقة لصالح +answer : صوت الأعضاء بالإجماع على ضرورة تكثيف الجهود لإيقاف ختان الإناث حول العالم + +context : مصر هي أكثر الدول من حيث عدد الفتيات اللاتي أجريت عليهن العملية حول العالم . والصومال وغينيا وجيبوتي الأعلى نسبة في عدد المختونات . تنص قوانين أغلب الدول التي يشاع فيها ختان الإناث على عدم شرعية هذا الأمر ، على أن القوانين الرادعة للختان قلما تطبق . انطلقت محاولات وجهود حثيثة لإبطال هذه العادة منذ سبعينيات القرن العشرين ، عبر محاولة إقناع الناس بخطورتها وضرورة التخلي عنها ، وفي اجتماع للجمعية العامة للأمم المتحدة سنة 2012 ، صوت الأعضاء بالإجماع على ضرورة تكثيف الجهود لإيقاف ختان الإناث حول العالم باعتبار أن هذا الفعل يعد خرقا لحقوق الإنسان . وكانت الأمم المتحدة قد أعلنت السادس من شباط ( فبراير ) « يوما عالميا لرفض ختان الإناث » . على أن هذه المعارضة الأممية لم تمر مرور الكرام ، فتعرضت للانتقاد المكثف من قبل علماء الإنسانيات ( الأنثرو ولوجيا ) بالأخص . فعلى سبيل المثال ، كتب الدكتور أريك سيل رمان يقول أن ختان الإناث استحال إحدى المواضيع الأخلاقية المركزية في علم الإنسانيات ، طارحا أسئلة معقدة عن النسبوية الثقافية ، ومدى شمولية التسامح البشري وعالمية حقوق الإنسان ، ومدى تقبل الناس لعادات وتقاليد بعضهم البعض . +question : متى اليم العالمي لرفض ختان الإناث ؟ +prompt : أجب عن السؤال التالي : متى اليم العالمي لرفض ختان الإناث ؟ الجواب هو +pred_answer : يوم 8 فبراير من كل +answer : السادس من شباط فبراير + +context : فلسطين ( بالعبرية : أو حسب السياق ، باليونانية : ) هي منطقة جغرافية في غرب آسيا عادة ما تشمل إسرائيل ، والضفة الغربية ، وقطاع غزة ، وفي بعض التعاريف ، بعض أجزاء من غرب الأردن مشكلة الجزء الجنوبي الغربي من بلاد الشام . عقب الحرب العالمية الأولى وتبعاتها من سقوط الدولة العثمانية التي كانت تسيطر على فلسطين ومعاهدة سيفر ومؤتمر سان ريمو واتفاقية سايكس بيكو ، رسمت حدود الإنتداب البريطاني على فلسطين ، فكانت الحدود تمتد بشكل طولي من الشمال إلى الجنوب على نحو أربع درجات عرض ، حيث تمتد بين دائرتي عرض 29 , 30 و 33 , 15 شمالا وبين خطي الطول 34 , 15 و 35 , 40 شرقا ، بمساحة 26 , 990 كم 2 ، بما في ذلك بحيرة طبريا ونصف البحر الميت . يحدها من الغرب البحر المتوسط بساحل طوله 224 كم ، ومن الشرق سورية والأردن ، ومن الشمال لبنان ، ومن الجنوب مصر وخليج العقبة . وفلسطين مستطيلة الشكل طولها من الشمال إلى الجنوب 430 كم ، أما عرضها ففي الشمال يراوح بين 51 - 70 كم ، وفي الوسط 72 - 95 كم عند القدس ، أما في الجنوب فإن العرض يتسع ليصل إلى 117 كم عند رفح وخان يونس حتى البحر الميت . وتمتلك المنطقة أرضا متنوعة جدا ، وتقسم جغرافيا إلى أربع مناطق ، وهي من الغرب إلى الشرق السهل الساحلي ، والتلال ، والجبال ( جبال الجليل وجبال نابلس وجبال القدس وجبال الخليل ) والأغوار ( غور الأردن ) . في أقصى الجنوب هناك صحراء النقب . بين جبال نابلس وجبال الجليل يقع مرج بن عامر ويقطع جبل الكرمل ، الذي يمتد من جبال نابلس شمالا غربا ، السهل الساحلي . تتراوح الارتفاعات من 417 مترا تحت مستوى البحر في البحر الميت ( وهي أخفض نقطة على سطح اليابسة في العالم ) إلى 1204 مترا فوق مستوى البحر في قمة جبل الجرمق ( جبل ميرون كما يسمى في إسرائيل ) . +question : ماذا يحد فلسطين من الغرب والشرق ؟ +prompt : أجب عن السؤال التالي : ماذا يحد فلسطين من الغرب والشرق ؟ الجواب هو +pred_answer : ما يلي : أولا ، إسرائيل .ثانيا ، أميركا .ثالثا +answer : يحدها من الغرب البحر المتوسط بساحل طوله 224 كم ومن الشرق سورية والأردن + +context : فلسطين ( بالعبرية : أو حسب السياق ، باليونانية : ) هي منطقة جغرافية في غرب آسيا عادة ما تشمل إسرائيل ، والضفة الغربية ، وقطاع غزة ، وفي بعض التعاريف ، بعض أجزاء من غرب الأردن مشكلة الجزء الجنوبي الغربي من بلاد الشام . عقب الحرب العالمية الأولى وتبعاتها من سقوط الدولة العثمانية التي كانت تسيطر على فلسطين ومعاهدة سيفر ومؤتمر سان ريمو واتفاقية سايكس بيكو ، رسمت حدود الإنتداب البريطاني على فلسطين ، فكانت الحدود تمتد بشكل طولي من الشمال إلى الجنوب على نحو أربع درجات عرض ، حيث تمتد بين دائرتي عرض 29 , 30 و 33 , 15 شمالا وبين خطي الطول 34 , 15 و 35 , 40 شرقا ، بمساحة 26 , 990 كم 2 ، بما في ذلك بحيرة طبريا ونصف البحر الميت . يحدها من الغرب البحر المتوسط بساحل طوله 224 كم ، ومن الشرق سورية والأردن ، ومن الشمال لبنان ، ومن الجنوب مصر وخليج العقبة . وفلسطين مستطيلة الشكل طولها من الشمال إلى الجنوب 430 كم ، أما عرضها ففي الشمال يراوح بين 51 - 70 كم ، وفي الوسط 72 - 95 كم عند القدس ، أما في الجنوب فإن العرض يتسع ليصل إلى 117 كم عند رفح وخان يونس حتى البحر الميت . وتمتلك المنطقة أرضا متنوعة جدا ، وتقسم جغرافيا إلى أربع مناطق ، وهي من الغرب إلى الشرق السهل الساحلي ، والتلال ، والجبال ( جبال الجليل وجبال نابلس وجبال القدس وجبال الخليل ) والأغوار ( غور الأردن ) . في أقصى الجنوب هناك صحراء النقب . بين جبال نابلس وجبال الجليل يقع مرج بن عامر ويقطع جبل الكرمل ، الذي يمتد من جبال نابلس شمالا غربا ، السهل الساحلي . تتراوح الارتفاعات من 417 مترا تحت مستوى البحر في البحر الميت ( وهي أخفض نقطة على سطح اليابسة في العالم ) إلى 1204 مترا فوق مستوى البحر في قمة جبل الجرمق ( جبل ميرون كما يسمى في إسرائيل ) . +question : ماذا يحد فلسطين من الشمال والجنوب ؟ +prompt : أجب عن السؤال التالي : ماذا يحد فلسطين من الشمال والجنوب ؟ الجواب هو +pred_answer : أن إسرائيل تحتل الضفة الغربية وقطاع غزة منذ عام 1967 +answer : ومن الشمال لبنان ومن الجنوب مصر وخليج العقبة + +context : من ناحية سياسية ، تعد فلسطين من أكثر مناطق العالم توترا أمنيا جراء ما تعده كثير من منظمات حقوق الإنسان الدولية انتهاكات إسرائيلية بحق المدنيين الفلسطينيين إلى جانب العمليات الاستيطانية التي تزيد من تأزم الوضع إضافة إلى المعاملة العنصرية كجدار الفصل الإسرائيلي الذي أقامته في الضفة الغربية والذي اعتبره الكثيرون عنصريا ، كل هذه الأمور تسببت في خلق مناخ أمني سيء . منذ تأسيس السلطة الوطنية الفلسطينية عام 1993 ، فإن اسم فلسطين قد يستخدم دوليا ضمن بعض السياقات للإشارة أحيانا إلى الأراضي الواقعة تحت حكم السلطة الفلسطينية . أما لقب فلسطيني فيشير اليوم ، وخاصة منذ 1948 ، إلى السكان العرب في جميع أنحاء المنطقة ( بينما يفضل السكان اليهود عدم استخدام هذا اللقب إشارة إلى أنفسهم ) . +question : متى تأست السلطة الوطنية الفلسطينية ؟ +prompt : أجب عن السؤال التالي : متى تأست السلطة الوطنية الفلسطينية ؟ الجواب هو +pred_answer : : بعد +answer : عام 1993 + +context : من ناحية سياسية ، تعد فلسطين من أكثر مناطق العالم توترا أمنيا جراء ما تعده كثير من منظمات حقوق الإنسان الدولية انتهاكات إسرائيلية بحق المدنيين الفلسطينيين إلى جانب العمليات الاستيطانية التي تزيد من تأزم الوضع إضافة إلى المعاملة العنصرية كجدار الفصل الإسرائيلي الذي أقامته في الضفة الغربية والذي اعتبره الكثيرون عنصريا ، كل هذه الأمور تسببت في خلق مناخ أمني سيء . منذ تأسيس السلطة الوطنية الفلسطينية عام 1993 ، فإن اسم فلسطين قد يستخدم دوليا ضمن بعض السياقات للإشارة أحيانا إلى الأراضي الواقعة تحت حكم السلطة الفلسطينية . أما لقب فلسطيني فيشير اليوم ، وخاصة منذ 1948 ، إلى السكان العرب في جميع أنحاء المنطقة ( بينما يفضل السكان اليهود عدم استخدام هذا اللقب إشارة إلى أنفسهم ) . +question : ما هي بعض ألأشياء التي يتعرض لها الفلسطينيين من قبل اليهود ؟ +prompt : أجب عن السؤال التالي : ما هي بعض ألأشياء التي يتعرض لها الفلسطينيين من قبل اليهود ؟ الجواب هو +pred_answer : : 1 - مصادرة الأراضي .2 - هدم البيوت .3 - طرد السكان .4 - +answer : العمليات الاستيطانية التي تزيد من تأزم الوضع إضافة إلى المعاملة العنصرية كجدار الفصل الإسرائيلي + +context : من ناحية سياسية ، تعد فلسطين من أكثر مناطق العالم توترا أمنيا جراء ما تعده كثير من منظمات حقوق الإنسان الدولية انتهاكات إسرائيلية بحق المدنيين الفلسطينيين إلى جانب العمليات الاستيطانية التي تزيد من تأزم الوضع إضافة إلى المعاملة العنصرية كجدار الفصل الإسرائيلي الذي أقامته في الضفة الغربية والذي اعتبره الكثيرون عنصريا ، كل هذه الأمور تسببت في خلق مناخ أمني سيء . منذ تأسيس السلطة الوطنية الفلسطينية عام 1993 ، فإن اسم فلسطين قد يستخدم دوليا ضمن بعض السياقات للإشارة أحيانا إلى الأراضي الواقعة تحت حكم السلطة الفلسطينية . أما لقب فلسطيني فيشير اليوم ، وخاصة منذ 1948 ، إلى السكان العرب في جميع أنحاء المنطقة ( بينما يفضل السكان اليهود عدم استخدام هذا اللقب إشارة إلى أنفسهم ) . +question : ألى ماذا يشير إسم فلسطين ؟ +prompt : أجب عن السؤال التالي : ألى ماذا يشير إسم فلسطين ؟ الجواب هو +pred_answer : " أرض كنعان " أو " أرض +answer : إلى الأراضي الواقعة تحت حكم السلطة الفلسطينية + +context : من التدوينات التي تعارف عليها لاستخدام اسم " فلسطين " إشارة إلى المنطقة الجغرافية جنوبي بلاد الشام ما كتبه المؤرخ الإغريقي هيرودوت في مؤلفاته في القرن الخامس قبل الميلاد ، إذ أشار إلى منطقتي بلاد الشام وبلاد الرافدين باسم " سوريا " وإلى جنوبها ب " فلسطين " ( " ليستينيه " ) و " فلسطين السورية " . وعلى ما يبدو استعار هيرودوت هذا الاسم من اسم " لشت " الذي أشار إلى الساحل الجنوبي ما بين يافا ووادي العريش حيث وقعت المدن الفلستية . وكان الفلستيون من شعوب البحر ومن أبرز الشعوب التي عاشت في منطقة فلسطين من القرن ال 12 ق . م . ولمدة 500 عام على الأقل . +question : من هو المؤرخ الإغريقي ؟ +prompt : أجب عن السؤال التالي : من هو المؤرخ الإغريقي ؟ الجواب هو +pred_answer : هيرودوت +answer : هيرودوت + +context : من التدوينات التي تعارف عليها لاستخدام اسم " فلسطين " إشارة إلى المنطقة الجغرافية جنوبي بلاد الشام ما كتبه المؤرخ الإغريقي هيرودوت في مؤلفاته في القرن الخامس قبل الميلاد ، إذ أشار إلى منطقتي بلاد الشام وبلاد الرافدين باسم " سوريا " وإلى جنوبها ب " فلسطين " ( " ليستينيه " ) و " فلسطين السورية " . وعلى ما يبدو استعار هيرودوت هذا الاسم من اسم " لشت " الذي أشار إلى الساحل الجنوبي ما بين يافا ووادي العريش حيث وقعت المدن الفلستية . وكان الفلستيون من شعوب البحر ومن أبرز الشعوب التي عاشت في منطقة فلسطين من القرن ال 12 ق . م . ولمدة 500 عام على الأقل . +question : من أي اسم استعار اسماء سوريا وفلسطين ؟ +prompt : أجب عن السؤال التالي : من أي اسم استعار اسماء سوريا وفلسطين ؟ الجواب هو +pred_answer : : فلسطين وسوريا . +answer : من اسم لشت + +context : من التدوينات التي تعارف عليها لاستخدام اسم " فلسطين " إشارة إلى المنطقة الجغرافية جنوبي بلاد الشام ما كتبه المؤرخ الإغريقي هيرودوت في مؤلفاته في القرن الخامس قبل الميلاد ، إذ أشار إلى منطقتي بلاد الشام وبلاد الرافدين باسم " سوريا " وإلى جنوبها ب " فلسطين " ( " ليستينيه " ) و " فلسطين السورية " . وعلى ما يبدو استعار هيرودوت هذا الاسم من اسم " لشت " الذي أشار إلى الساحل الجنوبي ما بين يافا ووادي العريش حيث وقعت المدن الفلستية . وكان الفلستيون من شعوب البحر ومن أبرز الشعوب التي عاشت في منطقة فلسطين من القرن ال 12 ق . م . ولمدة 500 عام على الأقل . +question : الى ماذا أشار اسم لشت ؟ +prompt : أجب عن السؤال التالي : الى ماذا أشار اسم لشت ؟ الجواب هو +pred_answer : ان الاسم يشير الى ما يلي : 1 +answer : إلى الساحل الجنوبي ما بين يافا ووادي العريش + +context : سعود بن عبد العزيز بن عبد الرحمن بن فيصل بن تركي آل سعود ( 5 شوال 1319 ه 15 يناير 1902 - 6 ذو الحجة 1388 ه 23 فبراير 1969 ) ، ملك المملكة العربية السعودية من 9 نوفمبر 1953 إلى 2 نوفمبر 1964 ، وهو الأبن الثاني من أبناء الملك عبد العزيز آل سعود الذكور ، ومن زوجته وضحى بنت محمد العريعر ، وولد في نفس السنة التي أستعاد فيها والده الملك عبد العزيز آل سعود الرياض من آل رشيد ، وهو الملك الوحيد من ملوك السعودية الذي انتهى حكمه بالعزل من قبل أفراد العائلة المالكة وليس بالوفاة . ولد الملك سعود في الخامس من شوال 1319 ه الموافق 15 كانون الثاني 1902 ، في الليلة التي وافقت استعادة الملك عبد العزيز الرياض . وذلك في منزل في قلب المدينة القديمة يدعى بيت العامر في الكويت في منطقة سكة عنزة التي كان يقطن فيها افراد من قبيلة عنزة بقرب من بوابة السبعان ومسجد بن بحر وأيضا المدرسة المباركية ، الذي لقب لاحقا بفريج سعود نسبة لآل سعود . كان يقطن سعود مع والديه واخوته وجده الإمام عبد الرحمن بن فيصل وجدته سارة بنت أحمد السديري . وكان لقرب سعود وأخيه الكبير تركي الأول من جدهما وجدتهما في طفولتهما أكبر الأثر في تربيتهما ، وكما يروي كبار السن من ذوي القربى كانت جدتهما تعاملهما منذ سن مبكرة كرجلين لا كطفلين . وكانت له مرضعة كويتية تسمى هميان عيسى الحاي زوجة عبد الرحيم الزنكي التى أرضعت سعود والسبب أن والدة سعود كانت مشغولة في مهمات كثيرة . و دعاها لاحقا - عندما أصبح وليا للعهد مع أسرتها لزيارته في المملكة العربية السعودية وأرسلهم إلى الحج . +question : من هو ملك المملكة العربية السعودية من 1953 الى 1964 ؟ +prompt : أجب عن السؤال التالي : من هو ملك المملكة العربية السعودية من 1953 الى 1964 ؟ الجواب هو +pred_answer : الملك سعود بن عبد العزيز آل سعود ، الذي حكم بين عامي 1953 و +answer : سعود بن عبد العزيز بن عبد الرحمن بن فيصل بن تركي آل سعود + +context : عندما فتح الملك عبد العزيز الرياض ، طلب من والده وعائلته الحضور إليها عام 1319 ه الموافق 1902 ، وقام الملك عبد العزيز بتسليم سعود إلى الشيخ عبد الرحمن بن ناصر بن مفيريج أحد كبار قارئي ومجودي القرآن الكريم في ذلك الحين وكان له مدرسة المفيريج أكبر مدرسة في مدينة الرياض لتعليم القرآن ليفقهه في الدين والفقه والحديث والتفسير ، وكان قد ختم القرآن على يديه وهو في الحادية عشرة من عمره . و مرض سعود في ذلك الوقت من عمره بالجدري ولم تترك أثرا سوى ندبة خفيفة على خده . جعله الملك عبد العزيز يحضر مجالسه ومجالس جده الإمام عبد الرحمن مع أخيه تركي وأولاهما كل الرعاية والحنان ، وعندما كبر الابن سعود بدأ يكسب ثقة والده من خلال ممارسة بعض المهام العسكرية والسياسية والإدارية بصفة مستقلة . وفوض له الملك عبد العزيز المهام التي تكسبه الحنكة السياسية الخارجية بعد أن تتلمذ في العلوم السياسية والدبلوماسية على يدي عبد الله الدملوجي والشيخ حافظ وهبة وهما من أعمدة بلاط والده خلال تلك الفترة . +question : متى طلب الملك حضور والديه الى الرياض ؟ +prompt : أجب عن السؤال التالي : متى طلب الملك حضور والديه الى الرياض ؟ الجواب هو +pred_answer : : في عهد الملك عبدالعزيز رحمه الله +answer : عام 1319 ه الموافق 1902 + +context : عندما فتح الملك عبد العزيز الرياض ، طلب من والده وعائلته الحضور إليها عام 1319 ه الموافق 1902 ، وقام الملك عبد العزيز بتسليم سعود إلى الشيخ عبد الرحمن بن ناصر بن مفيريج أحد كبار قارئي ومجودي القرآن الكريم في ذلك الحين وكان له مدرسة المفيريج أكبر مدرسة في مدينة الرياض لتعليم القرآن ليفقهه في الدين والفقه والحديث والتفسير ، وكان قد ختم القرآن على يديه وهو في الحادية عشرة من عمره . و مرض سعود في ذلك الوقت من عمره بالجدري ولم تترك أثرا سوى ندبة خفيفة على خده . جعله الملك عبد العزيز يحضر مجالسه ومجالس جده الإمام عبد الرحمن مع أخيه تركي وأولاهما كل الرعاية والحنان ، وعندما كبر الابن سعود بدأ يكسب ثقة والده من خلال ممارسة بعض المهام العسكرية والسياسية والإدارية بصفة مستقلة . وفوض له الملك عبد العزيز المهام التي تكسبه الحنكة السياسية الخارجية بعد أن تتلمذ في العلوم السياسية والدبلوماسية على يدي عبد الله الدملوجي والشيخ حافظ وهبة وهما من أعمدة بلاط والده خلال تلك الفترة . +question : في أي عمر أصيب بالجدري ؟ +prompt : أجب عن السؤال التالي : في أي عمر أصيب بالجدري ؟ الجواب هو +pred_answer : عندما كان عمره 12 عاما . +answer : وهو في الحادية عشرة من عمره + +context : عندما فتح الملك عبد العزيز الرياض ، طلب من والده وعائلته الحضور إليها عام 1319 ه الموافق 1902 ، وقام الملك عبد العزيز بتسليم سعود إلى الشيخ عبد الرحمن بن ناصر بن مفيريج أحد كبار قارئي ومجودي القرآن الكريم في ذلك الحين وكان له مدرسة المفيريج أكبر مدرسة في مدينة الرياض لتعليم القرآن ليفقهه في الدين والفقه والحديث والتفسير ، وكان قد ختم القرآن على يديه وهو في الحادية عشرة من عمره . و مرض سعود في ذلك الوقت من عمره بالجدري ولم تترك أثرا سوى ندبة خفيفة على خده . جعله الملك عبد العزيز يحضر مجالسه ومجالس جده الإمام عبد الرحمن مع أخيه تركي وأولاهما كل الرعاية والحنان ، وعندما كبر الابن سعود بدأ يكسب ثقة والده من خلال ممارسة بعض المهام العسكرية والسياسية والإدارية بصفة مستقلة . وفوض له الملك عبد العزيز المهام التي تكسبه الحنكة السياسية الخارجية بعد أن تتلمذ في العلوم السياسية والدبلوماسية على يدي عبد الله الدملوجي والشيخ حافظ وهبة وهما من أعمدة بلاط والده خلال تلك الفترة . +question : هل ترك مرض الجدري أثرا عليه ؟ +prompt : أجب عن السؤال التالي : هل ترك مرض الجدري أثرا عليه ؟ الجواب هو +pred_answer : نعم ، فقد كان الجدري سببا في وفاة عدد +answer : ولم تترك أثرا سوى ندبة خفيفة على خده + +context : كما أن ملازمة الملك سعود لوالده الملك عبد العزيز الذي تفانى في حبه والذي ربطت بينهما صداقة قوية ، وذلك لتقارب السن بينهما حتى أنه كان يقول للمعزين عند وفاة والده : " لقد فقدت أبى . . . وصديقى " ، ثم أن قربه من جده الذى رباه ولازمه وكان تحت إمرته حتى وفاته أكسبه عادات وتقاليد القبائل والبادية والتعامل معها . وقد أتقن الرماية والقنص والفروسية ، وكان ميالا لحياة البادية منذ سن مبكرة ، ورافق والده وغيره من كبار القادة في الغزوات وشهد فنون المعارك والتخطيط لها حتى أصبح في وقت يسير من كبار أعوان والده الملك عبد العزيز في ظروف سياسية كان الملك عبد العزيز في أشد الحاجة إلى أمثاله فيها . +question : ما سبب الصداقة بين الملك ووالده ؟ +prompt : أجب عن السؤال التالي : ما سبب الصداقة بين الملك ووالده ؟ الجواب هو +pred_answer : أن الملك كان يحب والده +answer : لتقارب السن بينهما + +context : كما أن ملازمة الملك سعود لوالده الملك عبد العزيز الذي تفانى في حبه والذي ربطت بينهما صداقة قوية ، وذلك لتقارب السن بينهما حتى أنه كان يقول للمعزين عند وفاة والده : " لقد فقدت أبى . . . وصديقى " ، ثم أن قربه من جده الذى رباه ولازمه وكان تحت إمرته حتى وفاته أكسبه عادات وتقاليد القبائل والبادية والتعامل معها . وقد أتقن الرماية والقنص والفروسية ، وكان ميالا لحياة البادية منذ سن مبكرة ، ورافق والده وغيره من كبار القادة في الغزوات وشهد فنون المعارك والتخطيط لها حتى أصبح في وقت يسير من كبار أعوان والده الملك عبد العزيز في ظروف سياسية كان الملك عبد العزيز في أشد الحاجة إلى أمثاله فيها . +question : ماذا قال للمعزيين بوفاة والده ؟ +prompt : أجب عن السؤال التالي : ماذا قال للمعزيين بوفاة والده ؟ الجواب هو +pred_answer : ما يلي : « لقد كان والدي رجلا عظيما .لقد +answer : كان يقول للمعزين عند وفاة والده لقد فقدت أبى وصديقى + +context : كما أن ملازمة الملك سعود لوالده الملك عبد العزيز الذي تفانى في حبه والذي ربطت بينهما صداقة قوية ، وذلك لتقارب السن بينهما حتى أنه كان يقول للمعزين عند وفاة والده : " لقد فقدت أبى . . . وصديقى " ، ثم أن قربه من جده الذى رباه ولازمه وكان تحت إمرته حتى وفاته أكسبه عادات وتقاليد القبائل والبادية والتعامل معها . وقد أتقن الرماية والقنص والفروسية ، وكان ميالا لحياة البادية منذ سن مبكرة ، ورافق والده وغيره من كبار القادة في الغزوات وشهد فنون المعارك والتخطيط لها حتى أصبح في وقت يسير من كبار أعوان والده الملك عبد العزيز في ظروف سياسية كان الملك عبد العزيز في أشد الحاجة إلى أمثاله فيها . +question : ما هي المهارات التي أتقنها الملك ؟ +prompt : أجب عن السؤال التالي : ما هي المهارات التي أتقنها الملك ؟ الجواب هو +pred_answer : : القدرة على حل المشكلات ، والقدرة +answer : أتقن الرماية والقنص والفروسية + +context : عنترة بن شداد بن قراد العبسي ( 525 م - 608 م ) هو أحد أشهر شعراء العرب في فترة ما قبل الإسلام ، واشتهر بشعر الفروسية ، وله معلقة مشهورة . اشتق اسم عنترة من ضرب الذباب يقال له العنتر وإن كانت النون فيه ليست بزائدة ( مثل قبيلة كندة أصلها كدة ) فهو من العتر والعتر الذبح والعنترة أيضا هو السلوك في الشدائد والشجاعة في الحرب . وإن كان الأقدمون لا يعرفون بأيهما كان يدعى : بعنتر أم بعنترة فقد اختلفوا أيضا في كونه اسما له أو لقبا . وكان عنترة يلقب بالفلحاء ، من الفلح أي شق في شفته السفلى وكان يكنى بأبي الفوارس لفروسيته ويكنى بأبي المعايش وأبي أوفى وأبي المغلس لجرأته في الغلس أو لسواده الذي هو كالغلس ، وقد ورث ذاك السواد من أمه زبيبة ، إذ كانت أمه حبشية وبسبب هذا السواد الكثيف عده القدماء من أغرب العرب . +question : من هو عنترة بن شداد ؟ +prompt : أجب عن السؤال التالي : من هو عنترة بن شداد ؟ الجواب هو +pred_answer : : عنترة ابن شداد بن عمرو بن معاوية بن +answer : هو أحد أشهر شعراء العرب في فترة ما قبل الإسلام + +context : عنترة بن شداد بن قراد العبسي ( 525 م - 608 م ) هو أحد أشهر شعراء العرب في فترة ما قبل الإسلام ، واشتهر بشعر الفروسية ، وله معلقة مشهورة . اشتق اسم عنترة من ضرب الذباب يقال له العنتر وإن كانت النون فيه ليست بزائدة ( مثل قبيلة كندة أصلها كدة ) فهو من العتر والعتر الذبح والعنترة أيضا هو السلوك في الشدائد والشجاعة في الحرب . وإن كان الأقدمون لا يعرفون بأيهما كان يدعى : بعنتر أم بعنترة فقد اختلفوا أيضا في كونه اسما له أو لقبا . وكان عنترة يلقب بالفلحاء ، من الفلح أي شق في شفته السفلى وكان يكنى بأبي الفوارس لفروسيته ويكنى بأبي المعايش وأبي أوفى وأبي المغلس لجرأته في الغلس أو لسواده الذي هو كالغلس ، وقد ورث ذاك السواد من أمه زبيبة ، إذ كانت أمه حبشية وبسبب هذا السواد الكثيف عده القدماء من أغرب العرب . +question : من ماذا أشتق اسم عنترة ؟ +prompt : أجب عن السؤال التالي : من ماذا أشتق اسم عنترة ؟ الجواب هو +pred_answer : : عنترة بن شداد بن عمرو بن معاوية بن مخزوم بن ربيعة بن عامر بن صعصعة +answer : أصلها كدة فهو من العتر والعتر الذبح والعنترة أيضا هو السلوك في الشدائد والشجاعة + +context : عنترة بن شداد بن قراد العبسي ( 525 م - 608 م ) هو أحد أشهر شعراء العرب في فترة ما قبل الإسلام ، واشتهر بشعر الفروسية ، وله معلقة مشهورة . اشتق اسم عنترة من ضرب الذباب يقال له العنتر وإن كانت النون فيه ليست بزائدة ( مثل قبيلة كندة أصلها كدة ) فهو من العتر والعتر الذبح والعنترة أيضا هو السلوك في الشدائد والشجاعة في الحرب . وإن كان الأقدمون لا يعرفون بأيهما كان يدعى : بعنتر أم بعنترة فقد اختلفوا أيضا في كونه اسما له أو لقبا . وكان عنترة يلقب بالفلحاء ، من الفلح أي شق في شفته السفلى وكان يكنى بأبي الفوارس لفروسيته ويكنى بأبي المعايش وأبي أوفى وأبي المغلس لجرأته في الغلس أو لسواده الذي هو كالغلس ، وقد ورث ذاك السواد من أمه زبيبة ، إذ كانت أمه حبشية وبسبب هذا السواد الكثيف عده القدماء من أغرب العرب . +question : بماذا كان يلقب عنترة ؟ +prompt : أجب عن السؤال التالي : بماذا كان يلقب عنترة ؟ الجواب هو +pred_answer : : عنترة بن شداد +answer : يلقب بالفلحاء + +context : وقد شرح الخطيب التبريزي البيت الأول بقوله : " ويروى عنتر - أي بالضم - فمن رواه بفتح الراء فإنه رخم عنترة وترك ما قبل المحذوف على حاله مفتوحا ، ومن روى عنتر وضم الراء احتمل الوجهين : أحدهما أن يكون قد جعل مابقي اسما على حاله إلا أنه قد صار طرفا كحرف الأعراب ، والثاني مارواه المبرد عن بعضهم أنه كان يسمى " عنترا " ، فعلى هذا الوجه لا يجوز إلا الضم ، هكذا ذكره النحاس ، ويجوز أن يكون عنتر على هذا الوجه منصوبا ب " يدعون " " . ويذكر شارح القاموس أنه " قد يكون اسمه عنترا كما ذهب إليه سيبويه " . على أن المتواتر في الكتب المعتمدة وماعليه الكثيرون هو أن اسمه " عنترة " لا " عنتر " والعنترة السلوك في الشدائد والشجاعة في الحرب ، وهذا أقرب إلى مسمى فارس بني عبس . +question : ما هي العنترة ؟ +prompt : أجب عن السؤال التالي : ما هي العنترة ؟ الجواب هو +pred_answer : أن العرب في جاهليتهم كانوا +answer : السلوك في الشدائد والشجاعة في الحرب + +context : وقد شرح الخطيب التبريزي البيت الأول بقوله : " ويروى عنتر - أي بالضم - فمن رواه بفتح الراء فإنه رخم عنترة وترك ما قبل المحذوف على حاله مفتوحا ، ومن روى عنتر وضم الراء احتمل الوجهين : أحدهما أن يكون قد جعل مابقي اسما على حاله إلا أنه قد صار طرفا كحرف الأعراب ، والثاني مارواه المبرد عن بعضهم أنه كان يسمى " عنترا " ، فعلى هذا الوجه لا يجوز إلا الضم ، هكذا ذكره النحاس ، ويجوز أن يكون عنتر على هذا الوجه منصوبا ب " يدعون " " . ويذكر شارح القاموس أنه " قد يكون اسمه عنترا كما ذهب إليه سيبويه " . على أن المتواتر في الكتب المعتمدة وماعليه الكثيرون هو أن اسمه " عنترة " لا " عنتر " والعنترة السلوك في الشدائد والشجاعة في الحرب ، وهذا أقرب إلى مسمى فارس بني عبس . +question : من شرح البيت الأول ؟ +prompt : أجب عن السؤال التالي : من شرح البيت الأول ؟ الجواب هو +pred_answer : : أبو الطيب المتنبي . +answer : الخطيب التبريزي + +context : وقد شرح الخطيب التبريزي البيت الأول بقوله : " ويروى عنتر - أي بالضم - فمن رواه بفتح الراء فإنه رخم عنترة وترك ما قبل المحذوف على حاله مفتوحا ، ومن روى عنتر وضم الراء احتمل الوجهين : أحدهما أن يكون قد جعل مابقي اسما على حاله إلا أنه قد صار طرفا كحرف الأعراب ، والثاني مارواه المبرد عن بعضهم أنه كان يسمى " عنترا " ، فعلى هذا الوجه لا يجوز إلا الضم ، هكذا ذكره النحاس ، ويجوز أن يكون عنتر على هذا الوجه منصوبا ب " يدعون " " . ويذكر شارح القاموس أنه " قد يكون اسمه عنترا كما ذهب إليه سيبويه " . على أن المتواتر في الكتب المعتمدة وماعليه الكثيرون هو أن اسمه " عنترة " لا " عنتر " والعنترة السلوك في الشدائد والشجاعة في الحرب ، وهذا أقرب إلى مسمى فارس بني عبس . +question : ماذا ذكر شارح القاموس ؟ +prompt : أجب عن السؤال التالي : ماذا ذكر شارح القاموس ؟ الجواب هو +pred_answer : ما يلي : ( 1 ) في اللغة العربية ، +answer : أنه قد يكون اسمه عنترا كما ذهب إليه سيبويه + +context : ولد عنترة في الجزيرة العربية في الربع الأول من القرن السادس الميلادي ، وبالاستناد إلى أخباره ، واشتراكه في حرب داحس والغبراء فقد حدد ميلاده في سنة 525 م . تعزز هذه الأرقام تواتر الأخبار المتعلقة بمعاصرته لكل من عمرو بن معد يكرب والحطيئة وكلاهما أدرك الإسلام . +question : أين ولد عنترة ؟ +prompt : أجب عن السؤال التالي : أين ولد عنترة ؟ الجواب هو +pred_answer : أنه ولد في +answer : الجزيرة العربية + +context : ولد عنترة في الجزيرة العربية في الربع الأول من القرن السادس الميلادي ، وبالاستناد إلى أخباره ، واشتراكه في حرب داحس والغبراء فقد حدد ميلاده في سنة 525 م . تعزز هذه الأرقام تواتر الأخبار المتعلقة بمعاصرته لكل من عمرو بن معد يكرب والحطيئة وكلاهما أدرك الإسلام . +question : في أي سنة ولد عنترة ؟ +prompt : أجب عن السؤال التالي : في أي سنة ولد عنترة ؟ الجواب هو +pred_answer : عام 525 م +answer : سنة 525 م + +context : ولد عنترة في الجزيرة العربية في الربع الأول من القرن السادس الميلادي ، وبالاستناد إلى أخباره ، واشتراكه في حرب داحس والغبراء فقد حدد ميلاده في سنة 525 م . تعزز هذه الأرقام تواتر الأخبار المتعلقة بمعاصرته لكل من عمرو بن معد يكرب والحطيئة وكلاهما أدرك الإسلام . +question : ما هي الحروب التي اشترك فيها ؟ +prompt : أجب عن السؤال التالي : ما هي الحروب التي اشترك فيها ؟ الجواب هو +pred_answer : الحرب العالمية الأولى والحرب العالمية الثانية +answer : حرب داحس والغبراء + +context : فهد بن عبد العزيز بن عبد الرحمن بن فيصل بن تركي آل سعود ( 1921 - 26 جمادى الآخرة 1426 ه 1 أغسطس 2005 ) ، خامس ملوك المملكة العربية السعودية وأولهم اتخاذا للقب خادم الحرمين الشريفين . شهدت فترة حكمه الكثير من الأحداث أبرزها أزمة احتلال العراق لدولة الكويت في عام 1990 ، وتهديد العراق بغزو الأراضي السعودية ، وكذلك الحرب العراقية - الإيرانية وما تبعها من أحداث تأثرت بها السعودية ، وكذلك أحداث 11 سبتمبر 2001 في الولايات المتحدة وما تبعها من غزو الولايات المتحدة لأفغانستان والعراق ، وأيضا انخفاض أسعار النفط سنوات طويلة واضطرار الميزانية السعودية للانخفاض الشديد . +question : متى ولد فهد بن عبد العزيز ؟ +prompt : أجب عن السؤال التالي : متى ولد فهد بن عبد العزيز ؟ الجواب هو +pred_answer : في عام 1349 ه الموافق 1931 +answer : 1921 26 جمادى الآخرة 1426 ه + +context : فهد بن عبد العزيز بن عبد الرحمن بن فيصل بن تركي آل سعود ( 1921 - 26 جمادى الآخرة 1426 ه 1 أغسطس 2005 ) ، خامس ملوك المملكة العربية السعودية وأولهم اتخاذا للقب خادم الحرمين الشريفين . شهدت فترة حكمه الكثير من الأحداث أبرزها أزمة احتلال العراق لدولة الكويت في عام 1990 ، وتهديد العراق بغزو الأراضي السعودية ، وكذلك الحرب العراقية - الإيرانية وما تبعها من أحداث تأثرت بها السعودية ، وكذلك أحداث 11 سبتمبر 2001 في الولايات المتحدة وما تبعها من غزو الولايات المتحدة لأفغانستان والعراق ، وأيضا انخفاض أسعار النفط سنوات طويلة واضطرار الميزانية السعودية للانخفاض الشديد . +question : متى توفى فهد بن عبد العزيز ؟ +prompt : أجب عن السؤال التالي : متى توفى فهد بن عبد العزيز ؟ الجواب هو +pred_answer : : توفي الملك +answer : 1 أغسطس 2005 + +context : فهد بن عبد العزيز بن عبد الرحمن بن فيصل بن تركي آل سعود ( 1921 - 26 جمادى الآخرة 1426 ه 1 أغسطس 2005 ) ، خامس ملوك المملكة العربية السعودية وأولهم اتخاذا للقب خادم الحرمين الشريفين . شهدت فترة حكمه الكثير من الأحداث أبرزها أزمة احتلال العراق لدولة الكويت في عام 1990 ، وتهديد العراق بغزو الأراضي السعودية ، وكذلك الحرب العراقية - الإيرانية وما تبعها من أحداث تأثرت بها السعودية ، وكذلك أحداث 11 سبتمبر 2001 في الولايات المتحدة وما تبعها من غزو الولايات المتحدة لأفغانستان والعراق ، وأيضا انخفاض أسعار النفط سنوات طويلة واضطرار الميزانية السعودية للانخفاض الشديد . +question : ما ترتير الملك بن عبد العزيز بين ملوك السعودية ؟ +prompt : أجب عن السؤال التالي : ما ترتير الملك بن عبد العزيز بين ملوك السعودية ؟ الجواب هو +pred_answer : : لا يوجد ملك سعودي واحد +answer : خامس ملوك المملكة العربية السعودية + +context : نشأ في كنف والده الملك عبد العزيز ، والتحق في طفولته « بمدرسة الأمراء » بمدينة الرياض ، ودرس فترة من الزمن في معهد العاصمة النموذجي بالرياض ، وشرع في أواسط العقد الرابع من عمره في تلقي دروس خاصة باللغة الإنجليزية ، كما تلقى دروسا مكثفة في مواضيع متنوعة من السياسة إلى الأدب ، كما ناب عن والده في لقاءات زعماء القبائل . +question : بأى مدرسة التحق الملك عبد العزيز ؟ +prompt : أجب عن السؤال التالي : بأى مدرسة التحق الملك عبد العزيز ؟ الجواب هو +pred_answer : : بمدرسة الفلاح بمكة +answer : بمدرسة الأمراء + +context : نشأ في كنف والده الملك عبد العزيز ، والتحق في طفولته « بمدرسة الأمراء » بمدينة الرياض ، ودرس فترة من الزمن في معهد العاصمة النموذجي بالرياض ، وشرع في أواسط العقد الرابع من عمره في تلقي دروس خاصة باللغة الإنجليزية ، كما تلقى دروسا مكثفة في مواضيع متنوعة من السياسة إلى الأدب ، كما ناب عن والده في لقاءات زعماء القبائل . +question : اين تقع مدرسة الامراء ؟ +prompt : أجب عن السؤال التالي : اين تقع مدرسة الامراء ؟ الجواب هو +pred_answer : انها تقع في منطقة +answer : بمدينة الرياض + +context : نشأ في كنف والده الملك عبد العزيز ، والتحق في طفولته « بمدرسة الأمراء » بمدينة الرياض ، ودرس فترة من الزمن في معهد العاصمة النموذجي بالرياض ، وشرع في أواسط العقد الرابع من عمره في تلقي دروس خاصة باللغة الإنجليزية ، كما تلقى دروسا مكثفة في مواضيع متنوعة من السياسة إلى الأدب ، كما ناب عن والده في لقاءات زعماء القبائل . +question : بأى معهد التحق الملك ؟ +prompt : أجب عن السؤال التالي : بأى معهد التحق الملك ؟ الجواب هو +pred_answer : المعهد العالى للفنون المسرحية +answer : معهد العاصمة النموذجي + +context : مع بداية الغزو العراقي للكويت استضاف في السعودية أمير الكويت الشيخ جابر الأحمد الصباح والحكومة الكويتية ، وفي 9 أغسطس 1990 أعلن عن قراره بالاستعانة بقوات أجنبية للدفاع عن الكويت ، وعمل على المستويين السياسي والعسكري لإعادة الكويت إلى حكامها الشرعيين وأهلها . +question : متى استضاف الملك امير الكويت ؟ +prompt : أجب عن السؤال التالي : متى استضاف الملك امير الكويت ؟ الجواب هو +pred_answer : عندما كان الشيخ عبدالله السالم +answer : مع بداية الغزو العراقي للكويت + +context : مع بداية الغزو العراقي للكويت استضاف في السعودية أمير الكويت الشيخ جابر الأحمد الصباح والحكومة الكويتية ، وفي 9 أغسطس 1990 أعلن عن قراره بالاستعانة بقوات أجنبية للدفاع عن الكويت ، وعمل على المستويين السياسي والعسكري لإعادة الكويت إلى حكامها الشرعيين وأهلها . +question : من استضاف الملك فى السعودية مع بداية الغزو العراقى للكويت ؟ +prompt : أجب عن السؤال التالي : من استضاف الملك فى السعودية مع بداية الغزو العراقى للكويت ؟ الجواب هو +pred_answer : الشيخ صباح الأحمد الجابر الصباح أمير دولة الكويت ، +answer : أمير الكويت الشيخ جابر الأحمد الصباح والحكومة الكويتية + +context : مع بداية الغزو العراقي للكويت استضاف في السعودية أمير الكويت الشيخ جابر الأحمد الصباح والحكومة الكويتية ، وفي 9 أغسطس 1990 أعلن عن قراره بالاستعانة بقوات أجنبية للدفاع عن الكويت ، وعمل على المستويين السياسي والعسكري لإعادة الكويت إلى حكامها الشرعيين وأهلها . +question : متى اعلن قراره بالاستعانة بقوات اجنبية للدفاع عن الكويت ؟ +prompt : أجب عن السؤال التالي : متى اعلن قراره بالاستعانة بقوات اجنبية للدفاع عن الكويت ؟ الجواب هو +pred_answer : في عام 1990 +answer : 9 أغسطس 1990 + +context : عيد الأم أو يوم الأم ( بالانجليزية : Mother ' s Day ) هو احتفال ظهر حديثا في مطلع القرن العشرين ، يحتفل به في بعض الدول لتكريم الأمهات والأمومة ورابطة الأم بأبنائها وتأثير الأمهات على المجتمع . ويختلف تاريخه عيد الأم من دولة لأخرى ، فمثلا في العالم العربي يكون اليوم الأول من فصل الربيع أي يوم 21 مارس ، أما في النرويج فيحتفل به في 2 فبراير ؛ في الأرجنتين فهو يوم 3 أكتوبر ، وجنوب أفريقيا تحتفل به يوم 1 مايو . وفي الولايات المتحدة يكون الاحتفال في الأحد الثاني من شهر مايو من كل عام . +question : ما اسم عيد الام بالانجليزية ؟ +prompt : أجب عن السؤال التالي : ما اسم عيد الام بالانجليزية ؟ الجواب هو +pred_answer : “ Mother ’ s +answer : Mother s Day + +context : عيد الأم أو يوم الأم ( بالانجليزية : Mother ' s Day ) هو احتفال ظهر حديثا في مطلع القرن العشرين ، يحتفل به في بعض الدول لتكريم الأمهات والأمومة ورابطة الأم بأبنائها وتأثير الأمهات على المجتمع . ويختلف تاريخه عيد الأم من دولة لأخرى ، فمثلا في العالم العربي يكون اليوم الأول من فصل الربيع أي يوم 21 مارس ، أما في النرويج فيحتفل به في 2 فبراير ؛ في الأرجنتين فهو يوم 3 أكتوبر ، وجنوب أفريقيا تحتفل به يوم 1 مايو . وفي الولايات المتحدة يكون الاحتفال في الأحد الثاني من شهر مايو من كل عام . +question : ما هو عيد الام ؟ +prompt : أجب عن السؤال التالي : ما هو عيد الام ؟ الجواب هو +pred_answer : : يوم 21 آذار ( مارس ) من كل عام ، وهو اليوم الذي تكرم فيه +answer : العشرين يحتفل به في بعض الدول لتكريم الأمهات والأمومة ورابطة الأم بأبنائها وتأثير الأمهات + +context : عيد الأم أو يوم الأم ( بالانجليزية : Mother ' s Day ) هو احتفال ظهر حديثا في مطلع القرن العشرين ، يحتفل به في بعض الدول لتكريم الأمهات والأمومة ورابطة الأم بأبنائها وتأثير الأمهات على المجتمع . ويختلف تاريخه عيد الأم من دولة لأخرى ، فمثلا في العالم العربي يكون اليوم الأول من فصل الربيع أي يوم 21 مارس ، أما في النرويج فيحتفل به في 2 فبراير ؛ في الأرجنتين فهو يوم 3 أكتوبر ، وجنوب أفريقيا تحتفل به يوم 1 مايو . وفي الولايات المتحدة يكون الاحتفال في الأحد الثاني من شهر مايو من كل عام . +question : متى يحتفل العرب بعيد الام فى البلدان العربية ؟ +prompt : أجب عن السؤال التالي : متى يحتفل العرب بعيد الام فى البلدان العربية ؟ الجواب هو +pred_answer : يوم 21 مارس ( آذار ) من كل عام ، +answer : اليوم الأول من فصل الربيع أي يوم 21 مارس + +context : عيد الأم هو ابتكار أمريكي ولا ينحدر مباشرة تحت سقف احتفالات الأمهات والأمومة التي حدثت في كل مكان في العالم منذ آلاف السنين . مثل عبادة اليونان لكوبيلي ، وعيد الرومان لهيلريا ، واحتفال المسيحيين في أوروبا بيوم أحد الأمومة . . بالرغم من ذلك أصبح مصطلح عيد الأم مرادفا لهذه العادات القديمة . +question : فى اى بلد نشأ عيد الام ؟ +prompt : أجب عن السؤال التالي : فى اى بلد نشأ عيد الام ؟ الجواب هو +pred_answer : ( مصر ) +answer : هو ابتكار أمريكي + +context : عيد الأم هو ابتكار أمريكي ولا ينحدر مباشرة تحت سقف احتفالات الأمهات والأمومة التي حدثت في كل مكان في العالم منذ آلاف السنين . مثل عبادة اليونان لكوبيلي ، وعيد الرومان لهيلريا ، واحتفال المسيحيين في أوروبا بيوم أحد الأمومة . . بالرغم من ذلك أصبح مصطلح عيد الأم مرادفا لهذه العادات القديمة . +question : بماذا يحتفل المسيحيون بدلا عن عيد الام فى اورويا ؟ +prompt : أجب عن السؤال التالي : بماذا يحتفل المسيحيون بدلا عن عيد الام فى اورويا ؟ الجواب هو +pred_answer : ان المسيحيين يحتفلون بعيد +answer : بيوم أحد الأمومة + +context : عيد الأم هو ابتكار أمريكي ولا ينحدر مباشرة تحت سقف احتفالات الأمهات والأمومة التي حدثت في كل مكان في العالم منذ آلاف السنين . مثل عبادة اليونان لكوبيلي ، وعيد الرومان لهيلريا ، واحتفال المسيحيين في أوروبا بيوم أحد الأمومة . . بالرغم من ذلك أصبح مصطلح عيد الأم مرادفا لهذه العادات القديمة . +question : بماذا يجتفل الرومان بدلا عن عيد الام ؟ +prompt : أجب عن السؤال التالي : بماذا يجتفل الرومان بدلا عن عيد الام ؟ الجواب هو +pred_answer : : لا شيء سوى انهم يحبون +answer : وعيد الرومان لهيلريا + +context : عام 1912 ، أنشأت " أنا جارفيس " الجمعية الدولية ليوم الأم . وأكدت على أن مصطلح " mother ' s " يجب أن يكون مفردا وفي صيغة الملكية - في اللغة الأنجليزيه - وليس جمع في صيغة الملكية . لجميع العائلات تكريما لأمهاتهم ولكافة الأمهات في العالم . واستخدم هذه التسمية رئيس الولايات المتحدة وودرو ويلسون في القانون كعيد رسمي في الولايات المتحدة . كما استخدمه الكونغرس الأمريكي في سن القانون . كما أشار له رؤساء آخرون في إعلاناتهم مركزين على عيد الأم . +question : متى انشات انا جارفيس الجمعية الدولية ليوم الام ؟ +prompt : أجب عن السؤال التالي : متى انشات انا جارفيس الجمعية الدولية ليوم الام ؟ الجواب هو +pred_answer : في عام +answer : عام 1912 + +context : عام 1912 ، أنشأت " أنا جارفيس " الجمعية الدولية ليوم الأم . وأكدت على أن مصطلح " mother ' s " يجب أن يكون مفردا وفي صيغة الملكية - في اللغة الأنجليزيه - وليس جمع في صيغة الملكية . لجميع العائلات تكريما لأمهاتهم ولكافة الأمهات في العالم . واستخدم هذه التسمية رئيس الولايات المتحدة وودرو ويلسون في القانون كعيد رسمي في الولايات المتحدة . كما استخدمه الكونغرس الأمريكي في سن القانون . كما أشار له رؤساء آخرون في إعلاناتهم مركزين على عيد الأم . +question : ماذا انشات انا جارفيس فى 1912 ؟ +prompt : أجب عن السؤال التالي : ماذا انشات انا جارفيس فى 1912 ؟ الجواب هو +pred_answer : ما يلى : 1 - +answer : الجمعية الدولية ليوم الأم + +context : عام 1912 ، أنشأت " أنا جارفيس " الجمعية الدولية ليوم الأم . وأكدت على أن مصطلح " mother ' s " يجب أن يكون مفردا وفي صيغة الملكية - في اللغة الأنجليزيه - وليس جمع في صيغة الملكية . لجميع العائلات تكريما لأمهاتهم ولكافة الأمهات في العالم . واستخدم هذه التسمية رئيس الولايات المتحدة وودرو ويلسون في القانون كعيد رسمي في الولايات المتحدة . كما استخدمه الكونغرس الأمريكي في سن القانون . كما أشار له رؤساء آخرون في إعلاناتهم مركزين على عيد الأم . +question : ما المصطلح الذى اكدت عليه انا جارفيس ان يكون مفردا ؟ +prompt : أجب عن السؤال التالي : ما المصطلح الذى اكدت عليه انا جارفيس ان يكون مفردا ؟ الجواب هو +pred_answer : مصطلح " القوة الناعمة +answer : mother s + +context : محمد بن راشد آل مكتوم ( 15 يوليو 1949 ) ، نائب رئيس دولة الإمارات العربية المتحدة ورئيس مجلس الوزراء بدولة الإمارات العربية المتحدة وحاكم إمارة دبي . ولد في دبي عام 1949 ، ونشأ في بيت جده الشيخ سعيد بن مكتوم آل مكتوم في منطقة الشندغة في بر دبي . كان يصحب جده الشيخ سعيد في مجالسه ليكون مدرسته الأولى في الحكم ، وتدرب منذ طفولته على الصيد بالصقور والفروسية والرماية والسباحة . في عام 1955 دخل المدرسة الأحمدية لتعلم قواعد اللغتين العربية والإنجليزية والجغرافيا والتاريخ والرياضيات ، ثم انتقل وهو في العاشرة من عمره إلى مدرسة الشعب ، ثم ثانوية دبي ، وتخرج من الثانوية في العام الدراسي 1964 1965 . +question : متى ولد محمد بن راشد ال مكتوم ؟ +prompt : أجب عن السؤال التالي : متى ولد محمد بن راشد ال مكتوم ؟ الجواب هو +pred_answer : في عام 18 +answer : 15 يوليو 1949 + +context : محمد بن راشد آل مكتوم ( 15 يوليو 1949 ) ، نائب رئيس دولة الإمارات العربية المتحدة ورئيس مجلس الوزراء بدولة الإمارات العربية المتحدة وحاكم إمارة دبي . ولد في دبي عام 1949 ، ونشأ في بيت جده الشيخ سعيد بن مكتوم آل مكتوم في منطقة الشندغة في بر دبي . كان يصحب جده الشيخ سعيد في مجالسه ليكون مدرسته الأولى في الحكم ، وتدرب منذ طفولته على الصيد بالصقور والفروسية والرماية والسباحة . في عام 1955 دخل المدرسة الأحمدية لتعلم قواعد اللغتين العربية والإنجليزية والجغرافيا والتاريخ والرياضيات ، ثم انتقل وهو في العاشرة من عمره إلى مدرسة الشعب ، ثم ثانوية دبي ، وتخرج من الثانوية في العام الدراسي 1964 1965 . +question : من هو حاكم امارة دبى ؟ +prompt : أجب عن السؤال التالي : من هو حاكم امارة دبى ؟ الجواب هو +pred_answer : الشيخ محمد بن راشد المكت +answer : محمد بن راشد آل مكتوم + +context : محمد بن راشد آل مكتوم ( 15 يوليو 1949 ) ، نائب رئيس دولة الإمارات العربية المتحدة ورئيس مجلس الوزراء بدولة الإمارات العربية المتحدة وحاكم إمارة دبي . ولد في دبي عام 1949 ، ونشأ في بيت جده الشيخ سعيد بن مكتوم آل مكتوم في منطقة الشندغة في بر دبي . كان يصحب جده الشيخ سعيد في مجالسه ليكون مدرسته الأولى في الحكم ، وتدرب منذ طفولته على الصيد بالصقور والفروسية والرماية والسباحة . في عام 1955 دخل المدرسة الأحمدية لتعلم قواعد اللغتين العربية والإنجليزية والجغرافيا والتاريخ والرياضيات ، ثم انتقل وهو في العاشرة من عمره إلى مدرسة الشعب ، ثم ثانوية دبي ، وتخرج من الثانوية في العام الدراسي 1964 1965 . +question : فى اى بيت نشا محمد بن راشد ال مكتوم ؟ +prompt : أجب عن السؤال التالي : فى اى بيت نشا محمد بن راشد ال مكتوم ؟ الجواب هو +pred_answer : في بيت الشيخ زايد بن سلطان +answer : بيت جده الشيخ سعيد بن مكتوم + +context : رأى الشيخ راشد فيه صفات تشكل أسس القيادة ، فشجعه بالاتجاه نحو الحياة العسكرية وأناط به مسؤولية الأمن في إمارة دبي . وكان عليه دخول كلية عسكرية ، ولكن قبل الالتحاق بالكليات العسكرية كان عليه صقل لغته الإنجليزية فسافر برفقة ابن عمه الشيخ محمد بن خليفة آل مكتوم في أغسطس من عام 1966 إلى لندن ليلتحق بمدرسة بل للغات في كامبريدج . التحق بعدها بكلية مونز العسكرية البريطانية في آلدرشوت حيث أنهى تدريبه العسكري . وبعد عودته من المملكة المتحدة وفي أواخر الستينات أصدر والده الشيخ راشد مرسوما عينه فيه رئيسا للشرطة والأمن العام بدبي ، وفي عام 1971 أصدر مرسوما آخر أوكل فيه له بتشكيل « قوة دفاع دبي » والتي اندمجت عام 1975 في القوات المسلحة لدولة الإمارات ، كما إنه منذ عام 1971 أصبح وزيرا للدفاع في حكومة الدولة الاتحادية . +question : ما الكلية التى كان عليه دخولها ؟ +prompt : أجب عن السؤال التالي : ما الكلية التى كان عليه دخولها ؟ الجواب هو +pred_answer : : كلية الطب +answer : كلية عسكرية + +context : رأى الشيخ راشد فيه صفات تشكل أسس القيادة ، فشجعه بالاتجاه نحو الحياة العسكرية وأناط به مسؤولية الأمن في إمارة دبي . وكان عليه دخول كلية عسكرية ، ولكن قبل الالتحاق بالكليات العسكرية كان عليه صقل لغته الإنجليزية فسافر برفقة ابن عمه الشيخ محمد بن خليفة آل مكتوم في أغسطس من عام 1966 إلى لندن ليلتحق بمدرسة بل للغات في كامبريدج . التحق بعدها بكلية مونز العسكرية البريطانية في آلدرشوت حيث أنهى تدريبه العسكري . وبعد عودته من المملكة المتحدة وفي أواخر الستينات أصدر والده الشيخ راشد مرسوما عينه فيه رئيسا للشرطة والأمن العام بدبي ، وفي عام 1971 أصدر مرسوما آخر أوكل فيه له بتشكيل « قوة دفاع دبي » والتي اندمجت عام 1975 في القوات المسلحة لدولة الإمارات ، كما إنه منذ عام 1971 أصبح وزيرا للدفاع في حكومة الدولة الاتحادية . +question : ما اللفة التى كان عليه صقلها ؟ +prompt : أجب عن السؤال التالي : ما اللفة التى كان عليه صقلها ؟ الجواب هو +pred_answer : أن الصقل +answer : لغته الإنجليزية + +context : رأى الشيخ راشد فيه صفات تشكل أسس القيادة ، فشجعه بالاتجاه نحو الحياة العسكرية وأناط به مسؤولية الأمن في إمارة دبي . وكان عليه دخول كلية عسكرية ، ولكن قبل الالتحاق بالكليات العسكرية كان عليه صقل لغته الإنجليزية فسافر برفقة ابن عمه الشيخ محمد بن خليفة آل مكتوم في أغسطس من عام 1966 إلى لندن ليلتحق بمدرسة بل للغات في كامبريدج . التحق بعدها بكلية مونز العسكرية البريطانية في آلدرشوت حيث أنهى تدريبه العسكري . وبعد عودته من المملكة المتحدة وفي أواخر الستينات أصدر والده الشيخ راشد مرسوما عينه فيه رئيسا للشرطة والأمن العام بدبي ، وفي عام 1971 أصدر مرسوما آخر أوكل فيه له بتشكيل « قوة دفاع دبي » والتي اندمجت عام 1975 في القوات المسلحة لدولة الإمارات ، كما إنه منذ عام 1971 أصبح وزيرا للدفاع في حكومة الدولة الاتحادية . +question : فى اى عام سافر الى لندن ؟ +prompt : أجب عن السؤال التالي : فى اى عام سافر الى لندن ؟ الجواب هو في عام +pred_answer : 1974 +answer : 1966 + +context : بدأت معظم المشاريع الحديثة في دبي مع توليه ولاية العهد في الإمارة ، وكانت تحظى بموافقة ودعم إخوانه حيثما أن هذه المشاريع كانت تساهم بصورة سريعة في رسم صورة مشرقة جديدة لدبي ، التي كانت تحتاج إلى مثل هذه المشاريع لنضوب النفط فيها والذي ما عاد يشكل أكثر من 20 % من دخلها في ذلك الوقت ، وكان لابد لنجاح هذه المشاريع أن يحقق ثلاثة عناصر هامة وهي : +question : متى بدات معظم المشاريع الجديدة فى دبى ؟ +prompt : أجب عن السؤال التالي : متى بدات معظم المشاريع الجديدة فى دبى ؟ الجواب هو +pred_answer : عندما تم افتتاح برج خليفة عام +answer : مع توليه ولاية العهد في الإمارة + +context : بدأت معظم المشاريع الحديثة في دبي مع توليه ولاية العهد في الإمارة ، وكانت تحظى بموافقة ودعم إخوانه حيثما أن هذه المشاريع كانت تساهم بصورة سريعة في رسم صورة مشرقة جديدة لدبي ، التي كانت تحتاج إلى مثل هذه المشاريع لنضوب النفط فيها والذي ما عاد يشكل أكثر من 20 % من دخلها في ذلك الوقت ، وكان لابد لنجاح هذه المشاريع أن يحقق ثلاثة عناصر هامة وهي : +question : فى ماذا كانت تساهم هذه المشاريع ؟ +prompt : أجب عن السؤال التالي : فى ماذا كانت تساهم هذه المشاريع ؟ الجواب هو +pred_answer : : 1 - توفير فرص عمل جديدة .2 - المساهمة فى +answer : كانت تساهم بصورة سريعة في رسم صورة مشرقة جديدة لدبي + +context : بدأت معظم المشاريع الحديثة في دبي مع توليه ولاية العهد في الإمارة ، وكانت تحظى بموافقة ودعم إخوانه حيثما أن هذه المشاريع كانت تساهم بصورة سريعة في رسم صورة مشرقة جديدة لدبي ، التي كانت تحتاج إلى مثل هذه المشاريع لنضوب النفط فيها والذي ما عاد يشكل أكثر من 20 % من دخلها في ذلك الوقت ، وكان لابد لنجاح هذه المشاريع أن يحقق ثلاثة عناصر هامة وهي : +question : كم يشكل النفط من دخل دبى ؟ +prompt : أجب عن السؤال التالي : كم يشكل النفط من دخل دبى ؟ الجواب هو في عام +pred_answer : 2007 +answer : 20 + +context : يسرا ( 10 مارس 1951 - ) ، ممثلة مصرية ، قدمت عددا كبير من الأعمال في السينما المصرية والدراما التلفزيونية ، وهي سفيرة نوايا حسنة لبرنامج الأمم المتحدة الإنمائي . بدأت حياتها السينمائية في أواخر السبعينيات القرن العشرين ، مع أول ظهور لها عام 1973 على الشاشة الفضية ، تبرر عملها في بداياتها ببعض الأفلام التي قد لا ترقى إلى مستوى فني جيد بقولها : « عندما بدأت كانت بداخلي شحنة كبيرة للتمثيل ، وكان مجرد تفريغها يرضيني ، وشيئا فشيئا أدركت الفرق بين الانتشار والاختيار » ، قبل الأشتغال في مجال الفن والسينما ، استمر مشوارها مع السينما المصرية من فيلم لآخر حتى استطاعت أن تكتسب شعبية كبيرة في أواخر الثمانينيات القرن العشرين ومطلع تسعينيات القرن العشرين ، ومنها مجموعة من الأفلام التي وقفت فيها أمام الفنان عادل إمام ، وتتحدث دوما عن تأثير المخرج يوسف شاهين والفنان عادل إمام على مشوارها الفني حيث تعاملت مع المخرج يوسف شاهين لأول مرة من خلال فيلم حدوتة مصرية ، أما عادل إمام فقد مثلا معا لأول مرة من خلال فيلم شباب يرقص فوق النار في عام 1978 ، وقدمت بعدها معه نحو 15 فيلما . +question : متى ولدت يسرا ؟ +prompt : أجب عن السؤال التالي : متى ولدت يسرا ؟ الجواب هو +pred_answer : عندما كانت في +answer : 10 مارس 1951 + +context : يسرا ( 10 مارس 1951 - ) ، ممثلة مصرية ، قدمت عددا كبير من الأعمال في السينما المصرية والدراما التلفزيونية ، وهي سفيرة نوايا حسنة لبرنامج الأمم المتحدة الإنمائي . بدأت حياتها السينمائية في أواخر السبعينيات القرن العشرين ، مع أول ظهور لها عام 1973 على الشاشة الفضية ، تبرر عملها في بداياتها ببعض الأفلام التي قد لا ترقى إلى مستوى فني جيد بقولها : « عندما بدأت كانت بداخلي شحنة كبيرة للتمثيل ، وكان مجرد تفريغها يرضيني ، وشيئا فشيئا أدركت الفرق بين الانتشار والاختيار » ، قبل الأشتغال في مجال الفن والسينما ، استمر مشوارها مع السينما المصرية من فيلم لآخر حتى استطاعت أن تكتسب شعبية كبيرة في أواخر الثمانينيات القرن العشرين ومطلع تسعينيات القرن العشرين ، ومنها مجموعة من الأفلام التي وقفت فيها أمام الفنان عادل إمام ، وتتحدث دوما عن تأثير المخرج يوسف شاهين والفنان عادل إمام على مشوارها الفني حيث تعاملت مع المخرج يوسف شاهين لأول مرة من خلال فيلم حدوتة مصرية ، أما عادل إمام فقد مثلا معا لأول مرة من خلال فيلم شباب يرقص فوق النار في عام 1978 ، وقدمت بعدها معه نحو 15 فيلما . +question : ما جنسية يسرا ؟ +prompt : أجب عن السؤال التالي : ما جنسية يسرا ؟ الجواب هو +pred_answer : أنها مصرية +answer : مصرية + +context : يسرا ( 10 مارس 1951 - ) ، ممثلة مصرية ، قدمت عددا كبير من الأعمال في السينما المصرية والدراما التلفزيونية ، وهي سفيرة نوايا حسنة لبرنامج الأمم المتحدة الإنمائي . بدأت حياتها السينمائية في أواخر السبعينيات القرن العشرين ، مع أول ظهور لها عام 1973 على الشاشة الفضية ، تبرر عملها في بداياتها ببعض الأفلام التي قد لا ترقى إلى مستوى فني جيد بقولها : « عندما بدأت كانت بداخلي شحنة كبيرة للتمثيل ، وكان مجرد تفريغها يرضيني ، وشيئا فشيئا أدركت الفرق بين الانتشار والاختيار » ، قبل الأشتغال في مجال الفن والسينما ، استمر مشوارها مع السينما المصرية من فيلم لآخر حتى استطاعت أن تكتسب شعبية كبيرة في أواخر الثمانينيات القرن العشرين ومطلع تسعينيات القرن العشرين ، ومنها مجموعة من الأفلام التي وقفت فيها أمام الفنان عادل إمام ، وتتحدث دوما عن تأثير المخرج يوسف شاهين والفنان عادل إمام على مشوارها الفني حيث تعاملت مع المخرج يوسف شاهين لأول مرة من خلال فيلم حدوتة مصرية ، أما عادل إمام فقد مثلا معا لأول مرة من خلال فيلم شباب يرقص فوق النار في عام 1978 ، وقدمت بعدها معه نحو 15 فيلما . +question : متى بدات يسرا مشروعها السينيمائى ؟ +prompt : أجب عن السؤال التالي : متى بدات يسرا مشروعها السينيمائى ؟ الجواب هو +pred_answer : عندما كانت فى المرحلة الثانوية +answer : أواخر السبعينيات القرن العشرين + +context : وبخلاف الأفلام والمسلسلات والمسرحيات ؛ قدمت يسرا عددا من الأغاني ، أشهرها أغنية 3 دقات مع المطرب محمد أبوالعينين ، الشهير ب " أبو " ، والتي حققت نجاحا كبيرا وتخططت 90 مليون مشاهدة خلال شهرين فقط من إطلاقها خلال فعاليات الدورة الأولى من مهرجان “ الجونة السينمائي ” +question : ماذا قدمت يسرا بخلاف المسلسلات و المسرحيات ؟ +prompt : أجب عن السؤال التالي : ماذا قدمت يسرا بخلاف المسلسلات و المسرحيات ؟ الجواب هو +pred_answer : لا شيء تقريبا ، +answer : عددا من الأغاني + +context : وبخلاف الأفلام والمسلسلات والمسرحيات ؛ قدمت يسرا عددا من الأغاني ، أشهرها أغنية 3 دقات مع المطرب محمد أبوالعينين ، الشهير ب " أبو " ، والتي حققت نجاحا كبيرا وتخططت 90 مليون مشاهدة خلال شهرين فقط من إطلاقها خلال فعاليات الدورة الأولى من مهرجان “ الجونة السينمائي ” +question : ما اشهر اغانى يسرا ؟ +prompt : أجب عن السؤال التالي : ما اشهر اغانى يسرا ؟ الجواب هو +pred_answer : اغنية « يا دنيا يا غر +answer : أشهرها أغنية 3 دقات + +context : وبخلاف الأفلام والمسلسلات والمسرحيات ؛ قدمت يسرا عددا من الأغاني ، أشهرها أغنية 3 دقات مع المطرب محمد أبوالعينين ، الشهير ب " أبو " ، والتي حققت نجاحا كبيرا وتخططت 90 مليون مشاهدة خلال شهرين فقط من إطلاقها خلال فعاليات الدورة الأولى من مهرجان “ الجونة السينمائي ” +question : ما شهرة المرب ابو العينين ؟ +prompt : أجب عن السؤال التالي : ما شهرة المرب ابو العينين ؟ الجواب هو +pred_answer : : أبو العينين من +answer : الشهير ب أبو + +context : اختيرت في لعام 2006 كسفيرة للنوايا الحسنة من قبل برنامج الأمم المتحدة الأنمائي وذلك في احتفال أقيم في حديقة الأزهر بالقاهرة ، من جهتها أكدت مديرة المكتب الإقليمي للدول العربية لبرنامج الأمم المتحدة الإنمائي أن اختيارها جاء لشهرتها الواسعة في الوطن العربي واهتمامها الواسع بالمهمشين والمرأة ورحلتها الفنية الطويلة لأكثر من 25 عاما قدمت خلالها أدوارا متنوعة عن القضايا السياسية والاجتماعية والإنسانية من خلال السينما والتليفزيون ومشاركتها للعديد من الجمعيات الأهلية في نشاطاتهم الإجتماعية . +question : فى اى عام اختيرت كسفيرة للنوايا الحسنة ؟ +prompt : أجب عن السؤال التالي : فى اى عام اختيرت كسفيرة للنوايا الحسنة ؟ الجواب هو في عام +pred_answer : 2005 ، +answer : 2006 + +context : اختيرت في لعام 2006 كسفيرة للنوايا الحسنة من قبل برنامج الأمم المتحدة الأنمائي وذلك في احتفال أقيم في حديقة الأزهر بالقاهرة ، من جهتها أكدت مديرة المكتب الإقليمي للدول العربية لبرنامج الأمم المتحدة الإنمائي أن اختيارها جاء لشهرتها الواسعة في الوطن العربي واهتمامها الواسع بالمهمشين والمرأة ورحلتها الفنية الطويلة لأكثر من 25 عاما قدمت خلالها أدوارا متنوعة عن القضايا السياسية والاجتماعية والإنسانية من خلال السينما والتليفزيون ومشاركتها للعديد من الجمعيات الأهلية في نشاطاتهم الإجتماعية . +question : فى اى حديقة اقيم الاحتفال ؟ +prompt : أجب عن السؤال التالي : فى اى حديقة اقيم الاحتفال ؟ الجواب هو +pred_answer : ان الحديقة هى المكان +answer : حديقة الأزهر بالقاهرة + +context : اختيرت في لعام 2006 كسفيرة للنوايا الحسنة من قبل برنامج الأمم المتحدة الأنمائي وذلك في احتفال أقيم في حديقة الأزهر بالقاهرة ، من جهتها أكدت مديرة المكتب الإقليمي للدول العربية لبرنامج الأمم المتحدة الإنمائي أن اختيارها جاء لشهرتها الواسعة في الوطن العربي واهتمامها الواسع بالمهمشين والمرأة ورحلتها الفنية الطويلة لأكثر من 25 عاما قدمت خلالها أدوارا متنوعة عن القضايا السياسية والاجتماعية والإنسانية من خلال السينما والتليفزيون ومشاركتها للعديد من الجمعيات الأهلية في نشاطاتهم الإجتماعية . +question : ما طول رحلتها الفنية ؟ +prompt : أجب عن السؤال التالي : ما طول رحلتها الفنية ؟ الجواب هو +pred_answer : : رحلة طويلة جدا . +answer : لأكثر من 25 عاما + +context : القرآن أو القرآن الكريم هو الكتاب الرئيسي في الإسلام ، يعظمه المسلمون ويؤمنون بأنه كلام الله المنزل على نبيه محمد للبيان والإعجاز ، المنقول عنه بالتواتر حيث يؤمن المسلمون أنه محفوظ في الصدور والسطور من كل مس أو تحريف ، وهو المتعبد بتلاوته ، وهو آخر الكتب السماوية بعد صحف إبراهيم والزبور والتوراة والإنجيل . كما يعد القرآن أرقى الكتب العربية قيمة لغوية ودينية ، لما يجمعه من البلاغة والبيان والفصاحة . وللقرآن أثر فضل في توحيد وتطوير اللغة العرب ة وآدابها وعلومها الصرفية والنحوية ، ووضع وتوحيد وتثبيت اللبنات الأساس لقواعد اللغة العربية ، إذ يعتبر مرجعا وأساسا لكل فطاحلة اللغة العربية كسيبويه والعلامة أبو الأسود الدؤلي والخليل بن أحمد الفراهيدي وغيرهم ، حيث ترتكز عليه كل مساهمات الفطاحلة اللغويين في تطوير اللغة العربية ، سواء عند القدماء أو المحدثين إلى حقبة أدب المهجر في العصر الحديث ، ابتداء من أحمد شوقي إلى رشيد سليم الخوري وجبران خليل جبران وغيرهم الذين كان لهم دور كبير في محاولة الدفع بإحياء اللغة والتراث العربي في العصر الحديث . +question : ما هو الكتاب الرئيسى فى الاسلام ؟ +prompt : أجب عن السؤال التالي : ما هو الكتاب الرئيسى فى الاسلام ؟ الجواب هو +pred_answer : القرآن الكريم ، +answer : القرآن الكريم + +context : القرآن أو القرآن الكريم هو الكتاب الرئيسي في الإسلام ، يعظمه المسلمون ويؤمنون بأنه كلام الله المنزل على نبيه محمد للبيان والإعجاز ، المنقول عنه بالتواتر حيث يؤمن المسلمون أنه محفوظ في الصدور والسطور من كل مس أو تحريف ، وهو المتعبد بتلاوته ، وهو آخر الكتب السماوية بعد صحف إبراهيم والزبور والتوراة والإنجيل . كما يعد القرآن أرقى الكتب العربية قيمة لغوية ودينية ، لما يجمعه من البلاغة والبيان والفصاحة . وللقرآن أثر فضل في توحيد وتطوير اللغة العرب ة وآدابها وعلومها الصرفية والنحوية ، ووضع وتوحيد وتثبيت اللبنات الأساس لقواعد اللغة العربية ، إذ يعتبر مرجعا وأساسا لكل فطاحلة اللغة العربية كسيبويه والعلامة أبو الأسود الدؤلي والخليل بن أحمد الفراهيدي وغيرهم ، حيث ترتكز عليه كل مساهمات الفطاحلة اللغويين في تطوير اللغة العربية ، سواء عند القدماء أو المحدثين إلى حقبة أدب المهجر في العصر الحديث ، ابتداء من أحمد شوقي إلى رشيد سليم الخوري وجبران خليل جبران وغيرهم الذين كان لهم دور كبير في محاولة الدفع بإحياء اللغة والتراث العربي في العصر الحديث . +question : من انزل القران ؟ +prompt : أجب عن السؤال التالي : من انزل القران ؟ الجواب هو +pred_answer : الله +answer : الله + +context : القرآن أو القرآن الكريم هو الكتاب الرئيسي في الإسلام ، يعظمه المسلمون ويؤمنون بأنه كلام الله المنزل على نبيه محمد للبيان والإعجاز ، المنقول عنه بالتواتر حيث يؤمن المسلمون أنه محفوظ في الصدور والسطور من كل مس أو تحريف ، وهو المتعبد بتلاوته ، وهو آخر الكتب السماوية بعد صحف إبراهيم والزبور والتوراة والإنجيل . كما يعد القرآن أرقى الكتب العربية قيمة لغوية ودينية ، لما يجمعه من البلاغة والبيان والفصاحة . وللقرآن أثر فضل في توحيد وتطوير اللغة العرب ة وآدابها وعلومها الصرفية والنحوية ، ووضع وتوحيد وتثبيت اللبنات الأساس لقواعد اللغة العربية ، إذ يعتبر مرجعا وأساسا لكل فطاحلة اللغة العربية كسيبويه والعلامة أبو الأسود الدؤلي والخليل بن أحمد الفراهيدي وغيرهم ، حيث ترتكز عليه كل مساهمات الفطاحلة اللغويين في تطوير اللغة العربية ، سواء عند القدماء أو المحدثين إلى حقبة أدب المهجر في العصر الحديث ، ابتداء من أحمد شوقي إلى رشيد سليم الخوري وجبران خليل جبران وغيرهم الذين كان لهم دور كبير في محاولة الدفع بإحياء اللغة والتراث العربي في العصر الحديث . +question : على من تنزل القران ؟ +prompt : أجب عن السؤال التالي : على من تنزل القران ؟ الجواب هو +pred_answer : قوله تعالى : +answer : على نبيه محمد + +context : كما حدث مع العديد من اللغات السامية الأخرى ، التي أضحت لغات بائدة واندثرت مع الزمن أو لغات طالها الضعف والانحطاط ، وبالتالي عدم القدرة على مسايرة التغييرات والتجاذبات التي تعرفها الحضارة وشعوب العالم القديم والحديث . +question : ماذا حدث للغات السامية الاخرى ؟ +prompt : أجب عن السؤال التالي : ماذا حدث للغات السامية الاخرى ؟ الجواب هو +pred_answer : ان هذه اللغات انقرضت ولم يعد لها وجود في الوقت الحاضر .ومن +answer : أضحت لغات بائدة واندثرت مع الزمن أو لغات طالها الضعف والانحطاط + +context : كما حدث مع العديد من اللغات السامية الأخرى ، التي أضحت لغات بائدة واندثرت مع الزمن أو لغات طالها الضعف والانحطاط ، وبالتالي عدم القدرة على مسايرة التغييرات والتجاذبات التي تعرفها الحضارة وشعوب العالم القديم والحديث . +question : ماذا نتج عن ذلك ؟ +prompt : أجب عن السؤال التالي : ماذا نتج عن ذلك ؟ الجواب هو +pred_answer : أنه في الوقت الذي كانت فيه الولايات المتحدة تسعى إلى فرض هيمنتها على العالم +answer : عدم القدرة على مسايرة التغييرات والتجاذبات التي تعرفها الحضارة وشعوب العالم القديم والحديث + +context : كما حدث مع العديد من اللغات السامية الأخرى ، التي أضحت لغات بائدة واندثرت مع الزمن أو لغات طالها الضعف والانحطاط ، وبالتالي عدم القدرة على مسايرة التغييرات والتجاذبات التي تعرفها الحضارة وشعوب العالم القديم والحديث . +question : اى شعوب لم تقدر تلك اللغات على مسايرة تغييراتها ؟ +prompt : أجب عن السؤال التالي : اى شعوب لم تقدر تلك اللغات على مسايرة تغييراتها ؟ الجواب هو +pred_answer : الشعوب العربية .فهل +answer : وشعوب العالم القديم والحديث + +context : ويحتوي القرآن على 114 سورة تصنف إلى مكية ومدنية وفقا لمكان وزمان نزول الوحي بها . ويؤمن المسلمون أن القرآن أنزله الله على لسان الملك جبريل إلى النبي محمد على مدى 23 سنة تقريبا ، بعد أن بلغ النبي محمد سن الأربعين ، وحتى وفاته عام 11 ه 632 م . كما يؤمن المسلمون بأن القرآن حفظ بدقة ، على يد الصحابة ، بعد أن نزل الوحي على النبي محمد فحفظه وقرأه على صحابته ، وأن آياته محكمات مفصلات وأنه يخاطب الأجيال كافة في كل القرون ، ويتضمن كل المناسبات ويحيط بكل الأحوال . +question : كم سورة يحتوي عليها القران ؟ +prompt : أجب عن السؤال التالي : كم سورة يحتوي عليها القران ؟ الجواب هو في عام +pred_answer : 2007 +answer : 114 + +context : ويحتوي القرآن على 114 سورة تصنف إلى مكية ومدنية وفقا لمكان وزمان نزول الوحي بها . ويؤمن المسلمون أن القرآن أنزله الله على لسان الملك جبريل إلى النبي محمد على مدى 23 سنة تقريبا ، بعد أن بلغ النبي محمد سن الأربعين ، وحتى وفاته عام 11 ه 632 م . كما يؤمن المسلمون بأن القرآن حفظ بدقة ، على يد الصحابة ، بعد أن نزل الوحي على النبي محمد فحفظه وقرأه على صحابته ، وأن آياته محكمات مفصلات وأنه يخاطب الأجيال كافة في كل القرون ، ويتضمن كل المناسبات ويحيط بكل الأحوال . +question : الى ماذا تصنف سور القران ؟ +prompt : أجب عن السؤال التالي : الى ماذا تصنف سور القران ؟ الجواب هو +pred_answer : ما يلي : 1 - +answer : إلى مكية ومدنية + +context : ويحتوي القرآن على 114 سورة تصنف إلى مكية ومدنية وفقا لمكان وزمان نزول الوحي بها . ويؤمن المسلمون أن القرآن أنزله الله على لسان الملك جبريل إلى النبي محمد على مدى 23 سنة تقريبا ، بعد أن بلغ النبي محمد سن الأربعين ، وحتى وفاته عام 11 ه 632 م . كما يؤمن المسلمون بأن القرآن حفظ بدقة ، على يد الصحابة ، بعد أن نزل الوحي على النبي محمد فحفظه وقرأه على صحابته ، وأن آياته محكمات مفصلات وأنه يخاطب الأجيال كافة في كل القرون ، ويتضمن كل المناسبات ويحيط بكل الأحوال . +question : لماذا صنفت سور القران مدنيه و مكية ؟ +prompt : أجب عن السؤال التالي : لماذا صنفت سور القران مدنيه و مكية ؟ الجواب هو +pred_answer : ان السور المكية هي التي نزلت +answer : وفقا لمكان وزمان نزول الوحي بها + +context : إرنستو " تشي " جيفارا ( 14 يونيو 1928 - 9 أكتوبر 1967 ) المعروف باسم تشي جيفارا ( Che Guevara ) ، أو التشي ( El Che ) ، أو ببساطة تشي ( Che ) ، ( بالإسبانية : Ernesto ' Che ' Ernestico Guevara de la Serna ) استمع للنطق ( ينطق غ ارا ) ، ثوري كوبي ماركسي أرجينتيني المولد ، وهو طبيب وكاتب وزعيم حرب العصابات وقائد عسكري ورجل دولة عالمي وشخصية رئيسة في الثورة الكوبية . سافر جيفارا عندما كان طالبا في كلية الطب بجامعة بوينس آيرس ، التي تخرج منها عام 1953 ، إلى جميع أنحاء أمريكا اللاتينية مع صديقه ألبيرتو غرانادو على متن دراجة نارية وهو في السنة الأخيرة من الكلية ، وكونت تلك الرحلة شخصيته وإحساسه بوحدة أمريكا الجنوبية وبالظلم الكبير الواقع من الإمبرياليين على المزارع اللاتيني البسيط ، وتغير داخليا بعد مشاهدة الفقر المتوطن هناك . +question : من هو تشى جيفارا ؟ +prompt : أجب عن السؤال التالي : من هو تشى جيفارا ؟ الجواب هو +pred_answer : : تشي جيفارا ( 1928 - 1967 ) ثوري كوبي ماركسي أرجينتيني المولد +answer : ماركسي أرجينتيني المولد وهو طبيب وكاتب وزعيم حرب العصابات وقائد عسكري ورجل دولة عالمي + +context : إرنستو " تشي " جيفارا ( 14 يونيو 1928 - 9 أكتوبر 1967 ) المعروف باسم تشي جيفارا ( Che Guevara ) ، أو التشي ( El Che ) ، أو ببساطة تشي ( Che ) ، ( بالإسبانية : Ernesto ' Che ' Ernestico Guevara de la Serna ) استمع للنطق ( ينطق غ ارا ) ، ثوري كوبي ماركسي أرجينتيني المولد ، وهو طبيب وكاتب وزعيم حرب العصابات وقائد عسكري ورجل دولة عالمي وشخصية رئيسة في الثورة الكوبية . سافر جيفارا عندما كان طالبا في كلية الطب بجامعة بوينس آيرس ، التي تخرج منها عام 1953 ، إلى جميع أنحاء أمريكا اللاتينية مع صديقه ألبيرتو غرانادو على متن دراجة نارية وهو في السنة الأخيرة من الكلية ، وكونت تلك الرحلة شخصيته وإحساسه بوحدة أمريكا الجنوبية وبالظلم الكبير الواقع من الإمبرياليين على المزارع اللاتيني البسيط ، وتغير داخليا بعد مشاهدة الفقر المتوطن هناك . +question : متى ولد ؟ +prompt : أجب عن السؤال التالي : متى ولد ؟ الجواب هو +pred_answer : : في عام +answer : 14 يونيو 1928 + +context : إرنستو " تشي " جيفارا ( 14 يونيو 1928 - 9 أكتوبر 1967 ) المعروف باسم تشي جيفارا ( Che Guevara ) ، أو التشي ( El Che ) ، أو ببساطة تشي ( Che ) ، ( بالإسبانية : Ernesto ' Che ' Ernestico Guevara de la Serna ) استمع للنطق ( ينطق غ ارا ) ، ثوري كوبي ماركسي أرجينتيني المولد ، وهو طبيب وكاتب وزعيم حرب العصابات وقائد عسكري ورجل دولة عالمي وشخصية رئيسة في الثورة الكوبية . سافر جيفارا عندما كان طالبا في كلية الطب بجامعة بوينس آيرس ، التي تخرج منها عام 1953 ، إلى جميع أنحاء أمريكا اللاتينية مع صديقه ألبيرتو غرانادو على متن دراجة نارية وهو في السنة الأخيرة من الكلية ، وكونت تلك الرحلة شخصيته وإحساسه بوحدة أمريكا الجنوبية وبالظلم الكبير الواقع من الإمبرياليين على المزارع اللاتيني البسيط ، وتغير داخليا بعد مشاهدة الفقر المتوطن هناك . +question : متى توفى ؟ +prompt : أجب عن السؤال التالي : متى توفى ؟ الجواب هو +pred_answer : : توفي في +answer : 9 أكتوبر 1967 + +context : أدت تجاربه وملاحظاته خلال هذه الرحلة إلى استنتاج بأن التفاوتات الاقتصادية متأصلة بالمنطقة ، والتي كانت نتيجة الرأسمالية الاحتكارية والاستعمار الجديد والإمبريالية . رأى جيفارا أن العلاج الوحيد هو الثورة العالمية . كان هذا الاعتقاد الدافع وراء تورطه في الإصلاحات الاجتماعية في غواتيمالا في ظل حكم الرئيس جاكوبو أربينز غوزمان ، الذي ساعدت وكالة المخابرات المركزية الأمريكية في نهاية المطاف على الإطاحة به مما سهل نشر إيديولوجية غيفارا الراديكالية . +question : ماذا ات تجاربه وملاحظاته خلال رحلته لجميع مناطق امريكا الجنوبية ؟ +prompt : أجب عن السؤال التالي : ماذا ات تجاربه وملاحظاته خلال رحلته لجميع مناطق امريكا الجنوبية ؟ الجواب هو +pred_answer : ما يلي :1 - عندما وصل الى مدينة +answer : إلى استنتاج بأن التفاوتات الاقتصادية متأصلة بالمنطقة + +context : أدت تجاربه وملاحظاته خلال هذه الرحلة إلى استنتاج بأن التفاوتات الاقتصادية متأصلة بالمنطقة ، والتي كانت نتيجة الرأسمالية الاحتكارية والاستعمار الجديد والإمبريالية . رأى جيفارا أن العلاج الوحيد هو الثورة العالمية . كان هذا الاعتقاد الدافع وراء تورطه في الإصلاحات الاجتماعية في غواتيمالا في ظل حكم الرئيس جاكوبو أربينز غوزمان ، الذي ساعدت وكالة المخابرات المركزية الأمريكية في نهاية المطاف على الإطاحة به مما سهل نشر إيديولوجية غيفارا الراديكالية . +question : ما سبب التفاوتات الاقتصادية ؟ +prompt : أجب عن السؤال التالي : ما سبب التفاوتات الاقتصادية ؟ الجواب هو +pred_answer : أن هناك ثلاثة أسباب رئيسية للتفاوتات الاقتصادية في +answer : الرأسمالية الاحتكارية والاستعمار الجديد والإمبريالية + +context : أدت تجاربه وملاحظاته خلال هذه الرحلة إلى استنتاج بأن التفاوتات الاقتصادية متأصلة بالمنطقة ، والتي كانت نتيجة الرأسمالية الاحتكارية والاستعمار الجديد والإمبريالية . رأى جيفارا أن العلاج الوحيد هو الثورة العالمية . كان هذا الاعتقاد الدافع وراء تورطه في الإصلاحات الاجتماعية في غواتيمالا في ظل حكم الرئيس جاكوبو أربينز غوزمان ، الذي ساعدت وكالة المخابرات المركزية الأمريكية في نهاية المطاف على الإطاحة به مما سهل نشر إيديولوجية غيفارا الراديكالية . +question : و ماذا كان رأى تشى جيفارا ؟ +prompt : أجب عن السؤال التالي : و ماذا كان رأى تشى جيفارا ؟ الجواب هو +pred_answer : " لا شيء تقريبا " . +answer : أن العلاج الوحيد هو الثورة العالمية + +context : بينما كان غيفارا يعيش في مدينة مكسيكو التقى هناك براؤول كاسترو المنفي مع أصدقائه الذين كانوا يجهزون للثورة وينتظرون خروج فيدل كاسترو من سجنه في كوبا . ما إن خرج هذا الأخير من سجنه حتى قرر غيفارا الانضمام للثورة الكوبية . رأى فيدل كاسترو أنهم في أمس الحاجة إليه كطبيب ، وانضم لهم في حركة 26 يوليو ، التي غزت كوبا على متن غرانما بنية الإطاحة بالنظام الدكتاتوري المدعم من طرف الولايات المتحدة التي تدعم الديكتاتور الكوبي فولغينسيو باتيستا . سرعان ما برز غيفارا بين المسلحين وتمت ترقيته إلى الرجل الثاني في القيادة حيث لعب دورا محوريا في نجاح الحملة على مدار عامين من الحرب المسلحة التي أطاحت بنظام باتيستا . +question : اين كان يعيش حينما التقى براؤل كاسترو ؟ +prompt : أجب عن السؤال التالي : اين كان يعيش حينما التقى براؤل كاسترو ؟ الجواب هو +pred_answer : انه لم +answer : مدينة مكسيكو + +context : بينما كان غيفارا يعيش في مدينة مكسيكو التقى هناك براؤول كاسترو المنفي مع أصدقائه الذين كانوا يجهزون للثورة وينتظرون خروج فيدل كاسترو من سجنه في كوبا . ما إن خرج هذا الأخير من سجنه حتى قرر غيفارا الانضمام للثورة الكوبية . رأى فيدل كاسترو أنهم في أمس الحاجة إليه كطبيب ، وانضم لهم في حركة 26 يوليو ، التي غزت كوبا على متن غرانما بنية الإطاحة بالنظام الدكتاتوري المدعم من طرف الولايات المتحدة التي تدعم الديكتاتور الكوبي فولغينسيو باتيستا . سرعان ما برز غيفارا بين المسلحين وتمت ترقيته إلى الرجل الثاني في القيادة حيث لعب دورا محوريا في نجاح الحملة على مدار عامين من الحرب المسلحة التي أطاحت بنظام باتيستا . +question : متى قرر جيفارا الانضمام الى الثورة الكوبية ؟ +prompt : أجب عن السؤال التالي : متى قرر جيفارا الانضمام الى الثورة الكوبية ؟ الجواب هو +pred_answer : في عام 1959 ، أي بعد عامين +answer : خروج فيدل كاسترو من سجنه + +context : بينما كان غيفارا يعيش في مدينة مكسيكو التقى هناك براؤول كاسترو المنفي مع أصدقائه الذين كانوا يجهزون للثورة وينتظرون خروج فيدل كاسترو من سجنه في كوبا . ما إن خرج هذا الأخير من سجنه حتى قرر غيفارا الانضمام للثورة الكوبية . رأى فيدل كاسترو أنهم في أمس الحاجة إليه كطبيب ، وانضم لهم في حركة 26 يوليو ، التي غزت كوبا على متن غرانما بنية الإطاحة بالنظام الدكتاتوري المدعم من طرف الولايات المتحدة التي تدعم الديكتاتور الكوبي فولغينسيو باتيستا . سرعان ما برز غيفارا بين المسلحين وتمت ترقيته إلى الرجل الثاني في القيادة حيث لعب دورا محوريا في نجاح الحملة على مدار عامين من الحرب المسلحة التي أطاحت بنظام باتيستا . +question : لماذا قبل كاسترو انضمام جيفارا اليه ؟ +prompt : أجب عن السؤال التالي : لماذا قبل كاسترو انضمام جيفارا اليه ؟ الجواب هو +pred_answer : ان الثورة الكوبية كانت بحاجة الى قائد كاريزماتي +answer : رأى فيدل كاسترو أنهم في أمس الحاجة إليه كطبيب + +context : أذربيجان ( بالأذرية : Az rbaycan ) أو رسميا جمهورية أذربيجان ( بالأذرية : Az rbaycan Respublikas أذربيجان ريسبوليكاسي ) هي واحدة من ست دول تركية مستقلة في منطقة القوقاز في أوراسيا . يحد مكتنف ناخيتشيفان أرمينيا في الشمال والشرق وإيران إلى الجنوب والغرب بينما تحد تركيا بحدود قصيرة في الشمال الغربي . تحاط الوصائد كاركي ويوخاري أوسكيبارا وبروخودارلي وسوفولو بأرمينيا والتي تسيطر عليها منذ حرب ناغورني قرة باغ . أما منطقة ناغورني قرة باغ ذات الأغلبية الأرمنية في الجنوب الغربي من أذربيجان أعلنت نفسها مستقلة من أذربيجان في عام 1991 لكن هذا الاستقلال لم يتم الاعتراف به دبلوماسيا من جانب أي دولة ولا تزال تعد جزءا من أذربيجان بحكم القانون تحتله القوات الأرمينية . +question : ما اسم اذربيجان بالاذرية ؟ +prompt : أجب عن السؤال التالي : ما اسم اذربيجان بالاذرية ؟ الجواب هو +pred_answer : : باكو . +answer : أذربيجان + +context : أذربيجان ( بالأذرية : Az rbaycan ) أو رسميا جمهورية أذربيجان ( بالأذرية : Az rbaycan Respublikas أذربيجان ريسبوليكاسي ) هي واحدة من ست دول تركية مستقلة في منطقة القوقاز في أوراسيا . يحد مكتنف ناخيتشيفان أرمينيا في الشمال والشرق وإيران إلى الجنوب والغرب بينما تحد تركيا بحدود قصيرة في الشمال الغربي . تحاط الوصائد كاركي ويوخاري أوسكيبارا وبروخودارلي وسوفولو بأرمينيا والتي تسيطر عليها منذ حرب ناغورني قرة باغ . أما منطقة ناغورني قرة باغ ذات الأغلبية الأرمنية في الجنوب الغربي من أذربيجان أعلنت نفسها مستقلة من أذربيجان في عام 1991 لكن هذا الاستقلال لم يتم الاعتراف به دبلوماسيا من جانب أي دولة ولا تزال تعد جزءا من أذربيجان بحكم القانون تحتله القوات الأرمينية . +question : وما اسمها رسميا ؟ +prompt : أجب عن السؤال التالي : وما اسمها رسميا ؟ الجواب هو +pred_answer : : جمهورية +answer : جمهورية أذربيجان + +context : أذربيجان ( بالأذرية : Az rbaycan ) أو رسميا جمهورية أذربيجان ( بالأذرية : Az rbaycan Respublikas أذربيجان ريسبوليكاسي ) هي واحدة من ست دول تركية مستقلة في منطقة القوقاز في أوراسيا . يحد مكتنف ناخيتشيفان أرمينيا في الشمال والشرق وإيران إلى الجنوب والغرب بينما تحد تركيا بحدود قصيرة في الشمال الغربي . تحاط الوصائد كاركي ويوخاري أوسكيبارا وبروخودارلي وسوفولو بأرمينيا والتي تسيطر عليها منذ حرب ناغورني قرة باغ . أما منطقة ناغورني قرة باغ ذات الأغلبية الأرمنية في الجنوب الغربي من أذربيجان أعلنت نفسها مستقلة من أذربيجان في عام 1991 لكن هذا الاستقلال لم يتم الاعتراف به دبلوماسيا من جانب أي دولة ولا تزال تعد جزءا من أذربيجان بحكم القانون تحتله القوات الأرمينية . +question : متى اعلنت منظقة ناغورنى قرة باغ نفسها مستقلة من اذربيجان ؟ +prompt : أجب عن السؤال التالي : متى اعلنت منظقة ناغورنى قرة باغ نفسها مستقلة من اذربيجان ؟ الجواب هو في عام +pred_answer : 1991 . +answer : 1991 + +context : تمتلك أذربيجان علاقات دبلوماسية مع 158 دولة حتى الآن وتحمل عضوية 38 منظمة دولية . تحمل صفة مراقب في حركة عدم الانحياز ومنظمة التجارة العالمية ومراسل في الاتحاد الدولي للاتصالات . توجد جاليات أذربيجانية في 42 بلدا كما توجد العشرات من مراكز الأقليات العرقية داخل أذربيجان بما في ذلك ( المجتمع الثقافي الألماني " كارل هاوس " والمركز الثقافي السلافي والمجتمع الأذربيجاني الإسرائيلي والمركز الثقافي الكردي ورابطة تاليش الدولية والمركز الليزغيني الوطني " سمور " والمجتمع الأذربيجاني التتري ومجتمع تتار القرم . . . الخ ) . في 9 مايو 2006 انتخبت أذربيجان لعضوية مجلس حقوق الإنسان المنشأ حديثا من قبل الجمعية العامة للأمم المتحدة . وبدأت فترة ولاية المجلس في 19 يونيو 2006 . +question : كم دولة تمتلك علاقات دبلوماسية مع اذربيجان ؟ +prompt : أجب عن السؤال التالي : كم دولة تمتلك علاقات دبلوماسية مع اذربيجان ؟ الجواب هو في عام +pred_answer : 2006 ، +answer : 158 + +context : تمتلك أذربيجان علاقات دبلوماسية مع 158 دولة حتى الآن وتحمل عضوية 38 منظمة دولية . تحمل صفة مراقب في حركة عدم الانحياز ومنظمة التجارة العالمية ومراسل في الاتحاد الدولي للاتصالات . توجد جاليات أذربيجانية في 42 بلدا كما توجد العشرات من مراكز الأقليات العرقية داخل أذربيجان بما في ذلك ( المجتمع الثقافي الألماني " كارل هاوس " والمركز الثقافي السلافي والمجتمع الأذربيجاني الإسرائيلي والمركز الثقافي الكردي ورابطة تاليش الدولية والمركز الليزغيني الوطني " سمور " والمجتمع الأذربيجاني التتري ومجتمع تتار القرم . . . الخ ) . في 9 مايو 2006 انتخبت أذربيجان لعضوية مجلس حقوق الإنسان المنشأ حديثا من قبل الجمعية العامة للأمم المتحدة . وبدأت فترة ولاية المجلس في 19 يونيو 2006 . +question : متى انتخبت لعضوية مجلس حقوق الانسان ؟ +prompt : أجب عن السؤال التالي : متى انتخبت لعضوية مجلس حقوق الانسان ؟ الجواب هو +pred_answer : عندما كنت في +answer : 9 مايو 2006 + +context : تمتلك أذربيجان علاقات دبلوماسية مع 158 دولة حتى الآن وتحمل عضوية 38 منظمة دولية . تحمل صفة مراقب في حركة عدم الانحياز ومنظمة التجارة العالمية ومراسل في الاتحاد الدولي للاتصالات . توجد جاليات أذربيجانية في 42 بلدا كما توجد العشرات من مراكز الأقليات العرقية داخل أذربيجان بما في ذلك ( المجتمع الثقافي الألماني " كارل هاوس " والمركز الثقافي السلافي والمجتمع الأذربيجاني الإسرائيلي والمركز الثقافي الكردي ورابطة تاليش الدولية والمركز الليزغيني الوطني " سمور " والمجتمع الأذربيجاني التتري ومجتمع تتار القرم . . . الخ ) . في 9 مايو 2006 انتخبت أذربيجان لعضوية مجلس حقوق الإنسان المنشأ حديثا من قبل الجمعية العامة للأمم المتحدة . وبدأت فترة ولاية المجلس في 19 يونيو 2006 . +question : متى بدأت فترة ولاية المجلس ؟ +prompt : أجب عن السؤال التالي : متى بدأت فترة ولاية المجلس ؟ الجواب هو +pred_answer : في العام 1992 +answer : 19 يونيو 2006 + +context : أذربيجان هي أحد الأعضاء المؤسسين لمجموعة غوام ومنظمة حظر الأسلحة الكيميائية وانضمت إلى رابطة الدول المستقلة في أيلول سبتمبر من عام 1993 . يوجد مبعوث خاص للمفوضية الأوروبية في البلد ، التي هي أيضا عضو في الأمم المتحدة ومنظمة الأمن والتعاون في أوروبا ومجلس أوروبا وبرنامج الشراكة من أجل السلام لمنظمة حلف شمال الأطلسي . +question : متى انضمت اذربيجان الى رابطة الدول المستقلة ؟ +prompt : أجب عن السؤال التالي : متى انضمت اذربيجان الى رابطة الدول المستقلة ؟ الجواب هو +pred_answer : بعد تفكك الاتحاد السوفياتي في العام 1991 +answer : أيلول سبتمبر من عام 1993 + +context : أذربيجان هي أحد الأعضاء المؤسسين لمجموعة غوام ومنظمة حظر الأسلحة الكيميائية وانضمت إلى رابطة الدول المستقلة في أيلول سبتمبر من عام 1993 . يوجد مبعوث خاص للمفوضية الأوروبية في البلد ، التي هي أيضا عضو في الأمم المتحدة ومنظمة الأمن والتعاون في أوروبا ومجلس أوروبا وبرنامج الشراكة من أجل السلام لمنظمة حلف شمال الأطلسي . +question : ما هى المنظمات اللتى اشتركت اذربيجان فى تاسيسها ؟ +prompt : أجب عن السؤال التالي : ما هى المنظمات اللتى اشتركت اذربيجان فى تاسيسها ؟ الجواب هو +pred_answer : : منظمة المؤتمر الاسلامى ، جامعة الدول العربية +answer : لمجموعة غوام ومنظمة حظر الأسلحة الكيميائية + +context : أذربيجان هي أحد الأعضاء المؤسسين لمجموعة غوام ومنظمة حظر الأسلحة الكيميائية وانضمت إلى رابطة الدول المستقلة في أيلول سبتمبر من عام 1993 . يوجد مبعوث خاص للمفوضية الأوروبية في البلد ، التي هي أيضا عضو في الأمم المتحدة ومنظمة الأمن والتعاون في أوروبا ومجلس أوروبا وبرنامج الشراكة من أجل السلام لمنظمة حلف شمال الأطلسي . +question : ما هى المنظمات الاخرى المشيركة بها اذربيجان ؟ +prompt : أجب عن السؤال التالي : ما هى المنظمات الاخرى المشيركة بها اذربيجان ؟ الجواب هو +pred_answer : : منظمة المؤتمر الاسلامى ، جامعة الدول العربية ، الاتحاد الاوروبى ، الامم المتحدة ، +answer : المتحدة ومنظمة الأمن والتعاون في أوروبا ومجلس أوروبا وبرنامج الشراكة من أجل السلام لمنظمة + +context : أبو محمد الحجاج بن يوسف الثقفي ( 40 - 95 ه = 660 - 714 م ) ، قائد في العهد الأموي ، ولد ونشأ في الطائف وانتقل إلى الشام فلحق بروح بن زنباع نائب عبد الملك بن مروان فكان في عديد شرطته ، ثم ما زال يظهر حتى قلده عبد الملك أمر عسكره . أمره عبد الملك بقتال عبد الله بن الزبير ، فزحف إلى الحجاز بجيش كبير وقتل عبد الله وفرق جموعه ، فولاه عبد الملك مكة والمدينة والطائف ، ثم أضاف إليها العراق والثورة قائمة فيه ، فانصرف إلى الكوفة في ثمانية أو تسعة رجال على النجائب ، فقمع الثورة وثبتت له الإمارة عشرين سنة . +question : اين ولد الحجاج ؟ +prompt : أجب عن السؤال التالي : اين ولد الحجاج ؟ الجواب هو +pred_answer : في الكوفة +answer : الطائف + +context : أبو محمد الحجاج بن يوسف الثقفي ( 40 - 95 ه = 660 - 714 م ) ، قائد في العهد الأموي ، ولد ونشأ في الطائف وانتقل إلى الشام فلحق بروح بن زنباع نائب عبد الملك بن مروان فكان في عديد شرطته ، ثم ما زال يظهر حتى قلده عبد الملك أمر عسكره . أمره عبد الملك بقتال عبد الله بن الزبير ، فزحف إلى الحجاز بجيش كبير وقتل عبد الله وفرق جموعه ، فولاه عبد الملك مكة والمدينة والطائف ، ثم أضاف إليها العراق والثورة قائمة فيه ، فانصرف إلى الكوفة في ثمانية أو تسعة رجال على النجائب ، فقمع الثورة وثبتت له الإمارة عشرين سنة . +question : متى ولد الحجاج ؟ +prompt : أجب عن السؤال التالي : متى ولد الحجاج ؟ الجواب هو في عام +pred_answer : 95 ه +answer : 660 + +context : أبو محمد الحجاج بن يوسف الثقفي ( 40 - 95 ه = 660 - 714 م ) ، قائد في العهد الأموي ، ولد ونشأ في الطائف وانتقل إلى الشام فلحق بروح بن زنباع نائب عبد الملك بن مروان فكان في عديد شرطته ، ثم ما زال يظهر حتى قلده عبد الملك أمر عسكره . أمره عبد الملك بقتال عبد الله بن الزبير ، فزحف إلى الحجاز بجيش كبير وقتل عبد الله وفرق جموعه ، فولاه عبد الملك مكة والمدينة والطائف ، ثم أضاف إليها العراق والثورة قائمة فيه ، فانصرف إلى الكوفة في ثمانية أو تسعة رجال على النجائب ، فقمع الثورة وثبتت له الإمارة عشرين سنة . +question : متى توفى الحجاج ؟ +prompt : أجب عن السؤال التالي : متى توفى الحجاج ؟ الجواب هو في عام +pred_answer : 95 ه +answer : 714 + +context : هو أبو محمد الحجاج كليب بن يوسف بن الحكم بن أبي عقيل بن مسعود بن عامر بن معتب بن مالك بن كعب بن عمرو بن سعد بن عوف بن ثقيف بن منبه بن بكر بن هوازن بن منصور بن عكرمة بن خصفة بن قيس عيلان بن مضر بن نزار بن معد بن عدنان ، الثقفي . +question : من هو الحجاج ؟ +prompt : أجب عن السؤال التالي : من هو الحجاج ؟ الجواب هو +pred_answer : عبد الرحمن بن الأشعث ، الذي ثار على +answer : هو أبو محمد الحجاج كليب بن يوسف بن الحكم + +context : هو أبو محمد الحجاج كليب بن يوسف بن الحكم بن أبي عقيل بن مسعود بن عامر بن معتب بن مالك بن كعب بن عمرو بن سعد بن عوف بن ثقيف بن منبه بن بكر بن هوازن بن منصور بن عكرمة بن خصفة بن قيس عيلان بن مضر بن نزار بن معد بن عدنان ، الثقفي . +question : من ابوه ؟ +prompt : أجب عن السؤال التالي : من ابوه ؟ الجواب هو +pred_answer : : الله سبحانه وتعالى +answer : يوسف بن الحكم + +context : هو أبو محمد الحجاج كليب بن يوسف بن الحكم بن أبي عقيل بن مسعود بن عامر بن معتب بن مالك بن كعب بن عمرو بن سعد بن عوف بن ثقيف بن منبه بن بكر بن هوازن بن منصور بن عكرمة بن خصفة بن قيس عيلان بن مضر بن نزار بن معد بن عدنان ، الثقفي . +question : من جده ؟ +prompt : أجب عن السؤال التالي : من جده ؟ الجواب هو +pred_answer : : محمد بن عبد الله صلى الله عليه وسلم +answer : الحكم بن أبي عقيل بن مسعود بن عامر + +context : ولد في منازل ثقيف بمدينة الطائف ، في عام الجماعة 41 ه . وكان اسمه كليب ثم أبدله بالحجاج . وأمه الفارعة بنت همام بن عروة بن مسعود الثقفي الصحابي الشهيد . نشأ في الطائف ، وتعلم القرآن والحديث والفصاحة ، ثم عمل في مطلع شبابه معلم صبيان مع أبيه ، يعلم الفتية القرآن والحديث ، ويفقههم في الدين ، لكنه لم يكن راضيا بعمله هذا ، على الرغم من تأثيره الكبير عليه ، فقد اشتهر بتعظيمه للقرآن . +question : من امه ؟ +prompt : أجب عن السؤال التالي : من امه ؟ الجواب هو +pred_answer : : امي .ومن اباه ؟ الجواب +answer : الفارعة بنت همام بن عروة بن مسعود الثقفي + +context : ولد في منازل ثقيف بمدينة الطائف ، في عام الجماعة 41 ه . وكان اسمه كليب ثم أبدله بالحجاج . وأمه الفارعة بنت همام بن عروة بن مسعود الثقفي الصحابي الشهيد . نشأ في الطائف ، وتعلم القرآن والحديث والفصاحة ، ثم عمل في مطلع شبابه معلم صبيان مع أبيه ، يعلم الفتية القرآن والحديث ، ويفقههم في الدين ، لكنه لم يكن راضيا بعمله هذا ، على الرغم من تأثيره الكبير عليه ، فقد اشتهر بتعظيمه للقرآن . +question : ماذا كان يعمل فى مطلع شبابه ؟ +prompt : أجب عن السؤال التالي : ماذا كان يعمل فى مطلع شبابه ؟ الجواب هو +pred_answer : أنه لم يكن موظفا حكوميا ، +answer : معلم صبيان مع أبيه + +context : ولد في منازل ثقيف بمدينة الطائف ، في عام الجماعة 41 ه . وكان اسمه كليب ثم أبدله بالحجاج . وأمه الفارعة بنت همام بن عروة بن مسعود الثقفي الصحابي الشهيد . نشأ في الطائف ، وتعلم القرآن والحديث والفصاحة ، ثم عمل في مطلع شبابه معلم صبيان مع أبيه ، يعلم الفتية القرآن والحديث ، ويفقههم في الدين ، لكنه لم يكن راضيا بعمله هذا ، على الرغم من تأثيره الكبير عليه ، فقد اشتهر بتعظيمه للقرآن . +question : بماذا اشتهر ؟ +prompt : أجب عن السؤال التالي : بماذا اشتهر ؟ الجواب هو +pred_answer : ما قاله رسول الله صلى +answer : بتعظيمه للقرآن + +context : الدروز يسمون أنفسهم الموحدون هم عرقية دينية باطنية تدين بمذهب التوحيد ذو التعاليم الباطنية ؛ وتعود أصول المذهب الدرزي إلى الإسماعيلية ، إحدى المذاهب الشيعية ، كما ترجع جذور الدروز إلى غرب آسيا . مذهب التوحيد أو الدرزية هي ديانة توحيدية وإبراهيمية تستند إلى تعاليم أفلاطون ، وأرسطو ، وسقراط ، وأخناتون ، وحمزة بن علي بن أحمد والحاكم بأمر الله . تعتبر رسائل الحكمة من مصادر العقيدة الدرزية جنبا إلى جنب مع نصوص تكميلية مثل رسائل الهند . تتضمن عقيدة الدروز عناصر غنوصية ، وأفلاطونية محدثة ، وفيثاغورية ، وإسماعيلية ، ويهودية ، ومسيحية ، وهندوسية ، فضلا عن فلسفات ومعتقدات أخرى ، مما أدى إلى ابتكار لاهوت عرف بالسرية والتفسير الباطني للكتب الدينية وتسليط الضوء على دور العقل والصدق . يؤمن الدروز بالظهور الإلهي ، والتناسخ أو التقمص الذي يتلخص مفهومه في رجوع الروح إلى الحياة بجسد آخر ، وهي فكرة فلسفية ودينية مرتبطة بالجسد والروح والذات حسب المعتقدات الدرزية . لعبت الطائفة الدرزية دورا هاما في تشكيل تاريخ بلاد الشام ، واستمرت في لعب دور سياسي كبير في هذه المنطقة كأقلية عرقية ودينية ، تعرض الدروز إلى الاضطهاد في العديد من الأحيان ، إذ لا يعتبر الدروز جزءا من الإسلام ، وبالتالي كفرت العديد من الفتاوى الدروز واعتبرتهم مرتدين عن دين الإسلام . من أبرز حملات الاضطهاد التي تعرض لها الدروز كانت من الظاهر لإعزاز دين الله خليفة الدولة الفاطمية ، حيث قام بحملة إبادة المجتمعات المحلية الدرزية والتي شملت تطهيرا عرقيا في كل من أنطاكية وحلب وشمال سوريا . جرت حملات أخرى مماثلة من قبل المماليك والعثمانيين ؛ وفي الآونة الأخيرة قام كل من تنظيم الدولة الإسلامية أو ما يعرف بداعش وتنظيم القاعدة بحملات تطهير ، في سوريا والدول المجاورة ، استهدفت المعتقدات والأقليات غير المسلمة . +question : من هم الدروز ؟ +prompt : أجب عن السؤال التالي : من هم الدروز ؟ الجواب هو +pred_answer : أن الدروز فرقة باطنية تنسب إلى رجل اسمه حمزة بن علي +answer : هم عرقية دينية باطنية تدين بمذهب التوحيد ذو التعاليم الباطنية + +context : الدروز يسمون أنفسهم الموحدون هم عرقية دينية باطنية تدين بمذهب التوحيد ذو التعاليم الباطنية ؛ وتعود أصول المذهب الدرزي إلى الإسماعيلية ، إحدى المذاهب الشيعية ، كما ترجع جذور الدروز إلى غرب آسيا . مذهب التوحيد أو الدرزية هي ديانة توحيدية وإبراهيمية تستند إلى تعاليم أفلاطون ، وأرسطو ، وسقراط ، وأخناتون ، وحمزة بن علي بن أحمد والحاكم بأمر الله . تعتبر رسائل الحكمة من مصادر العقيدة الدرزية جنبا إلى جنب مع نصوص تكميلية مثل رسائل الهند . تتضمن عقيدة الدروز عناصر غنوصية ، وأفلاطونية محدثة ، وفيثاغورية ، وإسماعيلية ، ويهودية ، ومسيحية ، وهندوسية ، فضلا عن فلسفات ومعتقدات أخرى ، مما أدى إلى ابتكار لاهوت عرف بالسرية والتفسير الباطني للكتب الدينية وتسليط الضوء على دور العقل والصدق . يؤمن الدروز بالظهور الإلهي ، والتناسخ أو التقمص الذي يتلخص مفهومه في رجوع الروح إلى الحياة بجسد آخر ، وهي فكرة فلسفية ودينية مرتبطة بالجسد والروح والذات حسب المعتقدات الدرزية . لعبت الطائفة الدرزية دورا هاما في تشكيل تاريخ بلاد الشام ، واستمرت في لعب دور سياسي كبير في هذه المنطقة كأقلية عرقية ودينية ، تعرض الدروز إلى الاضطهاد في العديد من الأحيان ، إذ لا يعتبر الدروز جزءا من الإسلام ، وبالتالي كفرت العديد من الفتاوى الدروز واعتبرتهم مرتدين عن دين الإسلام . من أبرز حملات الاضطهاد التي تعرض لها الدروز كانت من الظاهر لإعزاز دين الله خليفة الدولة الفاطمية ، حيث قام بحملة إبادة المجتمعات المحلية الدرزية والتي شملت تطهيرا عرقيا في كل من أنطاكية وحلب وشمال سوريا . جرت حملات أخرى مماثلة من قبل المماليك والعثمانيين ؛ وفي الآونة الأخيرة قام كل من تنظيم الدولة الإسلامية أو ما يعرف بداعش وتنظيم القاعدة بحملات تطهير ، في سوريا والدول المجاورة ، استهدفت المعتقدات والأقليات غير المسلمة . +question : بماذا يدينون ؟ +prompt : أجب عن السؤال التالي : بماذا يدينون ؟ الجواب هو +pred_answer : أنهم لا يدينون بشيء . +answer : بمذهب التوحيد ذو التعاليم الباطنية + +context : الدروز يسمون أنفسهم الموحدون هم عرقية دينية باطنية تدين بمذهب التوحيد ذو التعاليم الباطنية ؛ وتعود أصول المذهب الدرزي إلى الإسماعيلية ، إحدى المذاهب الشيعية ، كما ترجع جذور الدروز إلى غرب آسيا . مذهب التوحيد أو الدرزية هي ديانة توحيدية وإبراهيمية تستند إلى تعاليم أفلاطون ، وأرسطو ، وسقراط ، وأخناتون ، وحمزة بن علي بن أحمد والحاكم بأمر الله . تعتبر رسائل الحكمة من مصادر العقيدة الدرزية جنبا إلى جنب مع نصوص تكميلية مثل رسائل الهند . تتضمن عقيدة الدروز عناصر غنوصية ، وأفلاطونية محدثة ، وفيثاغورية ، وإسماعيلية ، ويهودية ، ومسيحية ، وهندوسية ، فضلا عن فلسفات ومعتقدات أخرى ، مما أدى إلى ابتكار لاهوت عرف بالسرية والتفسير الباطني للكتب الدينية وتسليط الضوء على دور العقل والصدق . يؤمن الدروز بالظهور الإلهي ، والتناسخ أو التقمص الذي يتلخص مفهومه في رجوع الروح إلى الحياة بجسد آخر ، وهي فكرة فلسفية ودينية مرتبطة بالجسد والروح والذات حسب المعتقدات الدرزية . لعبت الطائفة الدرزية دورا هاما في تشكيل تاريخ بلاد الشام ، واستمرت في لعب دور سياسي كبير في هذه المنطقة كأقلية عرقية ودينية ، تعرض الدروز إلى الاضطهاد في العديد من الأحيان ، إذ لا يعتبر الدروز جزءا من الإسلام ، وبالتالي كفرت العديد من الفتاوى الدروز واعتبرتهم مرتدين عن دين الإسلام . من أبرز حملات الاضطهاد التي تعرض لها الدروز كانت من الظاهر لإعزاز دين الله خليفة الدولة الفاطمية ، حيث قام بحملة إبادة المجتمعات المحلية الدرزية والتي شملت تطهيرا عرقيا في كل من أنطاكية وحلب وشمال سوريا . جرت حملات أخرى مماثلة من قبل المماليك والعثمانيين ؛ وفي الآونة الأخيرة قام كل من تنظيم الدولة الإسلامية أو ما يعرف بداعش وتنظيم القاعدة بحملات تطهير ، في سوريا والدول المجاورة ، استهدفت المعتقدات والأقليات غير المسلمة . +question : الى اى منطقة ترجع جذور الدروز ؟ +prompt : أجب عن السؤال التالي : الى اى منطقة ترجع جذور الدروز ؟ الجواب هو +pred_answer : لبنان وسوريا وفلسطين +answer : إلى غرب آسيا + +context : المذهب الدرزي هو واحد من الجماعات الدينية الكبرى في بلاد الشام ، مع حوالي 1 . 5 مليون نسمة . يتواجد الدروز في المقام الأول بكل من سوريا ، ولبنان ، وفلسطين ، إلى جانب مجتمعات محلية صغيرة من الدروز في الأردن وفي المهجر خاصة في فنزويلا والولايات المتحدة . تتواجد أقدم وأكبر مجتمعات الدروز في كل من جبل لبنان وجبل الدروز . تختلف العادات الاجتماعية لدى الدروز ، وتختلف بشكل ملحوظ عن تلك التي بين المسلمين أو المسيحيين . +question : اين تتواجد غالبية الدروز ؟ +prompt : أجب عن السؤال التالي : اين تتواجد غالبية الدروز ؟ الجواب هو +pred_answer : في جبل حرمون +answer : سوريا ولبنان وفلسطين + +context : المذهب الدرزي هو واحد من الجماعات الدينية الكبرى في بلاد الشام ، مع حوالي 1 . 5 مليون نسمة . يتواجد الدروز في المقام الأول بكل من سوريا ، ولبنان ، وفلسطين ، إلى جانب مجتمعات محلية صغيرة من الدروز في الأردن وفي المهجر خاصة في فنزويلا والولايات المتحدة . تتواجد أقدم وأكبر مجتمعات الدروز في كل من جبل لبنان وجبل الدروز . تختلف العادات الاجتماعية لدى الدروز ، وتختلف بشكل ملحوظ عن تلك التي بين المسلمين أو المسيحيين . +question : كم عدد الدروز ؟ +prompt : أجب عن السؤال التالي : كم عدد الدروز ؟ الجواب هو +pred_answer : ثلاثة ملايين ونصف مليون نسمة . +answer : حوالي 1 5 مليون نسمة + +context : المذهب الدرزي هو واحد من الجماعات الدينية الكبرى في بلاد الشام ، مع حوالي 1 . 5 مليون نسمة . يتواجد الدروز في المقام الأول بكل من سوريا ، ولبنان ، وفلسطين ، إلى جانب مجتمعات محلية صغيرة من الدروز في الأردن وفي المهجر خاصة في فنزويلا والولايات المتحدة . تتواجد أقدم وأكبر مجتمعات الدروز في كل من جبل لبنان وجبل الدروز . تختلف العادات الاجتماعية لدى الدروز ، وتختلف بشكل ملحوظ عن تلك التي بين المسلمين أو المسيحيين . +question : ايين تتواجد اكبر مجتمعات الدروز ؟ +prompt : أجب عن السؤال التالي : ايين تتواجد اكبر مجتمعات الدروز ؟ الجواب هو +pred_answer : في لبنان وسوريا وفلسطين . +answer : جبل لبنان وجبل الدروز + +context : يشير الدروز إلى أنفسهم باسم الموحدون نسبة إلى عقيدتهم الأساسية في " توحيد الله " أو بتسميتهم الشائعة " بني معروف " ويعتقد الباحثون أن هذا الاسم هو لقبيلة عربية اعتنقت الدرزية في بداياتها أو ربما هو لقب بمعنى أهل المعرفة والخير ، أما اسم " دروز " فأطلق عليهم نسبة إلى نشتكين الدرزي الذي يعتبرونه محرفا للحقائق ؛ ويكره الدروز هذا الاسم ويرفضونه ، بل يشيرون إلى أنه غير موجود في كتبهم المقدسة ولم يرد تاريخيا في المراجع التي تكلمت عنهم . +question : ما هى التسمية الشائعة للدروز ؟ +prompt : أجب عن السؤال التالي : ما هى التسمية الشائعة للدروز ؟ الجواب هو +pred_answer : أن الدروز +answer : بني معروف + +context : يشير الدروز إلى أنفسهم باسم الموحدون نسبة إلى عقيدتهم الأساسية في " توحيد الله " أو بتسميتهم الشائعة " بني معروف " ويعتقد الباحثون أن هذا الاسم هو لقبيلة عربية اعتنقت الدرزية في بداياتها أو ربما هو لقب بمعنى أهل المعرفة والخير ، أما اسم " دروز " فأطلق عليهم نسبة إلى نشتكين الدرزي الذي يعتبرونه محرفا للحقائق ؛ ويكره الدروز هذا الاسم ويرفضونه ، بل يشيرون إلى أنه غير موجود في كتبهم المقدسة ولم يرد تاريخيا في المراجع التي تكلمت عنهم . +question : ما نشأة اسم دروز ؟ +prompt : أجب عن السؤال التالي : ما نشأة اسم دروز ؟ الجواب هو +pred_answer : أن الدروز هم طائفة دينية +answer : نسبة إلى نشتكين الدرزي + +context : يشير الدروز إلى أنفسهم باسم الموحدون نسبة إلى عقيدتهم الأساسية في " توحيد الله " أو بتسميتهم الشائعة " بني معروف " ويعتقد الباحثون أن هذا الاسم هو لقبيلة عربية اعتنقت الدرزية في بداياتها أو ربما هو لقب بمعنى أهل المعرفة والخير ، أما اسم " دروز " فأطلق عليهم نسبة إلى نشتكين الدرزي الذي يعتبرونه محرفا للحقائق ؛ ويكره الدروز هذا الاسم ويرفضونه ، بل يشيرون إلى أنه غير موجود في كتبهم المقدسة ولم يرد تاريخيا في المراجع التي تكلمت عنهم . +question : لماذا يكره الدروز هذا الاسم ؟ +prompt : أجب عن السؤال التالي : لماذا يكره الدروز هذا الاسم ؟ الجواب هو +pred_answer : أن الدروز هم طائفة من المسلمين ، +answer : يعتبرونه محرفا للحقائق + +context : السرطان ( بالإنجليزية : Cancer ) هو مجموعة من الأمراض التي تتميز خلاياها بالعدائية Aggressive ( وهو النمو والانقسام الخلوي غير المحدود ) ، هذه الخلايا المنقسمة لها القدرة على غزو Invasion الأنسجة المجاورة وتدميرها ، أو الانتقال إلى أنسجة بعيدة في عملية نطلق عليها اسم النقلية . السرطان هو نمو الخلايا وانتشارها بشكل لا يمكن التحكم فيه . وبإمكان هذا المرض إصابة كل أعضاء الجسم تقريبا . وغالبا ما تغزو الخلايا المتنامية النسج التي تحيط بها ويمكنها أن تتسبب في نقائل تظهر في مواضع أخرى بعيدة عن الموضع المصاب . ويمكن توقي العديد من الأمراض السرطانية بتجنب التعرض لعوامل الاخطار الشائعة ، مثل دخان التبغ . كما يمكن علاج نسبة كبيرة من السرطانات عن طريق الجراحة أو المعالجة الإشعاعية أو المعالجة الكيميائية ، خصوصا إذا تم الكشف عنها في مراحل مبكرة . +question : ما هو السرطان +prompt : أجب عن السؤال التالي : ما هو السرطان الجواب هو +pred_answer : أن السرطان مرض يصيب الخلايا الحية في الجسم وهذا المرض +answer : هو نمو الخلايا وانتشارها بشكل لا يمكن التحكم فيه + +context : السرطان ( بالإنجليزية : Cancer ) هو مجموعة من الأمراض التي تتميز خلاياها بالعدائية Aggressive ( وهو النمو والانقسام الخلوي غير المحدود ) ، هذه الخلايا المنقسمة لها القدرة على غزو Invasion الأنسجة المجاورة وتدميرها ، أو الانتقال إلى أنسجة بعيدة في عملية نطلق عليها اسم النقلية . السرطان هو نمو الخلايا وانتشارها بشكل لا يمكن التحكم فيه . وبإمكان هذا المرض إصابة كل أعضاء الجسم تقريبا . وغالبا ما تغزو الخلايا المتنامية النسج التي تحيط بها ويمكنها أن تتسبب في نقائل تظهر في مواضع أخرى بعيدة عن الموضع المصاب . ويمكن توقي العديد من الأمراض السرطانية بتجنب التعرض لعوامل الاخطار الشائعة ، مثل دخان التبغ . كما يمكن علاج نسبة كبيرة من السرطانات عن طريق الجراحة أو المعالجة الإشعاعية أو المعالجة الكيميائية ، خصوصا إذا تم الكشف عنها في مراحل مبكرة . +question : وما خطورته ؟ +prompt : أجب عن السؤال التالي : وما خطورته ؟ الجواب هو +pred_answer : أن هذا النوع من السرطان منتشر بشكل كبير بين النساء +answer : وبإمكان هذا المرض إصابة كل أعضاء الجسم تقريبا + +context : السرطان ( بالإنجليزية : Cancer ) هو مجموعة من الأمراض التي تتميز خلاياها بالعدائية Aggressive ( وهو النمو والانقسام الخلوي غير المحدود ) ، هذه الخلايا المنقسمة لها القدرة على غزو Invasion الأنسجة المجاورة وتدميرها ، أو الانتقال إلى أنسجة بعيدة في عملية نطلق عليها اسم النقلية . السرطان هو نمو الخلايا وانتشارها بشكل لا يمكن التحكم فيه . وبإمكان هذا المرض إصابة كل أعضاء الجسم تقريبا . وغالبا ما تغزو الخلايا المتنامية النسج التي تحيط بها ويمكنها أن تتسبب في نقائل تظهر في مواضع أخرى بعيدة عن الموضع المصاب . ويمكن توقي العديد من الأمراض السرطانية بتجنب التعرض لعوامل الاخطار الشائعة ، مثل دخان التبغ . كما يمكن علاج نسبة كبيرة من السرطانات عن طريق الجراحة أو المعالجة الإشعاعية أو المعالجة الكيميائية ، خصوصا إذا تم الكشف عنها في مراحل مبكرة . +question : كيف يمكن علاجه ؟ +prompt : أجب عن السؤال التالي : كيف يمكن علاجه ؟ الجواب هو +pred_answer : أنه لا يوجد علاج سحري لهذا المرض ، ولكن +answer : عن طريق الجراحة أو المعالجة الإشعاعية أو المعالجة الكيميائية + +context : ويعرف السرطان بأنه هو عبارة عن نمو غير طبيعي لنسيج من أنسجة الجسم لذا فهو يصيب أنواعا مختلفة من الأعضاء وتختلف الأعراض عادة بإختلاف العضو أو النسيج المصاب وهناك أعراض عامة قد تظهر مع وجود المرض مثل فقدان الوزن وفقدان الشهية والارتفاع في درجة الحرارة إلا أن هذه الأعراض بالطبع لا تعني وجود مرض السرطان فهي قد تصاحب أي مرض آخر وأحيانا حتى الحالة النفسية قد تتسبب في أعراض مشابهة لذا لا يمكن تشخيص المرض إلا بعد الفحص الطبي الشامل وإجراء الفحوصات الطبية والتأكد من الأنسجة بأخذ عينة أو خزعة من الأنسجة لفحصها تحت المجهر . +question : ما هى الاعراض العامة اللتى تظهر مع المرض ؟ +prompt : أجب عن السؤال التالي : ما هى الاعراض العامة اللتى تظهر مع المرض ؟ الجواب هو +pred_answer : : 1 - ارتفاع فى درجة الحرارة . 2 - +answer : فقدان الوزن وفقدان الشهية والارتفاع في درجة الحرارة + +context : ويعرف السرطان بأنه هو عبارة عن نمو غير طبيعي لنسيج من أنسجة الجسم لذا فهو يصيب أنواعا مختلفة من الأعضاء وتختلف الأعراض عادة بإختلاف العضو أو النسيج المصاب وهناك أعراض عامة قد تظهر مع وجود المرض مثل فقدان الوزن وفقدان الشهية والارتفاع في درجة الحرارة إلا أن هذه الأعراض بالطبع لا تعني وجود مرض السرطان فهي قد تصاحب أي مرض آخر وأحيانا حتى الحالة النفسية قد تتسبب في أعراض مشابهة لذا لا يمكن تشخيص المرض إلا بعد الفحص الطبي الشامل وإجراء الفحوصات الطبية والتأكد من الأنسجة بأخذ عينة أو خزعة من الأنسجة لفحصها تحت المجهر . +question : كيف يمكن تشخيص المرض ؟ +prompt : أجب عن السؤال التالي : كيف يمكن تشخيص المرض ؟ الجواب هو +pred_answer : أن هناك العديد من الأعراض التي تدل على الإصابة بالمرض ، ومن هذه الأعراض ما يلي : +answer : الشامل وإجراء الفحوصات الطبية والتأكد من الأنسجة بأخذ عينة أو خزعة من الأنسجة لفحصها + +context : ويعرف السرطان بأنه هو عبارة عن نمو غير طبيعي لنسيج من أنسجة الجسم لذا فهو يصيب أنواعا مختلفة من الأعضاء وتختلف الأعراض عادة بإختلاف العضو أو النسيج المصاب وهناك أعراض عامة قد تظهر مع وجود المرض مثل فقدان الوزن وفقدان الشهية والارتفاع في درجة الحرارة إلا أن هذه الأعراض بالطبع لا تعني وجود مرض السرطان فهي قد تصاحب أي مرض آخر وأحيانا حتى الحالة النفسية قد تتسبب في أعراض مشابهة لذا لا يمكن تشخيص المرض إلا بعد الفحص الطبي الشامل وإجراء الفحوصات الطبية والتأكد من الأنسجة بأخذ عينة أو خزعة من الأنسجة لفحصها تحت المجهر . +question : بماذا يعرف السرطان ؟ +prompt : أجب عن السؤال التالي : بماذا يعرف السرطان ؟ الجواب هو +pred_answer : أنه مجموعة من الأمراض التي تصيب الخلايا والأنسجة والأعضاء في جسم الإنسان +answer : بأنه هو عبارة عن نمو غير طبيعي لنسيج من أنسجة الجسم + +context : يستطيع السرطان أن يصيب كل المراحل العمرية عند الإنسان حتى الأجنة ، ولكن تزيد مخاطر الإصابة به كلما تقدم الإنسان في العمر . ويسبب السرطان الوفاة بنسبة 13 % من جميع حالات الوفاة . ويشير مجتمع السرطان الأمريكي ACS إلى موت 7 . 6 مليون شخص مريض بالسرطان في العالم في عام 2007 . كما يصيب السرطان الإنسان فإن أشكال منه تصيب الحيوان والنبات على حد سواء . +question : ما هى نسب الوفاة بالسرطان ؟ +prompt : أجب عن السؤال التالي : ما هى نسب الوفاة بالسرطان ؟ الجواب هو +pred_answer : أن نسبة الوفيات من السرطان +answer : 13 من جميع حالات الوفاة + +context : يستطيع السرطان أن يصيب كل المراحل العمرية عند الإنسان حتى الأجنة ، ولكن تزيد مخاطر الإصابة به كلما تقدم الإنسان في العمر . ويسبب السرطان الوفاة بنسبة 13 % من جميع حالات الوفاة . ويشير مجتمع السرطان الأمريكي ACS إلى موت 7 . 6 مليون شخص مريض بالسرطان في العالم في عام 2007 . كما يصيب السرطان الإنسان فإن أشكال منه تصيب الحيوان والنبات على حد سواء . +question : كم عد الوفيات بالسرطان فى العالم عام 2007 ؟ +prompt : أجب عن السؤال التالي : كم عد الوفيات بالسرطان فى العالم عام 2007 ؟ الجواب هو +pred_answer : أن عدد الوفيات +answer : 7 6 مليون + +context : يستطيع السرطان أن يصيب كل المراحل العمرية عند الإنسان حتى الأجنة ، ولكن تزيد مخاطر الإصابة به كلما تقدم الإنسان في العمر . ويسبب السرطان الوفاة بنسبة 13 % من جميع حالات الوفاة . ويشير مجتمع السرطان الأمريكي ACS إلى موت 7 . 6 مليون شخص مريض بالسرطان في العالم في عام 2007 . كما يصيب السرطان الإنسان فإن أشكال منه تصيب الحيوان والنبات على حد سواء . +question : ما سبب خطورة السرطان ؟ +prompt : أجب عن السؤال التالي : ما سبب خطورة السرطان ؟ الجواب هو +pred_answer : أن السرطانات التي تصيب الإنسان هي السبب الأول للوفاة على مستوى العالم ، +answer : يستطيع السرطان أن يصيب كل المراحل العمرية عند الإنسان حتى الأجنة ولكن تزيد مخاطر + +context : محمد بن الحسن ( 21 أغسطس 1963 م ) ملك المغرب . هو الملك الثالث والعشرون لسلالة العلويين الهاشميين . وتمت البيعة له ملكا يوم الجمعة 9 ربيع الآخر سنة 1420 ه 23 يوليو 1999 م إثر وفاة والده الملك الحسن الثاني . محمد بن الحسن الثاني بن محمد بن يوسف بن الحسن بن محمد بن عبد الرحمن بن هشام بن محمد بن عبد الله الخطيب بن إسماعيل بن الشريف بن علي بن محمد بن علي بن يوسف بن علي بن الحسن بن محمد بن الحسن بن قاسم بن محمد بن أبي القاسم بن محمد بن الحسن بن عبد الله بن محمد بن عرفة بن الحسن بن أبي بكر بن علي بن الحسن بن أحمد بن إسماعيل بن القاسم بن محمد النفس الزكية بن عبد الله الكامل بنالحسن المثنى بن الحسن بن علي بن أبي طالب بن عبدالمطلب بن هاشم . +question : من هو ملك المغرب ؟ +prompt : أجب عن السؤال التالي : من هو ملك المغرب ؟ الجواب هو +pred_answer : الملك محمد السادس +answer : محمد بن الحسن + +context : محمد بن الحسن ( 21 أغسطس 1963 م ) ملك المغرب . هو الملك الثالث والعشرون لسلالة العلويين الهاشميين . وتمت البيعة له ملكا يوم الجمعة 9 ربيع الآخر سنة 1420 ه 23 يوليو 1999 م إثر وفاة والده الملك الحسن الثاني . محمد بن الحسن الثاني بن محمد بن يوسف بن الحسن بن محمد بن عبد الرحمن بن هشام بن محمد بن عبد الله الخطيب بن إسماعيل بن الشريف بن علي بن محمد بن علي بن يوسف بن علي بن الحسن بن محمد بن الحسن بن قاسم بن محمد بن أبي القاسم بن محمد بن الحسن بن عبد الله بن محمد بن عرفة بن الحسن بن أبي بكر بن علي بن الحسن بن أحمد بن إسماعيل بن القاسم بن محمد النفس الزكية بن عبد الله الكامل بنالحسن المثنى بن الحسن بن علي بن أبي طالب بن عبدالمطلب بن هاشم . +question : من هو الملك الثالث و العشرون لسلالة العلويين الهاشميين ؟ +prompt : أجب عن السؤال التالي : من هو الملك الثالث و العشرون لسلالة العلويين الهاشميين ؟ الجواب هو +pred_answer : علي بن أبي +answer : محمد بن الحسن + +context : محمد بن الحسن ( 21 أغسطس 1963 م ) ملك المغرب . هو الملك الثالث والعشرون لسلالة العلويين الهاشميين . وتمت البيعة له ملكا يوم الجمعة 9 ربيع الآخر سنة 1420 ه 23 يوليو 1999 م إثر وفاة والده الملك الحسن الثاني . محمد بن الحسن الثاني بن محمد بن يوسف بن الحسن بن محمد بن عبد الرحمن بن هشام بن محمد بن عبد الله الخطيب بن إسماعيل بن الشريف بن علي بن محمد بن علي بن يوسف بن علي بن الحسن بن محمد بن الحسن بن قاسم بن محمد بن أبي القاسم بن محمد بن الحسن بن عبد الله بن محمد بن عرفة بن الحسن بن أبي بكر بن علي بن الحسن بن أحمد بن إسماعيل بن القاسم بن محمد النفس الزكية بن عبد الله الكامل بنالحسن المثنى بن الحسن بن علي بن أبي طالب بن عبدالمطلب بن هاشم . +question : في اي عام تمت بيعة ملك المغرب ؟ +prompt : أجب عن السؤال التالي : في اي عام تمت بيعة ملك المغرب ؟ الجواب هو في عام +pred_answer : 19 ، +answer : 1999 + +context : وكانت أول مهمة رسمية قام بها إلى الخارج بتاريخ 6 أبريل 1974 ، وذلك لتمثيل والده في القداس الديني بكاتدرائية " نوتردام " بباريس ، إثر وفاة الرئيس الفرنسي الراحل جورج بومبيدو . كما مثل والده في تشييع جنازة إمبراطور اليابان هيرو هيتو ، يوم 23 فبراير 1989 . +question : متى كانت اول مهمة رسمية قام بها ملك المغرب الى الخرج ؟ +prompt : أجب عن السؤال التالي : متى كانت اول مهمة رسمية قام بها ملك المغرب الى الخرج ؟ الجواب هو +pred_answer : ان الملك محمد +answer : 6 أبريل 1974 + +context : وكانت أول مهمة رسمية قام بها إلى الخارج بتاريخ 6 أبريل 1974 ، وذلك لتمثيل والده في القداس الديني بكاتدرائية " نوتردام " بباريس ، إثر وفاة الرئيس الفرنسي الراحل جورج بومبيدو . كما مثل والده في تشييع جنازة إمبراطور اليابان هيرو هيتو ، يوم 23 فبراير 1989 . +question : متى شيعت جنازة إمبراطور هيرو هيتو ؟ +prompt : أجب عن السؤال التالي : متى شيعت جنازة إمبراطور هيرو هيتو ؟ الجواب هو +pred_answer : أن الإمبراطور مات في +answer : يوم 23 فبراير 1989 + +context : وكانت أول مهمة رسمية قام بها إلى الخارج بتاريخ 6 أبريل 1974 ، وذلك لتمثيل والده في القداس الديني بكاتدرائية " نوتردام " بباريس ، إثر وفاة الرئيس الفرنسي الراحل جورج بومبيدو . كما مثل والده في تشييع جنازة إمبراطور اليابان هيرو هيتو ، يوم 23 فبراير 1989 . +question : لماذا قام ملك المغرب بالمهمة الرسمية بالخارج ؟ +prompt : أجب عن السؤال التالي : لماذا قام ملك المغرب بالمهمة الرسمية بالخارج ؟ الجواب هو +pred_answer : أن الملك محمد السادس لم يكن يرغب في القيام بمهمة رسمية خارج البلاد ، لكنه اضطر إلى ذلك +answer : لتمثيل والده في القداس الديني بكاتدرائية نوتردام بباريس إثر وفاة الرئيس الفرنسي الراحل جورج + +context : قام بزيارة لعدد من الدول الإفريقية ، من 23 إلى 30 يوليوز 1980 ، حيث التقى برؤساء السنغال السيد ليوبولد سيدار سنغور ، وغينيا السيد أحمد سيكوتوري ، وكوت ديفوار السيد هوفويت بوانيي ، والكاميرون السيد أحمدو أحيجو ، ونيجيريا السيد شيهو شاغاري ، وسلمهم رسائل شخصية من والده الملك الحسن الثاني . +question : في اي عام قام ملك المغرب بزيارة الدول الإفريقية ؟ +prompt : أجب عن السؤال التالي : في اي عام قام ملك المغرب بزيارة الدول الإفريقية ؟ الجواب هو في عام +pred_answer : 1994 ، +answer : 1980 + +context : قام بزيارة لعدد من الدول الإفريقية ، من 23 إلى 30 يوليوز 1980 ، حيث التقى برؤساء السنغال السيد ليوبولد سيدار سنغور ، وغينيا السيد أحمد سيكوتوري ، وكوت ديفوار السيد هوفويت بوانيي ، والكاميرون السيد أحمدو أحيجو ، ونيجيريا السيد شيهو شاغاري ، وسلمهم رسائل شخصية من والده الملك الحسن الثاني . +question : لماذا قام ملك المغرب بزيارة عدد من الدول الإفريقية سنة 1980 ؟ +prompt : أجب عن السؤال التالي : لماذا قام ملك المغرب بزيارة عدد من الدول الإفريقية سنة 1980 ؟ الجواب هو +pred_answer : أن الملك الحسن الثاني ، رحمه الله ، كان قد +answer : وسلمهم رسائل شخصية من والده الملك الحسن الثاني + +context : قام بزيارة لعدد من الدول الإفريقية ، من 23 إلى 30 يوليوز 1980 ، حيث التقى برؤساء السنغال السيد ليوبولد سيدار سنغور ، وغينيا السيد أحمد سيكوتوري ، وكوت ديفوار السيد هوفويت بوانيي ، والكاميرون السيد أحمدو أحيجو ، ونيجيريا السيد شيهو شاغاري ، وسلمهم رسائل شخصية من والده الملك الحسن الثاني . +question : اذكر دولة إلتقى برئيسها ملك المغرب إثر زيارته سنة 1980 ؟ +prompt : أجب عن السؤال التالي : اذكر دولة إلتقى برئيسها ملك المغرب إثر زيارته سنة 1980 ؟ الجواب هو +pred_answer : المملكة المغربية . +answer : السنغال + +context : أبو الطيب المتنبي ( 303 ه - 354 ه ) ( 915 م - 965 م ) هو أحمد بن الحسين بن الحسن بن عبد الصمد الجعفي أبو الطيب الكندي الكوفي المولد ، نسب إلى قبيلة كندة نتيجة لولادته بحي تلك القبيلة في الكوفة لا لأنه منهم . وكان المتنبي صاحب كبرياء وشجاعة وطموح ومحب للمغامرات ، وكان في شعره يعتز بعروبته ، ويفتخر بنفسه ، وأفضل شعره في الحكمة وفلسفة الحياة ووصف المعارك ، إذ جاء بصياغة قوية محكمة . وكان شاعرا مبدعا عملاقا غزير الإنتاج يعد بحق مفخرة للأدب العربي ، فهو صاحب الأمثال السائرة والحكم البالغة والمعاني المبتكرة . وجد الطريق أمامه أثناء تنقله مهيئا لموهبته الشعرية الفائقة لدى الأمراء والحكام ، إذا تدور معظم قصائده حول مدحهم . لكن شعره لا يقوم على التكلف والصنعة ، لتفجر أحاسيسه وامتلاكه ناصية اللغة والبيان ، مما أضفى عليه لونا من الجمال والعذوبة . ترك تراثا عظيما من الشعر القوي الواضح ، يضم 326 قصيدة ، تمثل عنوانا لسيرة حياته ، صور فيها الحياة في القرن الرابع الهجري أوضح تصوير ، ويستدل منها كيف جرت الحكمة على لسانه ، لاسيما في قصائده الأخيرة التي بدا فيها وكأنه يودع الدنيا عندما قال : أبلى الهوى بدني . +question : في اي عام ولد أبو الطيب المتنبي ؟ +prompt : أجب عن السؤال التالي : في اي عام ولد أبو الطيب المتنبي ؟ الجواب هو في عام +pred_answer : 354 ه +answer : 915 + +context : أبو الطيب المتنبي ( 303 ه - 354 ه ) ( 915 م - 965 م ) هو أحمد بن الحسين بن الحسن بن عبد الصمد الجعفي أبو الطيب الكندي الكوفي المولد ، نسب إلى قبيلة كندة نتيجة لولادته بحي تلك القبيلة في الكوفة لا لأنه منهم . وكان المتنبي صاحب كبرياء وشجاعة وطموح ومحب للمغامرات ، وكان في شعره يعتز بعروبته ، ويفتخر بنفسه ، وأفضل شعره في الحكمة وفلسفة الحياة ووصف المعارك ، إذ جاء بصياغة قوية محكمة . وكان شاعرا مبدعا عملاقا غزير الإنتاج يعد بحق مفخرة للأدب العربي ، فهو صاحب الأمثال السائرة والحكم البالغة والمعاني المبتكرة . وجد الطريق أمامه أثناء تنقله مهيئا لموهبته الشعرية الفائقة لدى الأمراء والحكام ، إذا تدور معظم قصائده حول مدحهم . لكن شعره لا يقوم على التكلف والصنعة ، لتفجر أحاسيسه وامتلاكه ناصية اللغة والبيان ، مما أضفى عليه لونا من الجمال والعذوبة . ترك تراثا عظيما من الشعر القوي الواضح ، يضم 326 قصيدة ، تمثل عنوانا لسيرة حياته ، صور فيها الحياة في القرن الرابع الهجري أوضح تصوير ، ويستدل منها كيف جرت الحكمة على لسانه ، لاسيما في قصائده الأخيرة التي بدا فيها وكأنه يودع الدنيا عندما قال : أبلى الهوى بدني . +question : في اي عام توفي أبو الطيب المتنبي ؟ +prompt : أجب عن السؤال التالي : في اي عام توفي أبو الطيب المتنبي ؟ الجواب هو +pred_answer : : سنة 354 ه . +answer : 965 م + +context : أبو الطيب المتنبي ( 303 ه - 354 ه ) ( 915 م - 965 م ) هو أحمد بن الحسين بن الحسن بن عبد الصمد الجعفي أبو الطيب الكندي الكوفي المولد ، نسب إلى قبيلة كندة نتيجة لولادته بحي تلك القبيلة في الكوفة لا لأنه منهم . وكان المتنبي صاحب كبرياء وشجاعة وطموح ومحب للمغامرات ، وكان في شعره يعتز بعروبته ، ويفتخر بنفسه ، وأفضل شعره في الحكمة وفلسفة الحياة ووصف المعارك ، إذ جاء بصياغة قوية محكمة . وكان شاعرا مبدعا عملاقا غزير الإنتاج يعد بحق مفخرة للأدب العربي ، فهو صاحب الأمثال السائرة والحكم البالغة والمعاني المبتكرة . وجد الطريق أمامه أثناء تنقله مهيئا لموهبته الشعرية الفائقة لدى الأمراء والحكام ، إذا تدور معظم قصائده حول مدحهم . لكن شعره لا يقوم على التكلف والصنعة ، لتفجر أحاسيسه وامتلاكه ناصية اللغة والبيان ، مما أضفى عليه لونا من الجمال والعذوبة . ترك تراثا عظيما من الشعر القوي الواضح ، يضم 326 قصيدة ، تمثل عنوانا لسيرة حياته ، صور فيها الحياة في القرن الرابع الهجري أوضح تصوير ، ويستدل منها كيف جرت الحكمة على لسانه ، لاسيما في قصائده الأخيرة التي بدا فيها وكأنه يودع الدنيا عندما قال : أبلى الهوى بدني . +question : ما هو عدد قصائد أبو الطيب المتنبي ؟ +prompt : أجب عن السؤال التالي : ما هو عدد قصائد أبو الطيب المتنبي ؟ الجواب هو +pred_answer : أربعة عشر ألف +answer : 326 قصيدة + +context : شهدت الفترة التي نشأ فيها أبو الطيب تفكك الدولة العباسية وتناثر الدويلات الإسلامية التي قامت على أنقاضها . فقد كانت فترة نضج حضاري وتصدع سياسي وتوتر وصراع عاشها العرب والمسلمون . فالخلافة في بغداد انحسرت هيبتها والسلطان الفعلي في أيدي الوزراء وقادة الجيش ومعظمهم من غير العرب . ثم ظهرت الدويلات والإمارات المتصارعة في بلاد الشام ، وتعرضت الحدود لغزوات الروم والصراع المستمر على الثغور الإسلامية ، ثم ظهرت الحركات الدموية في العراق كحركة القرامطة وهجماتهم على الكوفة . لقد كان لكل وزير ولكل أمير في الكيانات السياسية المتنافسة مجلس يجمع فيه الشعراء والعلماء يتخذ منهم وسيلة دعاية وتفاخر ووسيلة صلة بينه وبين الحكام والمجتمع ، فمن انتظم في هذا المجلس أو ذاك من الشعراء أو العلماء يعني اتفق وإياهم على إكبار هذا الأمير الذي يدير هذا المجلس وذاك الوزير الذي يشرف على ذاك . والشاعر الذي يختلف مع الوزير في بغداد مثلا يرتحل إلى غيره فإذا كان شاعرا معروفا استقبله المقصود الجديد ، وأكبره لينافس به خصمه أو ليفخر بصوته . في هذا العالم المضطرب كانت نشأة أبي الطيب ، وعى بذكائه الفطري وطاقته المتفتحة حقيقة ما يجري حوله ، فأخذ بأسباب الثقافة مستغلا شغفه في القراءة والحفظ ، فكان له شأن في مستقبل الأيام أثمر عن عبقرية في الشعر العربي . كان في هذه الفترة يبحث عن شيء يلح عليه في ذهنه ، أعلن عنه في شعره تلميحا وتصريحا حتى أشفق عليه بعض أصدقائه وحذره من مغبة أمره ، حذره أبو عبد الله معاذ بن إسماعيل في دهوك فلم يستمع له وإنما أجابه : أبا عبد الإله معاذ أني . إلى أن انتهى به الأمر إلى السجن . +question : بماذا تتميز الفترة التي نشأ فيها أبو الطيب المتنبي ؟ +prompt : أجب عن السؤال التالي : بماذا تتميز الفترة التي نشأ فيها أبو الطيب المتنبي ؟ الجواب هو +pred_answer : أنه ولد في بادية السماوة ( جنوب العراق ) سنة 303 ه +answer : كانت فترة نضج حضاري وتصدع سياسي وتوتر وصراع عاشها العرب والمسلمون + +context : شهدت الفترة التي نشأ فيها أبو الطيب تفكك الدولة العباسية وتناثر الدويلات الإسلامية التي قامت على أنقاضها . فقد كانت فترة نضج حضاري وتصدع سياسي وتوتر وصراع عاشها العرب والمسلمون . فالخلافة في بغداد انحسرت هيبتها والسلطان الفعلي في أيدي الوزراء وقادة الجيش ومعظمهم من غير العرب . ثم ظهرت الدويلات والإمارات المتصارعة في بلاد الشام ، وتعرضت الحدود لغزوات الروم والصراع المستمر على الثغور الإسلامية ، ثم ظهرت الحركات الدموية في العراق كحركة القرامطة وهجماتهم على الكوفة . لقد كان لكل وزير ولكل أمير في الكيانات السياسية المتنافسة مجلس يجمع فيه الشعراء والعلماء يتخذ منهم وسيلة دعاية وتفاخر ووسيلة صلة بينه وبين الحكام والمجتمع ، فمن انتظم في هذا المجلس أو ذاك من الشعراء أو العلماء يعني اتفق وإياهم على إكبار هذا الأمير الذي يدير هذا المجلس وذاك الوزير الذي يشرف على ذاك . والشاعر الذي يختلف مع الوزير في بغداد مثلا يرتحل إلى غيره فإذا كان شاعرا معروفا استقبله المقصود الجديد ، وأكبره لينافس به خصمه أو ليفخر بصوته . في هذا العالم المضطرب كانت نشأة أبي الطيب ، وعى بذكائه الفطري وطاقته المتفتحة حقيقة ما يجري حوله ، فأخذ بأسباب الثقافة مستغلا شغفه في القراءة والحفظ ، فكان له شأن في مستقبل الأيام أثمر عن عبقرية في الشعر العربي . كان في هذه الفترة يبحث عن شيء يلح عليه في ذهنه ، أعلن عنه في شعره تلميحا وتصريحا حتى أشفق عليه بعض أصدقائه وحذره من مغبة أمره ، حذره أبو عبد الله معاذ بن إسماعيل في دهوك فلم يستمع له وإنما أجابه : أبا عبد الإله معاذ أني . إلى أن انتهى به الأمر إلى السجن . +question : أين ظهرت الحركات الدموية ؟ +prompt : أجب عن السؤال التالي : أين ظهرت الحركات الدموية ؟ الجواب هو +pred_answer : في العراق +answer : العراق + +context : ظل باحثا عن أرضه وفارسه غير مستقر عند أمير ولا في مدينة حتى حط رحاله في أنطاكية حيث أبو العشائر ابن عم سيف الدولة سنة 336 ه ، واتصل بسيف الدولة ابن حمدان ، أمير وصاحب حلب ، سنة 337 ه وكانا في سن متقاربة ، فوفد عليه المتنبي وعرض عليه أن يمدحه بشعره على ألا يقف بين يديه لينشد قصيدته كما كان يفعل الشعراء فأجاز له سيف الدولة أن يفعل هذا وأصبح المتنبي من شعراء بلاط سيف الدولة في حلب ، وأجازه سيف الدولة على قصائده بالجوائز الكثيرة وقربه إليه فكان من أخلص خلصائه وكان بينهما مودة واحترام ، وخاض معه المعارك ضد الروم ، وتعد سيفياته أصفى شعره . غير أن المتنبي حافظ على عادته في إفراد الجزء الأكبر من قصيدته لنفسه وتقديمه إياها على ممدوحه ، فكان أن حدثت بينه وبين سيف الدولة فجوة وسعها كارهوه وكانوا كثرا في بلاط سيف الدولة . +question : أين حط أبو الطيب المتنبي رحاله ؟ +prompt : أجب عن السؤال التالي : أين حط أبو الطيب المتنبي رحاله ؟ الجواب هو +pred_answer : في العراق ، +answer : أنطاكية + +context : ظل باحثا عن أرضه وفارسه غير مستقر عند أمير ولا في مدينة حتى حط رحاله في أنطاكية حيث أبو العشائر ابن عم سيف الدولة سنة 336 ه ، واتصل بسيف الدولة ابن حمدان ، أمير وصاحب حلب ، سنة 337 ه وكانا في سن متقاربة ، فوفد عليه المتنبي وعرض عليه أن يمدحه بشعره على ألا يقف بين يديه لينشد قصيدته كما كان يفعل الشعراء فأجاز له سيف الدولة أن يفعل هذا وأصبح المتنبي من شعراء بلاط سيف الدولة في حلب ، وأجازه سيف الدولة على قصائده بالجوائز الكثيرة وقربه إليه فكان من أخلص خلصائه وكان بينهما مودة واحترام ، وخاض معه المعارك ضد الروم ، وتعد سيفياته أصفى شعره . غير أن المتنبي حافظ على عادته في إفراد الجزء الأكبر من قصيدته لنفسه وتقديمه إياها على ممدوحه ، فكان أن حدثت بينه وبين سيف الدولة فجوة وسعها كارهوه وكانوا كثرا في بلاط سيف الدولة . +question : في أي سنة حط أبو الطيب المتنبي رحاله في أنطاكية ؟ +prompt : أجب عن السؤال التالي : في أي سنة حط أبو الطيب المتنبي رحاله في أنطاكية ؟ الجواب هو +pred_answer : أن أبا الطيب +answer : 336 ه + +context : ظل باحثا عن أرضه وفارسه غير مستقر عند أمير ولا في مدينة حتى حط رحاله في أنطاكية حيث أبو العشائر ابن عم سيف الدولة سنة 336 ه ، واتصل بسيف الدولة ابن حمدان ، أمير وصاحب حلب ، سنة 337 ه وكانا في سن متقاربة ، فوفد عليه المتنبي وعرض عليه أن يمدحه بشعره على ألا يقف بين يديه لينشد قصيدته كما كان يفعل الشعراء فأجاز له سيف الدولة أن يفعل هذا وأصبح المتنبي من شعراء بلاط سيف الدولة في حلب ، وأجازه سيف الدولة على قصائده بالجوائز الكثيرة وقربه إليه فكان من أخلص خلصائه وكان بينهما مودة واحترام ، وخاض معه المعارك ضد الروم ، وتعد سيفياته أصفى شعره . غير أن المتنبي حافظ على عادته في إفراد الجزء الأكبر من قصيدته لنفسه وتقديمه إياها على ممدوحه ، فكان أن حدثت بينه وبين سيف الدولة فجوة وسعها كارهوه وكانوا كثرا في بلاط سيف الدولة . +question : من هو أمير و صاحب حلب سنة 337 ه ؟ +prompt : أجب عن السؤال التالي : من هو أمير و صاحب حلب سنة 337 ه ؟ الجواب هو +pred_answer : سيف الدولة +answer : ابن حمدان + +context : تعد حادثة الإسراء والمعراج في العقيدة الإسلامية حدثا ضخما من أحداث الدعوة الإسلامية ، سبقته البعثة وجاء قبل الهجرة . بعد أن فقد النبي محمد زوجته خديجة و عمه أبو طالب الذان كانا يؤانسانه ويؤازرانه ، ضاقت الأرض به نظرا لما لاقاه من تكذيب و رد من قبل المشركين ، وبعد وفاة عمه توفيت زوجته خديجة التي كانت نعم الزوج في نفس السنة ، فسميت تلك السنة بعام الحزن ، و في سبيل الدعوة ذهب الرسول ( ص ) إلى الطائف وحيدا يدعوهم إلى الإسلام و التوحيد لكنهم طردوه و سلطوا عليه صبيانهم و غلمانهم يرمونه بالحجارة فآذوه كثيرا و هنا دعا النبي ( ص ) دعاءه المشهور شاكيا إلى ربه : " اللهم إلى من تكلني . . . " فيرسل الله إليه جبريل عليه السلام مع ملك الجبال و يقول له جبريل لو شئت نطبق عليهم الجبال فيقول الرسول الرحيم ( ص ) " لا - لعل الله يخرج من أصلابهم من يوحد الله " فكرمه الله تعالى بقدرة إلهية وآنسه بحادثة الإسراء والمعراج ، فأي تكريم ومؤانسة أشد وأعظم من تكريم كهذا إذ أتى جبريل عليه السلام ليصحب الرسول عليه الصلاة والسلام في رحلة الإسراء والمعراج ، وورد في سورة الإسراء ( سبحان الذي أسرى بعبده ليلا من المسجد الحرام إلى المسجد الأقصى الذي باركنا حوله لنريه من آياتنا إنه هو السميع البصير ) . +question : ما هو إسم عم الرسول محمد ( ص ) ؟ +prompt : أجب عن السؤال التالي : ما هو إسم عم الرسول محمد ( ص ) ؟ الجواب هو +pred_answer : : أبو +answer : أبو طالب + +context : تعد حادثة الإسراء والمعراج في العقيدة الإسلامية حدثا ضخما من أحداث الدعوة الإسلامية ، سبقته البعثة وجاء قبل الهجرة . بعد أن فقد النبي محمد زوجته خديجة و عمه أبو طالب الذان كانا يؤانسانه ويؤازرانه ، ضاقت الأرض به نظرا لما لاقاه من تكذيب و رد من قبل المشركين ، وبعد وفاة عمه توفيت زوجته خديجة التي كانت نعم الزوج في نفس السنة ، فسميت تلك السنة بعام الحزن ، و في سبيل الدعوة ذهب الرسول ( ص ) إلى الطائف وحيدا يدعوهم إلى الإسلام و التوحيد لكنهم طردوه و سلطوا عليه صبيانهم و غلمانهم يرمونه بالحجارة فآذوه كثيرا و هنا دعا النبي ( ص ) دعاءه المشهور شاكيا إلى ربه : " اللهم إلى من تكلني . . . " فيرسل الله إليه جبريل عليه السلام مع ملك الجبال و يقول له جبريل لو شئت نطبق عليهم الجبال فيقول الرسول الرحيم ( ص ) " لا - لعل الله يخرج من أصلابهم من يوحد الله " فكرمه الله تعالى بقدرة إلهية وآنسه بحادثة الإسراء والمعراج ، فأي تكريم ومؤانسة أشد وأعظم من تكريم كهذا إذ أتى جبريل عليه السلام ليصحب الرسول عليه الصلاة والسلام في رحلة الإسراء والمعراج ، وورد في سورة الإسراء ( سبحان الذي أسرى بعبده ليلا من المسجد الحرام إلى المسجد الأقصى الذي باركنا حوله لنريه من آياتنا إنه هو السميع البصير ) . +question : لماذا ذهب الرسول ( ص ) إلى الطائف ؟ +prompt : أجب عن السؤال التالي : لماذا ذهب الرسول ( ص ) إلى الطائف ؟ الجواب هو +pred_answer : أن الله سبحانه وتعالى أراد أن يختبر +answer : يدعوهم إلى الإسلام و التوحيد + +context : تعد حادثة الإسراء والمعراج في العقيدة الإسلامية حدثا ضخما من أحداث الدعوة الإسلامية ، سبقته البعثة وجاء قبل الهجرة . بعد أن فقد النبي محمد زوجته خديجة و عمه أبو طالب الذان كانا يؤانسانه ويؤازرانه ، ضاقت الأرض به نظرا لما لاقاه من تكذيب و رد من قبل المشركين ، وبعد وفاة عمه توفيت زوجته خديجة التي كانت نعم الزوج في نفس السنة ، فسميت تلك السنة بعام الحزن ، و في سبيل الدعوة ذهب الرسول ( ص ) إلى الطائف وحيدا يدعوهم إلى الإسلام و التوحيد لكنهم طردوه و سلطوا عليه صبيانهم و غلمانهم يرمونه بالحجارة فآذوه كثيرا و هنا دعا النبي ( ص ) دعاءه المشهور شاكيا إلى ربه : " اللهم إلى من تكلني . . . " فيرسل الله إليه جبريل عليه السلام مع ملك الجبال و يقول له جبريل لو شئت نطبق عليهم الجبال فيقول الرسول الرحيم ( ص ) " لا - لعل الله يخرج من أصلابهم من يوحد الله " فكرمه الله تعالى بقدرة إلهية وآنسه بحادثة الإسراء والمعراج ، فأي تكريم ومؤانسة أشد وأعظم من تكريم كهذا إذ أتى جبريل عليه السلام ليصحب الرسول عليه الصلاة والسلام في رحلة الإسراء والمعراج ، وورد في سورة الإسراء ( سبحان الذي أسرى بعبده ليلا من المسجد الحرام إلى المسجد الأقصى الذي باركنا حوله لنريه من آياتنا إنه هو السميع البصير ) . +question : من أرسل الله الى الرسول بعد دعائه ؟ +prompt : أجب عن السؤال التالي : من أرسل الله الى الرسول بعد دعائه ؟ الجواب هو +pred_answer : : جبريل عليه السلام .ومن +answer : جبريل عليه السلام مع ملك الجبال + +context : فبينما كان رسول الله صلى الله عليه وسلم نائمآ في الحجر أتاه جبريل عليه السلام ، فهمزه بقدمه ، فجلس رسولنا الكريم فلم ير شيئا ، ثم عاد إلى مضجعه ، فأتاه مرة ثانية فهمزه بقدمه ، فجلس ولم ير شيئا ، ثم عاد مرة أخرى إلى مضجعه ، فأتاه مرة ثالثة فهمزه بقدمه ، فجلس رسولنا الكريم ، وأخذ جبريل بعضده ، وحينها قام رسول الله معه ، وخرج به جبريل إلى باب المسجد ، فإذا رسول الله يرى دابة بيضاء بين البغل والحمار ، في فخذيها جناحان تحفز بهما رجليه ، ثم وضع جبريل يده في منتهى طرف الرسول فحمله عليه ، وخرج معه . ومضى رسول الله صلى الله عليه وسلم بصحبة جبريل عليه السلام حتى انتهى به المطاف إلى بيت المقدس ، فوجد فيه الأنبياء إبراهيم وموسى وعيسى في نفر من الأنبياء ، فأمهم رسول الله في صلاته ، ثم أتى جبريل رسول الله بوعائين ، في أحدهما خمر ، وفي الآخر . قال : خذ . فأخذ رسول الله صلى الله عليه وسلم إناء اللبن وشرب منه ، وترك إناء الخمر . فقال له جبريل : هديت للفطرة ، وهديت أمتك يا محمد ، وحرمت عليكم الخمر . ثم عاد رسول الله صلى الله عليه وسلم إلى مكة . +question : ماذا رأى الرسول حين أخرجهجبريل إلى باب المسجد ؟ +prompt : أجب عن السؤال التالي : ماذا رأى الرسول حين أخرجهجبريل إلى باب المسجد ؟ الجواب هو +pred_answer : أن جبريل عليه السلام قال للرسول صلى الله +answer : دابة بيضاء بين البغل والحمار + +context : فبينما كان رسول الله صلى الله عليه وسلم نائمآ في الحجر أتاه جبريل عليه السلام ، فهمزه بقدمه ، فجلس رسولنا الكريم فلم ير شيئا ، ثم عاد إلى مضجعه ، فأتاه مرة ثانية فهمزه بقدمه ، فجلس ولم ير شيئا ، ثم عاد مرة أخرى إلى مضجعه ، فأتاه مرة ثالثة فهمزه بقدمه ، فجلس رسولنا الكريم ، وأخذ جبريل بعضده ، وحينها قام رسول الله معه ، وخرج به جبريل إلى باب المسجد ، فإذا رسول الله يرى دابة بيضاء بين البغل والحمار ، في فخذيها جناحان تحفز بهما رجليه ، ثم وضع جبريل يده في منتهى طرف الرسول فحمله عليه ، وخرج معه . ومضى رسول الله صلى الله عليه وسلم بصحبة جبريل عليه السلام حتى انتهى به المطاف إلى بيت المقدس ، فوجد فيه الأنبياء إبراهيم وموسى وعيسى في نفر من الأنبياء ، فأمهم رسول الله في صلاته ، ثم أتى جبريل رسول الله بوعائين ، في أحدهما خمر ، وفي الآخر . قال : خذ . فأخذ رسول الله صلى الله عليه وسلم إناء اللبن وشرب منه ، وترك إناء الخمر . فقال له جبريل : هديت للفطرة ، وهديت أمتك يا محمد ، وحرمت عليكم الخمر . ثم عاد رسول الله صلى الله عليه وسلم إلى مكة . +question : ماذا وجد الرسول في بيت المقدس ؟ +prompt : أجب عن السؤال التالي : ماذا وجد الرسول في بيت المقدس ؟ الجواب هو +pred_answer : أن النبي صلى الله عليه وسلم وجد فيه آثارا +answer : الأنبياء إبراهيم وموسى وعيسى في نفر من الأنبياء + +context : فبينما كان رسول الله صلى الله عليه وسلم نائمآ في الحجر أتاه جبريل عليه السلام ، فهمزه بقدمه ، فجلس رسولنا الكريم فلم ير شيئا ، ثم عاد إلى مضجعه ، فأتاه مرة ثانية فهمزه بقدمه ، فجلس ولم ير شيئا ، ثم عاد مرة أخرى إلى مضجعه ، فأتاه مرة ثالثة فهمزه بقدمه ، فجلس رسولنا الكريم ، وأخذ جبريل بعضده ، وحينها قام رسول الله معه ، وخرج به جبريل إلى باب المسجد ، فإذا رسول الله يرى دابة بيضاء بين البغل والحمار ، في فخذيها جناحان تحفز بهما رجليه ، ثم وضع جبريل يده في منتهى طرف الرسول فحمله عليه ، وخرج معه . ومضى رسول الله صلى الله عليه وسلم بصحبة جبريل عليه السلام حتى انتهى به المطاف إلى بيت المقدس ، فوجد فيه الأنبياء إبراهيم وموسى وعيسى في نفر من الأنبياء ، فأمهم رسول الله في صلاته ، ثم أتى جبريل رسول الله بوعائين ، في أحدهما خمر ، وفي الآخر . قال : خذ . فأخذ رسول الله صلى الله عليه وسلم إناء اللبن وشرب منه ، وترك إناء الخمر . فقال له جبريل : هديت للفطرة ، وهديت أمتك يا محمد ، وحرمت عليكم الخمر . ثم عاد رسول الله صلى الله عليه وسلم إلى مكة . +question : أي إناء إختاره الرسول ؟ +prompt : أجب عن السؤال التالي : أي إناء إختاره الرسول ؟ الجواب هو +pred_answer : : إن كان +answer : إناء اللبن + +context : في صباح اليوم التالي اجتمع الرسول الكريم في قبيلة قريش وأخبرهم بما حصل معه ، فقال أكثر الناس : والله هذا الأمر لبين ، وإن الرسول لصادق آمين ، وإن العير لتطرد شهرآ من مكة إلى الشام مدبرة ، وشهرا مقبلة ، وقال بعضهم : إن هذا القول لا يصدق أفيذهب محمد ويرجع إلى مكة في ليلة واحدة ؟ ! فارتد كثير ممن كان قد أسلم ، وذهب الناس إلى أبي بكر ، فقالوا له : يا أبا بكر إن صاحبك محمد يزعم أنه قد جاء من بيت المقدس وصلى فيه ورجع إلى مكة ، فقال لهم أبو بكر : إنكم تكذبون على رسول الله ، فقالوا : بلى ، ها هو الرسول في المسجد يحدث الناس بما حدث معه ، فقال أبو بكر : والله لئن كان قال هذا الكلام لقد صدق ، فما العجب من ذلك ! فوالله إنه ليخبرني أن الخبر يأتيه من الله من السماء إلى الأرض في ساعة من ليل أو نهار فأصدقه ، فهذا أبعد مما تعجبون منه . +question : لمن أخبر الرسول ما حصل معه ؟ +prompt : أجب عن السؤال التالي : لمن أخبر الرسول ما حصل معه ؟ الجواب هو +pred_answer : قول الله تعالى +answer : قبيلة قريش + +context : في صباح اليوم التالي اجتمع الرسول الكريم في قبيلة قريش وأخبرهم بما حصل معه ، فقال أكثر الناس : والله هذا الأمر لبين ، وإن الرسول لصادق آمين ، وإن العير لتطرد شهرآ من مكة إلى الشام مدبرة ، وشهرا مقبلة ، وقال بعضهم : إن هذا القول لا يصدق أفيذهب محمد ويرجع إلى مكة في ليلة واحدة ؟ ! فارتد كثير ممن كان قد أسلم ، وذهب الناس إلى أبي بكر ، فقالوا له : يا أبا بكر إن صاحبك محمد يزعم أنه قد جاء من بيت المقدس وصلى فيه ورجع إلى مكة ، فقال لهم أبو بكر : إنكم تكذبون على رسول الله ، فقالوا : بلى ، ها هو الرسول في المسجد يحدث الناس بما حدث معه ، فقال أبو بكر : والله لئن كان قال هذا الكلام لقد صدق ، فما العجب من ذلك ! فوالله إنه ليخبرني أن الخبر يأتيه من الله من السماء إلى الأرض في ساعة من ليل أو نهار فأصدقه ، فهذا أبعد مما تعجبون منه . +question : متى أخبر الرسول قبيلة قريش ما حصل معه ؟ +prompt : أجب عن السؤال التالي : متى أخبر الرسول قبيلة قريش ما حصل معه ؟ الجواب هو +pred_answer : أن النبي صلى الله +answer : صباح اليوم التالي + +context : في صباح اليوم التالي اجتمع الرسول الكريم في قبيلة قريش وأخبرهم بما حصل معه ، فقال أكثر الناس : والله هذا الأمر لبين ، وإن الرسول لصادق آمين ، وإن العير لتطرد شهرآ من مكة إلى الشام مدبرة ، وشهرا مقبلة ، وقال بعضهم : إن هذا القول لا يصدق أفيذهب محمد ويرجع إلى مكة في ليلة واحدة ؟ ! فارتد كثير ممن كان قد أسلم ، وذهب الناس إلى أبي بكر ، فقالوا له : يا أبا بكر إن صاحبك محمد يزعم أنه قد جاء من بيت المقدس وصلى فيه ورجع إلى مكة ، فقال لهم أبو بكر : إنكم تكذبون على رسول الله ، فقالوا : بلى ، ها هو الرسول في المسجد يحدث الناس بما حدث معه ، فقال أبو بكر : والله لئن كان قال هذا الكلام لقد صدق ، فما العجب من ذلك ! فوالله إنه ليخبرني أن الخبر يأتيه من الله من السماء إلى الأرض في ساعة من ليل أو نهار فأصدقه ، فهذا أبعد مما تعجبون منه . +question : ماذا قال الناس لأبي بكر ؟ +prompt : أجب عن السؤال التالي : ماذا قال الناس لأبي بكر ؟ الجواب هو +pred_answer : أن أبا بكر الصديق رضي الله عنه لم يقل شيئا من هذا القبيل ، بل كان +answer : بكر إن صاحبك محمد يزعم أنه قد جاء من بيت المقدس وصلى فيه ورجع + +context : تونس ، رسميا الجمهورية التونسية ، هي دولة تقع في شمال أفريقيا يحدها من الشمال والشرق البحر الأبيض المتوسط ومن الجنوب الشرقي ليبيا ( 459 كم ) ومن الغرب الجزائر ( 965 كم ) . لعبت تونس أدوارا هامة في التاريخ القديم منذ عهد الفينيقيين والأمازيغ وااقرطاجيين والونداليين والرومان وقد عرفت باسم مقاطعة أفريكا إبان الحكم الروماني لها والتي سميت باسمها كامل القارة . فتحها المسلمون في القرن السابع الميلادي وأسسوا فيها مدينة القيروان سنة 50 ه لتكون ثاني مدينة إسلامية في شمال أفريقيا بعد الفسطاط . في ظل الدولة العثمانية ، كانت تسمى " الإيالة التونسية " . وقعت تحت الاحتلال الفرنسي في عام 1881 ، ثم حصلت على استقلالها في عام 1956 لتصبح رسميا المملكة التونسية في نهاية عهد محمد الأمين باي . مع إعلان الجمهورية التونسية في 25 يوليو 1957 ، أصبح الحبيب بورقيبة أول رئيس لها . +question : أين تقع تونس ؟ +prompt : أجب عن السؤال التالي : أين تقع تونس ؟ الجواب هو +pred_answer : أنها تقع في +answer : شمال أفريقيا + +context : تونس ، رسميا الجمهورية التونسية ، هي دولة تقع في شمال أفريقيا يحدها من الشمال والشرق البحر الأبيض المتوسط ومن الجنوب الشرقي ليبيا ( 459 كم ) ومن الغرب الجزائر ( 965 كم ) . لعبت تونس أدوارا هامة في التاريخ القديم منذ عهد الفينيقيين والأمازيغ وااقرطاجيين والونداليين والرومان وقد عرفت باسم مقاطعة أفريكا إبان الحكم الروماني لها والتي سميت باسمها كامل القارة . فتحها المسلمون في القرن السابع الميلادي وأسسوا فيها مدينة القيروان سنة 50 ه لتكون ثاني مدينة إسلامية في شمال أفريقيا بعد الفسطاط . في ظل الدولة العثمانية ، كانت تسمى " الإيالة التونسية " . وقعت تحت الاحتلال الفرنسي في عام 1881 ، ثم حصلت على استقلالها في عام 1956 لتصبح رسميا المملكة التونسية في نهاية عهد محمد الأمين باي . مع إعلان الجمهورية التونسية في 25 يوليو 1957 ، أصبح الحبيب بورقيبة أول رئيس لها . +question : في أي قرن فتح المسلمون تونس ؟ +prompt : أجب عن السؤال التالي : في أي قرن فتح المسلمون تونس ؟ الجواب هو +pred_answer : القرن الثاني عشر الميلادي +answer : القرن السابع الميلادي + +context : تونس ، رسميا الجمهورية التونسية ، هي دولة تقع في شمال أفريقيا يحدها من الشمال والشرق البحر الأبيض المتوسط ومن الجنوب الشرقي ليبيا ( 459 كم ) ومن الغرب الجزائر ( 965 كم ) . لعبت تونس أدوارا هامة في التاريخ القديم منذ عهد الفينيقيين والأمازيغ وااقرطاجيين والونداليين والرومان وقد عرفت باسم مقاطعة أفريكا إبان الحكم الروماني لها والتي سميت باسمها كامل القارة . فتحها المسلمون في القرن السابع الميلادي وأسسوا فيها مدينة القيروان سنة 50 ه لتكون ثاني مدينة إسلامية في شمال أفريقيا بعد الفسطاط . في ظل الدولة العثمانية ، كانت تسمى " الإيالة التونسية " . وقعت تحت الاحتلال الفرنسي في عام 1881 ، ثم حصلت على استقلالها في عام 1956 لتصبح رسميا المملكة التونسية في نهاية عهد محمد الأمين باي . مع إعلان الجمهورية التونسية في 25 يوليو 1957 ، أصبح الحبيب بورقيبة أول رئيس لها . +question : في اي عام حصلت تونس على إستقلالها ؟ +prompt : أجب عن السؤال التالي : في اي عام حصلت تونس على إستقلالها ؟ الجواب هو في عام +pred_answer : 1956 . +answer : 1956 + +context : تلى الأخير في رئاسة الجمهورية زين العابدين بن علي بالانقلاب عام 1987 ، واستمر حكمه حتى 2011 حين هرب خلال الثورة التونسية . اعتمدت تونس على الصناعات الموجهة نحو التصدير في عملية تحرير وخصخصة الاقتصاد الذي بلغ متوسط نمو الناتج المحلي الإجمالي 5 ٪ منذ أوائل 1990 ، ويذكر ان تونس عانت الفساد في ظل حكم الرئيس السابق . +question : في أي عام إنتهى حكم زين العابدين ؟ +prompt : أجب عن السؤال التالي : في أي عام إنتهى حكم زين العابدين ؟ الجواب هو في عام +pred_answer : 2011 +answer : 2011 + +context : تلى الأخير في رئاسة الجمهورية زين العابدين بن علي بالانقلاب عام 1987 ، واستمر حكمه حتى 2011 حين هرب خلال الثورة التونسية . اعتمدت تونس على الصناعات الموجهة نحو التصدير في عملية تحرير وخصخصة الاقتصاد الذي بلغ متوسط نمو الناتج المحلي الإجمالي 5 ٪ منذ أوائل 1990 ، ويذكر ان تونس عانت الفساد في ظل حكم الرئيس السابق . +question : في أي عام شهدت تونس الإنقلاب ؟ +prompt : أجب عن السؤال التالي : في أي عام شهدت تونس الإنقلاب ؟ الجواب هو في عام +pred_answer : 2011 ، +answer : 1987 + +context : تلى الأخير في رئاسة الجمهورية زين العابدين بن علي بالانقلاب عام 1987 ، واستمر حكمه حتى 2011 حين هرب خلال الثورة التونسية . اعتمدت تونس على الصناعات الموجهة نحو التصدير في عملية تحرير وخصخصة الاقتصاد الذي بلغ متوسط نمو الناتج المحلي الإجمالي 5 ٪ منذ أوائل 1990 ، ويذكر ان تونس عانت الفساد في ظل حكم الرئيس السابق . +question : ما هو متوسط نمو الناتج المحلي الإجمالي ؟ +prompt : أجب عن السؤال التالي : ما هو متوسط نمو الناتج المحلي الإجمالي ؟ الجواب هو في عام +pred_answer : 2010 +answer : 5 + +context : تونس لديها علاقات وثيقة وتاريخية مع كل من الولايات المتحدة الأمريكية والاتحاد الأوروبي وهي حليف رئيسي خارج الناتو ولديها عدة اتفاقيات شراكة متقدمة تجمعها مع الاتحاد الأوروبي والذي يعد الزبون الأول لتونس والحليف الاقتصادي القوي . تونس هي أيضا عضو في جامعة الدول العربية والاتحاد الأفريقي . وأنشأت تونس علاقات وثيقة مع فرنسا على وجه الخصوص ، من خلال التعاون الاقتصادي والتحديث الصناعي ، وبرامج الخصخصة . وقد جعلت النهج الذي تتبعه الحكومة في الصراع بين إسرائيل وفلسطين كما أنها وسيط في مجال الدبلوماسية في الشرق الأوسط ومساهم كبير في فرض السلام في العالم عبر قواتها المنتشرة في مناطق النزاع والتابعة للأمم المتحدة . +question : من هو الزبون الأول لتونس ؟ +prompt : أجب عن السؤال التالي : من هو الزبون الأول لتونس ؟ الجواب هو +pred_answer : الشعب التونسي ، +answer : الاتحاد الأوروبي + +context : تونس لديها علاقات وثيقة وتاريخية مع كل من الولايات المتحدة الأمريكية والاتحاد الأوروبي وهي حليف رئيسي خارج الناتو ولديها عدة اتفاقيات شراكة متقدمة تجمعها مع الاتحاد الأوروبي والذي يعد الزبون الأول لتونس والحليف الاقتصادي القوي . تونس هي أيضا عضو في جامعة الدول العربية والاتحاد الأفريقي . وأنشأت تونس علاقات وثيقة مع فرنسا على وجه الخصوص ، من خلال التعاون الاقتصادي والتحديث الصناعي ، وبرامج الخصخصة . وقد جعلت النهج الذي تتبعه الحكومة في الصراع بين إسرائيل وفلسطين كما أنها وسيط في مجال الدبلوماسية في الشرق الأوسط ومساهم كبير في فرض السلام في العالم عبر قواتها المنتشرة في مناطق النزاع والتابعة للأمم المتحدة . +question : مع أي دولة نشأت تونس علاقة وثيقة ؟ +prompt : أجب عن السؤال التالي : مع أي دولة نشأت تونس علاقة وثيقة ؟ الجواب هو +pred_answer : أن تونس +answer : فرنسا + +context : تونس لديها علاقات وثيقة وتاريخية مع كل من الولايات المتحدة الأمريكية والاتحاد الأوروبي وهي حليف رئيسي خارج الناتو ولديها عدة اتفاقيات شراكة متقدمة تجمعها مع الاتحاد الأوروبي والذي يعد الزبون الأول لتونس والحليف الاقتصادي القوي . تونس هي أيضا عضو في جامعة الدول العربية والاتحاد الأفريقي . وأنشأت تونس علاقات وثيقة مع فرنسا على وجه الخصوص ، من خلال التعاون الاقتصادي والتحديث الصناعي ، وبرامج الخصخصة . وقد جعلت النهج الذي تتبعه الحكومة في الصراع بين إسرائيل وفلسطين كما أنها وسيط في مجال الدبلوماسية في الشرق الأوسط ومساهم كبير في فرض السلام في العالم عبر قواتها المنتشرة في مناطق النزاع والتابعة للأمم المتحدة . +question : تعد تونس عضوا في أي اتحاد ؟ +prompt : أجب عن السؤال التالي : تعد تونس عضوا في أي اتحاد ؟ الجواب هو +pred_answer : أن تونس عضو في +answer : والاتحاد الأفريقي + +context : نادي ليفربول لكرة القدم ( بالإنجليزية : Liverpool Football Club ) وغالبا ما يعرف اختصارا باسم ليفربول ( بالإنجليزية : Liverpool ) هو نادي كرة قدم إنجليزي محترف ، تأسس بتاريخ 15 مارس 1892 ، بمدينة ليفربول ، في إقليم الميرسيسايد بإنجلترا ، على يد رجل الأعمال الإنجليزي جون هولدينغ . نادي ليفربول حصد 11 لقبا على مستوى القارة الأوروبية ، حيث فاز بألقاب أوروبية أكثر من أي نادي إنجليزي آخر ، بعدما حقق لقب دوري أبطال أوروبا 5 مرات ، متأخرا عن ريال مدريد بثمانية ألقاب و عن إيه سي ميلان بلقبين ، وفاز بلقب كأس الإتحاد الأوروبي 3 مرات ، وفاز أيضا بلقب كأس السوبر الأوروبي 5 مرات . أما من ناحية التصنيف الأوربي فيحتل المرتبة 42 على مستوى الفرق الأوروبية ، وفقا لتصنيف الاتحاد الأوروبي لكرة القدم ، معتمدا على النتائج التي حققها في المسابقات الأوروبية في السنوات الخمس الأخيرة . +question : متى تأسس نادي ليفربول لكرة القدم ؟ +prompt : أجب عن السؤال التالي : متى تأسس نادي ليفربول لكرة القدم ؟ الجواب هو +pred_answer : في عام 1892 +answer : 15 مارس 1892 + +context : نادي ليفربول لكرة القدم ( بالإنجليزية : Liverpool Football Club ) وغالبا ما يعرف اختصارا باسم ليفربول ( بالإنجليزية : Liverpool ) هو نادي كرة قدم إنجليزي محترف ، تأسس بتاريخ 15 مارس 1892 ، بمدينة ليفربول ، في إقليم الميرسيسايد بإنجلترا ، على يد رجل الأعمال الإنجليزي جون هولدينغ . نادي ليفربول حصد 11 لقبا على مستوى القارة الأوروبية ، حيث فاز بألقاب أوروبية أكثر من أي نادي إنجليزي آخر ، بعدما حقق لقب دوري أبطال أوروبا 5 مرات ، متأخرا عن ريال مدريد بثمانية ألقاب و عن إيه سي ميلان بلقبين ، وفاز بلقب كأس الإتحاد الأوروبي 3 مرات ، وفاز أيضا بلقب كأس السوبر الأوروبي 5 مرات . أما من ناحية التصنيف الأوربي فيحتل المرتبة 42 على مستوى الفرق الأوروبية ، وفقا لتصنيف الاتحاد الأوروبي لكرة القدم ، معتمدا على النتائج التي حققها في المسابقات الأوروبية في السنوات الخمس الأخيرة . +question : أين تأسس نادي ليفيربول ؟ +prompt : أجب عن السؤال التالي : أين تأسس نادي ليفيربول ؟ الجواب هو +pred_answer : في مدينة ليفربول الإنكليزية ، وتحديدا في ملعب أنفيلد رود . +answer : بمدينة ليفربول في إقليم الميرسيسايد بإنجلترا + +context : نادي ليفربول لكرة القدم ( بالإنجليزية : Liverpool Football Club ) وغالبا ما يعرف اختصارا باسم ليفربول ( بالإنجليزية : Liverpool ) هو نادي كرة قدم إنجليزي محترف ، تأسس بتاريخ 15 مارس 1892 ، بمدينة ليفربول ، في إقليم الميرسيسايد بإنجلترا ، على يد رجل الأعمال الإنجليزي جون هولدينغ . نادي ليفربول حصد 11 لقبا على مستوى القارة الأوروبية ، حيث فاز بألقاب أوروبية أكثر من أي نادي إنجليزي آخر ، بعدما حقق لقب دوري أبطال أوروبا 5 مرات ، متأخرا عن ريال مدريد بثمانية ألقاب و عن إيه سي ميلان بلقبين ، وفاز بلقب كأس الإتحاد الأوروبي 3 مرات ، وفاز أيضا بلقب كأس السوبر الأوروبي 5 مرات . أما من ناحية التصنيف الأوربي فيحتل المرتبة 42 على مستوى الفرق الأوروبية ، وفقا لتصنيف الاتحاد الأوروبي لكرة القدم ، معتمدا على النتائج التي حققها في المسابقات الأوروبية في السنوات الخمس الأخيرة . +question : كم من مرة حقق نادي ليفيربول لقب دوري أبطال أوروبا ؟ +prompt : أجب عن السؤال التالي : كم من مرة حقق نادي ليفيربول لقب دوري أبطال أوروبا ؟ الجواب هو +pred_answer : ثلاث مرات +answer : 5 مرات + +context : محليا ، ليفربول هو ثاني أكثر الأندية الإنجليزية فوزا بلقب الدوري ب 18 بطولة متأخرا عن مانشستر يونايتد ببطولتين الذي فاز بلقب بالدوري 20 مرة . أيضا حصل ليفربول على بطولة دوري لانكشاير وحيدة في عام 1892 ، وفاز بلقب الدوري الدرجة الثانية 4 مرات . أما على مستوى الكؤوس فقد حصد الفريق على 15 لقبا في كأس الدرع الخيرية ، و 7 ألقاب في كأس الإتحاد الإنجليزي ، و 8 ألقاب في كأس الرابطة الإنجليزية . ليصبح بذلك مجموع بطولاته المحلية حوالي 54 لقبا . بعد تأسيس النادي ليفربول في عام 1892 ، شارك في دوري كرة القدم في السنة التي تلتها . وتعتبر الفترة الأكثر نجاحا لليفربول كانت في السبعينات و الثمانينات ، عندما قاد بيل شانكلي وبوب بيزلي النادي لتحقيق أحد عشر لقب دوري و سبع كؤوس أوربية . ليفربول لديه منافسات طويلة مع جاره إيفرتون ومانشستر يونايتد . يلعب الفريق بالملابس الحمراء منذ عام 1964 عندما غير بيل شانكلي ملابس الفريق من القميص الأحمر و السروال الأبيض إلى اللون الأحمر . نشيد النادي هو " لن تسير لوحدك أبدا " والتي يقوم الجمهور بغنائها قبل بداية كل مباراة على أرضه . يلعب النادي في ملعبه الأنفيلد منذ تأسيسه . +question : في كم من بطولة فاز نادي ليفيربول بلقب الدوري ؟ +prompt : أجب عن السؤال التالي : في كم من بطولة فاز نادي ليفيربول بلقب الدوري ؟ الجواب هو +pred_answer : : لا يوجد +answer : ب 18 بطولة + +context : محليا ، ليفربول هو ثاني أكثر الأندية الإنجليزية فوزا بلقب الدوري ب 18 بطولة متأخرا عن مانشستر يونايتد ببطولتين الذي فاز بلقب بالدوري 20 مرة . أيضا حصل ليفربول على بطولة دوري لانكشاير وحيدة في عام 1892 ، وفاز بلقب الدوري الدرجة الثانية 4 مرات . أما على مستوى الكؤوس فقد حصد الفريق على 15 لقبا في كأس الدرع الخيرية ، و 7 ألقاب في كأس الإتحاد الإنجليزي ، و 8 ألقاب في كأس الرابطة الإنجليزية . ليصبح بذلك مجموع بطولاته المحلية حوالي 54 لقبا . بعد تأسيس النادي ليفربول في عام 1892 ، شارك في دوري كرة القدم في السنة التي تلتها . وتعتبر الفترة الأكثر نجاحا لليفربول كانت في السبعينات و الثمانينات ، عندما قاد بيل شانكلي وبوب بيزلي النادي لتحقيق أحد عشر لقب دوري و سبع كؤوس أوربية . ليفربول لديه منافسات طويلة مع جاره إيفرتون ومانشستر يونايتد . يلعب الفريق بالملابس الحمراء منذ عام 1964 عندما غير بيل شانكلي ملابس الفريق من القميص الأحمر و السروال الأبيض إلى اللون الأحمر . نشيد النادي هو " لن تسير لوحدك أبدا " والتي يقوم الجمهور بغنائها قبل بداية كل مباراة على أرضه . يلعب النادي في ملعبه الأنفيلد منذ تأسيسه . +question : في اي عام حصل نادي ليفربول بطولة دوري لانكشاير ؟ +prompt : أجب عن السؤال التالي : في اي عام حصل نادي ليفربول بطولة دوري لانكشاير ؟ الجواب هو في عام +pred_answer : 1892 +answer : 1892 + +context : محليا ، ليفربول هو ثاني أكثر الأندية الإنجليزية فوزا بلقب الدوري ب 18 بطولة متأخرا عن مانشستر يونايتد ببطولتين الذي فاز بلقب بالدوري 20 مرة . أيضا حصل ليفربول على بطولة دوري لانكشاير وحيدة في عام 1892 ، وفاز بلقب الدوري الدرجة الثانية 4 مرات . أما على مستوى الكؤوس فقد حصد الفريق على 15 لقبا في كأس الدرع الخيرية ، و 7 ألقاب في كأس الإتحاد الإنجليزي ، و 8 ألقاب في كأس الرابطة الإنجليزية . ليصبح بذلك مجموع بطولاته المحلية حوالي 54 لقبا . بعد تأسيس النادي ليفربول في عام 1892 ، شارك في دوري كرة القدم في السنة التي تلتها . وتعتبر الفترة الأكثر نجاحا لليفربول كانت في السبعينات و الثمانينات ، عندما قاد بيل شانكلي وبوب بيزلي النادي لتحقيق أحد عشر لقب دوري و سبع كؤوس أوربية . ليفربول لديه منافسات طويلة مع جاره إيفرتون ومانشستر يونايتد . يلعب الفريق بالملابس الحمراء منذ عام 1964 عندما غير بيل شانكلي ملابس الفريق من القميص الأحمر و السروال الأبيض إلى اللون الأحمر . نشيد النادي هو " لن تسير لوحدك أبدا " والتي يقوم الجمهور بغنائها قبل بداية كل مباراة على أرضه . يلعب النادي في ملعبه الأنفيلد منذ تأسيسه . +question : ما هي الفترة الأكثر نجاحا لليفربول ؟ +prompt : أجب عن السؤال التالي : ما هي الفترة الأكثر نجاحا لليفربول ؟ الجواب هو +pred_answer : موسم 2009 - 2010 ، +answer : السبعينات و الثمانينات + +context : يلعب نادي نادي ليفربول كل مبارياته الرسمية في ملعب الأنفيلد ، والذي يتسع لحضور 54 , 074 متفرج . يعتبر نادي إيفرتون الغريم التاريخي لنادي ليفربول ، حيث يجمع بينهما مباراة ديربي شهيرة تعرف بديربي الميرسيسايد ، والذي يمثل ديربي بين أفضل فريقين في مدينة ليفربول . من جهة أخرى ، يعتبر نادي مانشستر يونايتد العدو اللدود لنادي ليفربول ، فتلك الموجهات تعتبر من أهم المنافسات الرياضية في كرة القدم الإنجليزية ، حيث تجمع أكثر ناديي تحقيقا للألقاب ، حيث حقق مانشستر يونايتد 62 ، بينما حقق ليفربول 59 بطولة ، وقيل عنها أنها " المباراة الأكثر شهرة في كرة القدم الإنجليزية " . جماهير النادي كانت طرف في كارثتين ، الأولى كانت كارثة ملعب هيسل في عام 1985 ، عندما إنهار جدار تحت ضغط الجمهور الهاربين في ملعب هيسل ، نتيجة لأعمال شغب قبل بداية مباراة نهائي كأس الأندية الأوروبية البطلة 1985 بين نادي ليفربول الإنجليزي ونادي يوفنتوس الإيطالي . مما تسبب في وفاة 39 شخصا وإصابة 600 شخصا . أما الثانية فكانت كارثة هيلزبره في عام 1989 في ملعب هيلسيبرة ، ملعب نادي شيفيلد وينزداي ، خلال مباراة كرة قدم بين نوتينغهام فورست و نادي ليفربول ضمن الدور القبل النهائي من بطولة كأس الاتحاد الإنجليزي لكرة القدم . مما تسبب في وفاة 96 شخصا وإصابة العديد من الأشخاص . +question : أين يلعب نادي ليفربول مبارياته الرسمية ؟ +prompt : أجب عن السؤال التالي : أين يلعب نادي ليفربول مبارياته الرسمية ؟ الجواب هو +pred_answer : ملعب أنفيلد +answer : ملعب الأنفيلد + +context : يلعب نادي نادي ليفربول كل مبارياته الرسمية في ملعب الأنفيلد ، والذي يتسع لحضور 54 , 074 متفرج . يعتبر نادي إيفرتون الغريم التاريخي لنادي ليفربول ، حيث يجمع بينهما مباراة ديربي شهيرة تعرف بديربي الميرسيسايد ، والذي يمثل ديربي بين أفضل فريقين في مدينة ليفربول . من جهة أخرى ، يعتبر نادي مانشستر يونايتد العدو اللدود لنادي ليفربول ، فتلك الموجهات تعتبر من أهم المنافسات الرياضية في كرة القدم الإنجليزية ، حيث تجمع أكثر ناديي تحقيقا للألقاب ، حيث حقق مانشستر يونايتد 62 ، بينما حقق ليفربول 59 بطولة ، وقيل عنها أنها " المباراة الأكثر شهرة في كرة القدم الإنجليزية " . جماهير النادي كانت طرف في كارثتين ، الأولى كانت كارثة ملعب هيسل في عام 1985 ، عندما إنهار جدار تحت ضغط الجمهور الهاربين في ملعب هيسل ، نتيجة لأعمال شغب قبل بداية مباراة نهائي كأس الأندية الأوروبية البطلة 1985 بين نادي ليفربول الإنجليزي ونادي يوفنتوس الإيطالي . مما تسبب في وفاة 39 شخصا وإصابة 600 شخصا . أما الثانية فكانت كارثة هيلزبره في عام 1989 في ملعب هيلسيبرة ، ملعب نادي شيفيلد وينزداي ، خلال مباراة كرة قدم بين نوتينغهام فورست و نادي ليفربول ضمن الدور القبل النهائي من بطولة كأس الاتحاد الإنجليزي لكرة القدم . مما تسبب في وفاة 96 شخصا وإصابة العديد من الأشخاص . +question : ما هي سعة ملعب الأنفيلد ؟ +prompt : أجب عن السؤال التالي : ما هي سعة ملعب الأنفيلد ؟ الجواب هو +pred_answer : أنه يتسع � +answer : 54 074 متفرج + +context : يلعب نادي نادي ليفربول كل مبارياته الرسمية في ملعب الأنفيلد ، والذي يتسع لحضور 54 , 074 متفرج . يعتبر نادي إيفرتون الغريم التاريخي لنادي ليفربول ، حيث يجمع بينهما مباراة ديربي شهيرة تعرف بديربي الميرسيسايد ، والذي يمثل ديربي بين أفضل فريقين في مدينة ليفربول . من جهة أخرى ، يعتبر نادي مانشستر يونايتد العدو اللدود لنادي ليفربول ، فتلك الموجهات تعتبر من أهم المنافسات الرياضية في كرة القدم الإنجليزية ، حيث تجمع أكثر ناديي تحقيقا للألقاب ، حيث حقق مانشستر يونايتد 62 ، بينما حقق ليفربول 59 بطولة ، وقيل عنها أنها " المباراة الأكثر شهرة في كرة القدم الإنجليزية " . جماهير النادي كانت طرف في كارثتين ، الأولى كانت كارثة ملعب هيسل في عام 1985 ، عندما إنهار جدار تحت ضغط الجمهور الهاربين في ملعب هيسل ، نتيجة لأعمال شغب قبل بداية مباراة نهائي كأس الأندية الأوروبية البطلة 1985 بين نادي ليفربول الإنجليزي ونادي يوفنتوس الإيطالي . مما تسبب في وفاة 39 شخصا وإصابة 600 شخصا . أما الثانية فكانت كارثة هيلزبره في عام 1989 في ملعب هيلسيبرة ، ملعب نادي شيفيلد وينزداي ، خلال مباراة كرة قدم بين نوتينغهام فورست و نادي ليفربول ضمن الدور القبل النهائي من بطولة كأس الاتحاد الإنجليزي لكرة القدم . مما تسبب في وفاة 96 شخصا وإصابة العديد من الأشخاص . +question : كم من بطولة حققها نادي ليفربول ؟ +prompt : أجب عن السؤال التالي : كم من بطولة حققها نادي ليفربول ؟ الجواب هو +pred_answer : أكثر من +answer : 59 بطولة + +context : الصين ( بالصينية المبسطة : تشونغوا ؛ بالصينية التقليدية : ) المعروفة رسميا باسم جمهورية الصين الشعبية ( بالصينية المبسطة : تشونغهوا رنمين غونغهيغو ؛ بالصينية التقليدية : ) هي الدولة الأكثر سكانا في العالم حيث يقطنها أكثر من 1 . 338 مليار نسمة . تمتد البلاد على مساحة 9 . 6 مليون كيلومتر مربع ( 3 . 7 مليون ميل مربع ) ، حيث تعد جمهورية الصين الشعبية ثالث أو رابع أكبر من المساحة الإجمالية ( اعتمادا على تعريف ما هو مدرج في هذا المجموع ) ، وثاني أكبرها وفقا لمساحة البر . يتنوع المشهد الطبيعي في الصين بين غابات وسهوب وصحاري ( جوبي وتكلامكان ) في الشمال الجاف بالقرب من منغوليا وسيبيريا في روسيا والغابات شبه الاستوائية في الجنوب الرطب قرب فيتنام ولاوس وبورما . التضاريس في الغرب وعرة وعلى علو شاهق حيث تقع جبال الهيمالايا وجبال تيان شان وتشكل الحدود الطبيعية للصين مع الهند وآسيا الوسطى . في المقابل فإن الساحل الشرقي من البر الصيني منخفض وذو ساحل طويل 14 , 500 كيلومتر يحده من الجنوب الشرقي بحر الصين الجنوبي ومن الشرق بحر الصين الشرقي الذي تقع خارجه تايوان وكوريا واليابان . +question : كم يبلغ عدد سكان الصين ؟ +prompt : أجب عن السؤال التالي : كم يبلغ عدد سكان الصين ؟ الجواب هو +pred_answer : حوالي 1 . 3 +answer : 1 338 مليار نسمة + +context : الصين ( بالصينية المبسطة : تشونغوا ؛ بالصينية التقليدية : ) المعروفة رسميا باسم جمهورية الصين الشعبية ( بالصينية المبسطة : تشونغهوا رنمين غونغهيغو ؛ بالصينية التقليدية : ) هي الدولة الأكثر سكانا في العالم حيث يقطنها أكثر من 1 . 338 مليار نسمة . تمتد البلاد على مساحة 9 . 6 مليون كيلومتر مربع ( 3 . 7 مليون ميل مربع ) ، حيث تعد جمهورية الصين الشعبية ثالث أو رابع أكبر من المساحة الإجمالية ( اعتمادا على تعريف ما هو مدرج في هذا المجموع ) ، وثاني أكبرها وفقا لمساحة البر . يتنوع المشهد الطبيعي في الصين بين غابات وسهوب وصحاري ( جوبي وتكلامكان ) في الشمال الجاف بالقرب من منغوليا وسيبيريا في روسيا والغابات شبه الاستوائية في الجنوب الرطب قرب فيتنام ولاوس وبورما . التضاريس في الغرب وعرة وعلى علو شاهق حيث تقع جبال الهيمالايا وجبال تيان شان وتشكل الحدود الطبيعية للصين مع الهند وآسيا الوسطى . في المقابل فإن الساحل الشرقي من البر الصيني منخفض وذو ساحل طويل 14 , 500 كيلومتر يحده من الجنوب الشرقي بحر الصين الجنوبي ومن الشرق بحر الصين الشرقي الذي تقع خارجه تايوان وكوريا واليابان . +question : كم تبلغ مساحة الصين ؟ +prompt : أجب عن السؤال التالي : كم تبلغ مساحة الصين ؟ الجواب هو +pred_answer : : 1 . 5 مليون +answer : 9 6 مليون كيلومتر مربع + +context : الصين ( بالصينية المبسطة : تشونغوا ؛ بالصينية التقليدية : ) المعروفة رسميا باسم جمهورية الصين الشعبية ( بالصينية المبسطة : تشونغهوا رنمين غونغهيغو ؛ بالصينية التقليدية : ) هي الدولة الأكثر سكانا في العالم حيث يقطنها أكثر من 1 . 338 مليار نسمة . تمتد البلاد على مساحة 9 . 6 مليون كيلومتر مربع ( 3 . 7 مليون ميل مربع ) ، حيث تعد جمهورية الصين الشعبية ثالث أو رابع أكبر من المساحة الإجمالية ( اعتمادا على تعريف ما هو مدرج في هذا المجموع ) ، وثاني أكبرها وفقا لمساحة البر . يتنوع المشهد الطبيعي في الصين بين غابات وسهوب وصحاري ( جوبي وتكلامكان ) في الشمال الجاف بالقرب من منغوليا وسيبيريا في روسيا والغابات شبه الاستوائية في الجنوب الرطب قرب فيتنام ولاوس وبورما . التضاريس في الغرب وعرة وعلى علو شاهق حيث تقع جبال الهيمالايا وجبال تيان شان وتشكل الحدود الطبيعية للصين مع الهند وآسيا الوسطى . في المقابل فإن الساحل الشرقي من البر الصيني منخفض وذو ساحل طويل 14 , 500 كيلومتر يحده من الجنوب الشرقي بحر الصين الجنوبي ومن الشرق بحر الصين الشرقي الذي تقع خارجه تايوان وكوريا واليابان . +question : كم يبلغ طول الساحل الشرقي للصين ؟ +prompt : أجب عن السؤال التالي : كم يبلغ طول الساحل الشرقي للصين ؟ الجواب هو +pred_answer : : 1 . +answer : 14 500 كيلومتر + +context : الحضارة الصينية القديمة إحدى أقدم الحضارات في العالم ، حيث ازدهرت في حوض النهر الأصفر الخصب الذي يتدفق عبر سهل شمال الصين . خلال أكثر من 6 , 000 عام قام النظام السياسي في الصين على الأنظمة الملكية الوراثية ( المعروفة أيضا باسم السلالات ) . كان أول هذه السلالات شيا ( حوالي 2000 ق . م ) لكن أسرة تشين اللاحقة كانت أول من وحد البلاد في عام 221 ق . م . انتهت آخر السلالات ( سلالة تشينغ ) في عام 1911 مع تأسيس جمهورية الصين من قبل الكومينتانغ والحزب القومي الصيني . شهد النصف الأول من القرن العشرين سقوط البلاد في فترة من التفكك والحروب الأهلية التي قسمت البلاد إلى معسكرين سياسيين رئيسيين هما الكومينتانغ والشيوعيون . انتهت أعمال العنف الكبرى في عام 1949 عندما حسم الشيوعيون الحرب الأهلية وأسسوا جمهورية الصين الشعبية في بر الصين الرئيسي . نقل حزب الكومينتانغ عاصمة جمهوريته إلى تايبيه في تايوان حيث تقتصر سيادته حاليا على تايوان وكنمن ماتسو وجزر عدة نائية . منذ ذلك الحين ، دخلت جمهورية الصين الشعبية في نزاعات سياسية مع جمهورية الصين حول قضايا السيادة والوضع السياسي لتايوان . +question : بماذا سميت السلالات الملكية الصينية ؟ +prompt : أجب عن السؤال التالي : بماذا سميت السلالات الملكية الصينية ؟ الجواب هو +pred_answer : سلالة تش +answer : السلالات + +context : الحضارة الصينية القديمة إحدى أقدم الحضارات في العالم ، حيث ازدهرت في حوض النهر الأصفر الخصب الذي يتدفق عبر سهل شمال الصين . خلال أكثر من 6 , 000 عام قام النظام السياسي في الصين على الأنظمة الملكية الوراثية ( المعروفة أيضا باسم السلالات ) . كان أول هذه السلالات شيا ( حوالي 2000 ق . م ) لكن أسرة تشين اللاحقة كانت أول من وحد البلاد في عام 221 ق . م . انتهت آخر السلالات ( سلالة تشينغ ) في عام 1911 مع تأسيس جمهورية الصين من قبل الكومينتانغ والحزب القومي الصيني . شهد النصف الأول من القرن العشرين سقوط البلاد في فترة من التفكك والحروب الأهلية التي قسمت البلاد إلى معسكرين سياسيين رئيسيين هما الكومينتانغ والشيوعيون . انتهت أعمال العنف الكبرى في عام 1949 عندما حسم الشيوعيون الحرب الأهلية وأسسوا جمهورية الصين الشعبية في بر الصين الرئيسي . نقل حزب الكومينتانغ عاصمة جمهوريته إلى تايبيه في تايوان حيث تقتصر سيادته حاليا على تايوان وكنمن ماتسو وجزر عدة نائية . منذ ذلك الحين ، دخلت جمهورية الصين الشعبية في نزاعات سياسية مع جمهورية الصين حول قضايا السيادة والوضع السياسي لتايوان . +question : ما اسم اخر سلالة ملكية في الصين ؟ +prompt : أجب عن السؤال التالي : ما اسم اخر سلالة ملكية في الصين ؟ الجواب هو +pred_answer : سلالة تشينغ . +answer : سلالة تشينغ + +context : الحضارة الصينية القديمة إحدى أقدم الحضارات في العالم ، حيث ازدهرت في حوض النهر الأصفر الخصب الذي يتدفق عبر سهل شمال الصين . خلال أكثر من 6 , 000 عام قام النظام السياسي في الصين على الأنظمة الملكية الوراثية ( المعروفة أيضا باسم السلالات ) . كان أول هذه السلالات شيا ( حوالي 2000 ق . م ) لكن أسرة تشين اللاحقة كانت أول من وحد البلاد في عام 221 ق . م . انتهت آخر السلالات ( سلالة تشينغ ) في عام 1911 مع تأسيس جمهورية الصين من قبل الكومينتانغ والحزب القومي الصيني . شهد النصف الأول من القرن العشرين سقوط البلاد في فترة من التفكك والحروب الأهلية التي قسمت البلاد إلى معسكرين سياسيين رئيسيين هما الكومينتانغ والشيوعيون . انتهت أعمال العنف الكبرى في عام 1949 عندما حسم الشيوعيون الحرب الأهلية وأسسوا جمهورية الصين الشعبية في بر الصين الرئيسي . نقل حزب الكومينتانغ عاصمة جمهوريته إلى تايبيه في تايوان حيث تقتصر سيادته حاليا على تايوان وكنمن ماتسو وجزر عدة نائية . منذ ذلك الحين ، دخلت جمهورية الصين الشعبية في نزاعات سياسية مع جمهورية الصين حول قضايا السيادة والوضع السياسي لتايوان . +question : متي انتهت الحرب الأهلية في الصين ؟ +prompt : أجب عن السؤال التالي : متي انتهت الحرب الأهلية في الصين ؟ الجواب هو في عام +pred_answer : 1949 ، +answer : 1949 + +context : منذ إدخال إصلاحات اقتصادية قائمة على نظام السوق في عام 1978 أصبحت الصين أسرع اقتصادات العالم نموا حيث أصبحت أكبر دولة مصدرة في العالم وثاني أكبر مستورد للبضائع . يعد الاقتصاد الصيني ثاني أكبر اقتصاد في العالم ، من حيث الناتج المحلي الإجمالي الاسمي وتعادل القوة الشرائية . الصين عضو دائم في مجلس الأمن للأمم المتحدة . كما أنها أيضا عضو في منظمات متعددة الأطراف بما في ذلك منظمة التجارة العالمية والابيك وبريك ومنظمة شانغهاي للتعاون ومجموعة العشرين . تمتلك الصين ترسانة نووية معترف بها وجيشها هو الأكبر في العالم في الخدمة مع ثاني أكبر ميزانية دفاع . وصفت الصين كقوة عظمى محتملة من جانب عدد من الأكاديميين والمحللين العسكريين والمحللين الاقتصاديين والسياسة العامة . +question : ما هو ترتيب الاقتصاد الصيني بين اقتصاديات العالم ؟ +prompt : أجب عن السؤال التالي : ما هو ترتيب الاقتصاد الصيني بين اقتصاديات العالم ؟ الجواب هو +pred_answer : أن الصين تحتل المرتبة الثانية بعد الولايات المتحدة الأمريكية +answer : يعد الاقتصاد الصيني ثاني أكبر اقتصاد في العالم + +context : منذ إدخال إصلاحات اقتصادية قائمة على نظام السوق في عام 1978 أصبحت الصين أسرع اقتصادات العالم نموا حيث أصبحت أكبر دولة مصدرة في العالم وثاني أكبر مستورد للبضائع . يعد الاقتصاد الصيني ثاني أكبر اقتصاد في العالم ، من حيث الناتج المحلي الإجمالي الاسمي وتعادل القوة الشرائية . الصين عضو دائم في مجلس الأمن للأمم المتحدة . كما أنها أيضا عضو في منظمات متعددة الأطراف بما في ذلك منظمة التجارة العالمية والابيك وبريك ومنظمة شانغهاي للتعاون ومجموعة العشرين . تمتلك الصين ترسانة نووية معترف بها وجيشها هو الأكبر في العالم في الخدمة مع ثاني أكبر ميزانية دفاع . وصفت الصين كقوة عظمى محتملة من جانب عدد من الأكاديميين والمحللين العسكريين والمحللين الاقتصاديين والسياسة العامة . +question : هل تمتلك الصين ترسانة نووية ؟ +prompt : أجب عن السؤال التالي : هل تمتلك الصين ترسانة نووية ؟ الجواب هو +pred_answer : " نعم " ، لكن +answer : تمتلك الصين ترسانة نووية + +context : منذ إدخال إصلاحات اقتصادية قائمة على نظام السوق في عام 1978 أصبحت الصين أسرع اقتصادات العالم نموا حيث أصبحت أكبر دولة مصدرة في العالم وثاني أكبر مستورد للبضائع . يعد الاقتصاد الصيني ثاني أكبر اقتصاد في العالم ، من حيث الناتج المحلي الإجمالي الاسمي وتعادل القوة الشرائية . الصين عضو دائم في مجلس الأمن للأمم المتحدة . كما أنها أيضا عضو في منظمات متعددة الأطراف بما في ذلك منظمة التجارة العالمية والابيك وبريك ومنظمة شانغهاي للتعاون ومجموعة العشرين . تمتلك الصين ترسانة نووية معترف بها وجيشها هو الأكبر في العالم في الخدمة مع ثاني أكبر ميزانية دفاع . وصفت الصين كقوة عظمى محتملة من جانب عدد من الأكاديميين والمحللين العسكريين والمحللين الاقتصاديين والسياسة العامة . +question : متي أدخلت الصين الاصلاحات الاقتصادية القائمة علي اقتصاد السوق ؟ +prompt : أجب عن السؤال التالي : متي أدخلت الصين الاصلاحات الاقتصادية القائمة علي اقتصاد السوق ؟ الجواب هو +pred_answer : في عام +answer : عام 1978 + +context : كرة القدم هي رياضة جماعية تلعب بين فريقين يتكون كل منهما من أحد عشر لاعبا بكرة مكورة . يلعب كرة القدم 250 مليون لاعب في أكثر من مائتي دولة حول العالم ، فلذلك تكون الرياضة الأكثر شعبية وانتشارا في العالم . حارس المرمى هو اللاعب الوحيد الذي يسمح له أن يلمس الكرة بيديه أو ذراعيه ، بشرط أن يكون داخل منطقة الجزاء . يستخدم اللاعبون غير الحارس أرجلهم غالبا في الهجوم أو تمرير الكرة ويمكنهم أيضا استخدام رأسهم لضرب الكرة . الفريق الذي يحرز أهدافا أكثر يكون هو الفائز . إذا أحرز الفريقان أهدافا متعادلة في نهاية المباراة ، فتكون نتيجة المباراة إما التعادل أو تدخل المباراة في نظام الوقت الإضافي و أو الضربات الترجيحية ويعتمد ذلك على نظام البطولة . وضعت قوانين لعبة كرة القدم في إنجلترا بواسطة الاتحاد الإنجليزي لكرة القدم سنة 1863 . يترأس لعبة كرة القدم دوليا الاتحاد الدولي لكرة القدم ( الفيفا ) . تنظم بطولة كأس العالم لهذه الرياضة مرة كل أربع سنوات وهي البطولة الأهم دوليا . +question : كم يبلغ عدد الاعبين في فريق كرة القدم ؟ +prompt : أجب عن السؤال التالي : كم يبلغ عدد الاعبين في فريق كرة القدم ؟ الجواب هو +pred_answer : 10 لاعبين لكل فريق +answer : أحد عشر لاعبا + +context : كرة القدم هي رياضة جماعية تلعب بين فريقين يتكون كل منهما من أحد عشر لاعبا بكرة مكورة . يلعب كرة القدم 250 مليون لاعب في أكثر من مائتي دولة حول العالم ، فلذلك تكون الرياضة الأكثر شعبية وانتشارا في العالم . حارس المرمى هو اللاعب الوحيد الذي يسمح له أن يلمس الكرة بيديه أو ذراعيه ، بشرط أن يكون داخل منطقة الجزاء . يستخدم اللاعبون غير الحارس أرجلهم غالبا في الهجوم أو تمرير الكرة ويمكنهم أيضا استخدام رأسهم لضرب الكرة . الفريق الذي يحرز أهدافا أكثر يكون هو الفائز . إذا أحرز الفريقان أهدافا متعادلة في نهاية المباراة ، فتكون نتيجة المباراة إما التعادل أو تدخل المباراة في نظام الوقت الإضافي و أو الضربات الترجيحية ويعتمد ذلك على نظام البطولة . وضعت قوانين لعبة كرة القدم في إنجلترا بواسطة الاتحاد الإنجليزي لكرة القدم سنة 1863 . يترأس لعبة كرة القدم دوليا الاتحاد الدولي لكرة القدم ( الفيفا ) . تنظم بطولة كأس العالم لهذه الرياضة مرة كل أربع سنوات وهي البطولة الأهم دوليا . +question : ماهي الدولة اللتي وضعت قوانين كرة القدم ؟ +prompt : أجب عن السؤال التالي : ماهي الدولة اللتي وضعت قوانين كرة القدم ؟ الجواب هو +pred_answer : إنجلترا ، حيث تم وضع القوانين في عام 1863 م من قبل اتحاد +answer : وضعت قوانين لعبة كرة القدم في إنجلترا بواسطة الاتحاد الإنجليزي لكرة القدم سنة 1863 + +context : كرة القدم هي رياضة جماعية تلعب بين فريقين يتكون كل منهما من أحد عشر لاعبا بكرة مكورة . يلعب كرة القدم 250 مليون لاعب في أكثر من مائتي دولة حول العالم ، فلذلك تكون الرياضة الأكثر شعبية وانتشارا في العالم . حارس المرمى هو اللاعب الوحيد الذي يسمح له أن يلمس الكرة بيديه أو ذراعيه ، بشرط أن يكون داخل منطقة الجزاء . يستخدم اللاعبون غير الحارس أرجلهم غالبا في الهجوم أو تمرير الكرة ويمكنهم أيضا استخدام رأسهم لضرب الكرة . الفريق الذي يحرز أهدافا أكثر يكون هو الفائز . إذا أحرز الفريقان أهدافا متعادلة في نهاية المباراة ، فتكون نتيجة المباراة إما التعادل أو تدخل المباراة في نظام الوقت الإضافي و أو الضربات الترجيحية ويعتمد ذلك على نظام البطولة . وضعت قوانين لعبة كرة القدم في إنجلترا بواسطة الاتحاد الإنجليزي لكرة القدم سنة 1863 . يترأس لعبة كرة القدم دوليا الاتحاد الدولي لكرة القدم ( الفيفا ) . تنظم بطولة كأس العالم لهذه الرياضة مرة كل أربع سنوات وهي البطولة الأهم دوليا . +question : من هو اللاعب الوحيد في فريق كرة القدم المسموح له لمس الكرة باليد ؟ +prompt : أجب عن السؤال التالي : من هو اللاعب الوحيد في فريق كرة القدم المسموح له لمس الكرة باليد ؟ الجواب هو +pred_answer : حارس المرمى . +answer : حارس المرمى + +context : تطور أسلوب لعب كرة القدم عبر التاريخ وكذلك الضوابط والقوانين الخاصة بها حتى وصلت إلى المرحلة الحالية المعروفة بكرة القدم الحديثة ، التي لم تعد تركز على الهجوم وإحراز العدد الأكبر من الأهداف بقدر ما أصبحت تركز على التكتيك والمهارة ، وهي تتمثل بالتنظيم العام الذي يستخدمه مدرب فريق كرة القدم لضبط تحركات الفريق داخل الملعب لتحقيق النتيجة المخطط لها . +question : هل تغير اسلوب كرة القدم عبر التاريخ ؟ +prompt : أجب عن السؤال التالي : هل تغير اسلوب كرة القدم عبر التاريخ ؟ الجواب هو +pred_answer : نعم .ففي القرن التاسع عشر ، على سبيل المثال ، كان +answer : تطور أسلوب لعب كرة القدم عبر التاريخ وكذلك الضوابط والقوانين الخاصة بها + +context : تطور أسلوب لعب كرة القدم عبر التاريخ وكذلك الضوابط والقوانين الخاصة بها حتى وصلت إلى المرحلة الحالية المعروفة بكرة القدم الحديثة ، التي لم تعد تركز على الهجوم وإحراز العدد الأكبر من الأهداف بقدر ما أصبحت تركز على التكتيك والمهارة ، وهي تتمثل بالتنظيم العام الذي يستخدمه مدرب فريق كرة القدم لضبط تحركات الفريق داخل الملعب لتحقيق النتيجة المخطط لها . +question : علي ماذا ينصب تركيز كرة القدم الحديثة ؟ +prompt : أجب عن السؤال التالي : علي ماذا ينصب تركيز كرة القدم الحديثة ؟ الجواب هو +pred_answer : على ما يلي : +answer : على التكتيك والمهارة + +context : تطور أسلوب لعب كرة القدم عبر التاريخ وكذلك الضوابط والقوانين الخاصة بها حتى وصلت إلى المرحلة الحالية المعروفة بكرة القدم الحديثة ، التي لم تعد تركز على الهجوم وإحراز العدد الأكبر من الأهداف بقدر ما أصبحت تركز على التكتيك والمهارة ، وهي تتمثل بالتنظيم العام الذي يستخدمه مدرب فريق كرة القدم لضبط تحركات الفريق داخل الملعب لتحقيق النتيجة المخطط لها . +question : ماهي المهمة الأساسية لمدرب كرة القدم ؟ +prompt : أجب عن السؤال التالي : ماهي المهمة الأساسية لمدرب كرة القدم ؟ الجواب هو +pred_answer : أن مدرب كرة القدم يجب أن يكون مدربا محترفا ، +answer : لضبط تحركات الفريق داخل الملعب لتحقيق النتيجة المخطط لها + +context : وضعت قوانين كرة القدم في إنجلترا سنة 1863 واستخدم اسم " كرة قدم الاتحاد " ليميز اللعبة عن باقي الألعاب التي كانت تحمل اسم كرة قدم أيضا في ذلك الوقت ، وخصوصا كرة قدم الرجبي . ظهر مصطلح في إنجلترا ، وكان أول ظهور له في ثمانينات القرن التاسع عشر ، اختصارا لكلمة اتحاد بالإنجليزي وهي " " . في عالم المتحدثين بالإنجليزية ، تستخدم كلمة كرة قدم في المملكة المتحدة ، على حين تستخدم كلمة سوكر في الولايات المتحدة وكندا . وفي دول أخرى مثل أستراليا ونيوزلندا قد يستخدم أحد المصطلحين أو كلاهما . +question : لماذا سميت كرة القدم عام 1863 بكرة قدم الاتحاد ؟ +prompt : أجب عن السؤال التالي : لماذا سميت كرة القدم عام 1863 بكرة قدم الاتحاد ؟ الجواب هو +pred_answer : لأن هذه الكرة كانت تستعمل في لعبة الروديو التي كانت منتشرة في ذلك +answer : باقي الألعاب التي كانت تحمل اسم كرة قدم أيضا في ذلك الوقت وخصوصا كرة + +context : وضعت قوانين كرة القدم في إنجلترا سنة 1863 واستخدم اسم " كرة قدم الاتحاد " ليميز اللعبة عن باقي الألعاب التي كانت تحمل اسم كرة قدم أيضا في ذلك الوقت ، وخصوصا كرة قدم الرجبي . ظهر مصطلح في إنجلترا ، وكان أول ظهور له في ثمانينات القرن التاسع عشر ، اختصارا لكلمة اتحاد بالإنجليزي وهي " " . في عالم المتحدثين بالإنجليزية ، تستخدم كلمة كرة قدم في المملكة المتحدة ، على حين تستخدم كلمة سوكر في الولايات المتحدة وكندا . وفي دول أخرى مثل أستراليا ونيوزلندا قد يستخدم أحد المصطلحين أو كلاهما . +question : ماذا تسمي كرة القدم في الولايات المتحدة وكندا ؟ +prompt : أجب عن السؤال التالي : ماذا تسمي كرة القدم في الولايات المتحدة وكندا ؟ الجواب هو +pred_answer : أنها لعبة +answer : سوكر + +context : وضعت قوانين كرة القدم في إنجلترا سنة 1863 واستخدم اسم " كرة قدم الاتحاد " ليميز اللعبة عن باقي الألعاب التي كانت تحمل اسم كرة قدم أيضا في ذلك الوقت ، وخصوصا كرة قدم الرجبي . ظهر مصطلح في إنجلترا ، وكان أول ظهور له في ثمانينات القرن التاسع عشر ، اختصارا لكلمة اتحاد بالإنجليزي وهي " " . في عالم المتحدثين بالإنجليزية ، تستخدم كلمة كرة قدم في المملكة المتحدة ، على حين تستخدم كلمة سوكر في الولايات المتحدة وكندا . وفي دول أخرى مثل أستراليا ونيوزلندا قد يستخدم أحد المصطلحين أو كلاهما . +question : متي وضعت قوانين كرة القدم ؟ +prompt : أجب عن السؤال التالي : متي وضعت قوانين كرة القدم ؟ الجواب هو في عام +pred_answer : 1863 +answer : 1863 + +context : غشاء البكارة ( بالإنجليزية : Hymen ) عبارة عن غشاء رقيق من الجلد يغلق فتحة المهبل لدى المرأة البكر وبه فتحة صغيرة جدا تسمح لخروج دم الحيض والغشاء عادة ما يكون رقيقا وليس شفافا وأحيانا قد يكون سميكا ومطاطا صعب الفض . ويستعمل غشاء البكارة للاستدلال على عفة الفتاة البكر في المجتمعات المحافظة مثل الدول الإسلامية والهند وبعض الدول الإفريقية رغم أن هذه الطر قة غير دقيقة في معرفة ف ما إذا انت الفتاة قد اتصلت جنس ا برجل نت جة إ لاج القضيب في مهبلها فهناك العد د من الفت ات فقدن عذر تهن لأسباب لا علاقة لها بالاتصال الجنسي مع الرجل ولكنها تبقى الطريقة السريرية الوحيدة لتحديد وجود علاقة جنسية . +question : ماهو غشاء البكارة ؟ +prompt : أجب عن السؤال التالي : ماهو غشاء البكارة ؟ الجواب هو +pred_answer : أنه عبارة عن فتحة صغيرة في جدار المهبل تسمح بمرور دم الحيض من خلالها +answer : من الجلد يغلق فتحة المهبل لدى المرأة البكر وبه فتحة صغيرة جدا تسمح لخروج + +context : غشاء البكارة ( بالإنجليزية : Hymen ) عبارة عن غشاء رقيق من الجلد يغلق فتحة المهبل لدى المرأة البكر وبه فتحة صغيرة جدا تسمح لخروج دم الحيض والغشاء عادة ما يكون رقيقا وليس شفافا وأحيانا قد يكون سميكا ومطاطا صعب الفض . ويستعمل غشاء البكارة للاستدلال على عفة الفتاة البكر في المجتمعات المحافظة مثل الدول الإسلامية والهند وبعض الدول الإفريقية رغم أن هذه الطر قة غير دقيقة في معرفة ف ما إذا انت الفتاة قد اتصلت جنس ا برجل نت جة إ لاج القضيب في مهبلها فهناك العد د من الفت ات فقدن عذر تهن لأسباب لا علاقة لها بالاتصال الجنسي مع الرجل ولكنها تبقى الطريقة السريرية الوحيدة لتحديد وجود علاقة جنسية . +question : ما أهمية غشاء البكارة في المجتمعات المحافظة ؟ +prompt : أجب عن السؤال التالي : ما أهمية غشاء البكارة في المجتمعات المحافظة ؟ الجواب هو +pred_answer : أن هذا الغشاء يحمي الفتاة من دخول أي جسم غريب إلى مهبلها ، وهذا الجسم الغريب هو +answer : غشاء البكارة للاستدلال على عفة الفتاة البكر في المجتمعات المحافظة مثل الدول الإسلامية والهند + +context : غشاء البكارة ( بالإنجليزية : Hymen ) عبارة عن غشاء رقيق من الجلد يغلق فتحة المهبل لدى المرأة البكر وبه فتحة صغيرة جدا تسمح لخروج دم الحيض والغشاء عادة ما يكون رقيقا وليس شفافا وأحيانا قد يكون سميكا ومطاطا صعب الفض . ويستعمل غشاء البكارة للاستدلال على عفة الفتاة البكر في المجتمعات المحافظة مثل الدول الإسلامية والهند وبعض الدول الإفريقية رغم أن هذه الطر قة غير دقيقة في معرفة ف ما إذا انت الفتاة قد اتصلت جنس ا برجل نت جة إ لاج القضيب في مهبلها فهناك العد د من الفت ات فقدن عذر تهن لأسباب لا علاقة لها بالاتصال الجنسي مع الرجل ولكنها تبقى الطريقة السريرية الوحيدة لتحديد وجود علاقة جنسية . +question : هل يمكن للفتاة العذراء أن تفقد غشاء البكارة بدون اتصال جنسي ؟ +prompt : أجب عن السؤال التالي : هل يمكن للفتاة العذراء أن تفقد غشاء البكارة بدون اتصال جنسي ؟ الجواب هو +pred_answer : نعم ، إذا كانت الفتاة عذراء ولم تمارس الجنس من قبل مع أي رجل . أما إذا +answer : فهناك العد د من الفت ات فقدن عذر تهن لأسباب لا علاقة لها بالاتصال الجنسي + +context : فقد يمكن للطبيب رتق التمزقات الموجودة أو إصلاح غشاء البكارة أو عمل غشاء جديد في الحالات التي لا يجدي فيها الرتق والإصلاح ومن المهم جدا إبلاغ أهل الفتاة أن هناك دائما احتمالا قائما في فشل عمليات رتق أو إصلاح الغشاء . +question : هل يمكن اصلاح غشاء البكارة المتمزق ؟ +prompt : أجب عن السؤال التالي : هل يمكن اصلاح غشاء البكارة المتمزق ؟ الجواب هو +pred_answer : نعم ، وذلك من خلال عملية جراحية بسيطة يتم اجراؤها تحت التخدير +answer : يمكن للطبيب رتق التمزقات الموجودة أو إصلاح غشاء البكارة + +context : فقد يمكن للطبيب رتق التمزقات الموجودة أو إصلاح غشاء البكارة أو عمل غشاء جديد في الحالات التي لا يجدي فيها الرتق والإصلاح ومن المهم جدا إبلاغ أهل الفتاة أن هناك دائما احتمالا قائما في فشل عمليات رتق أو إصلاح الغشاء . +question : ماذا يفعل الطبيب اذا اكتشف استحالة اصلاح غشاء البكارة ؟ +prompt : أجب عن السؤال التالي : ماذا يفعل الطبيب اذا اكتشف استحالة اصلاح غشاء البكارة ؟ الجواب هو +pred_answer : انه يقوم باجراء عملية جراحية لاستئصال هذا الغشاء .هذه +answer : عمل غشاء جديد في الحالات التي لا يجدي فيها الرتق والإصلاح + +context : فقد يمكن للطبيب رتق التمزقات الموجودة أو إصلاح غشاء البكارة أو عمل غشاء جديد في الحالات التي لا يجدي فيها الرتق والإصلاح ومن المهم جدا إبلاغ أهل الفتاة أن هناك دائما احتمالا قائما في فشل عمليات رتق أو إصلاح الغشاء . +question : هل من الممكن أن تفشل عمليات اصلاح غشاء البكارة ؟ +prompt : أجب عن السؤال التالي : هل من الممكن أن تفشل عمليات اصلاح غشاء البكارة ؟ الجواب هو +pred_answer : نعم ، ولكن هذا لا يعني أنه يجب على المرأة أن تتخلى عن +answer : هناك دائما احتمالا قائما في فشل عمليات رتق أو إصلاح الغشاء + +context : وفي حالة وجود تمزقات بغشاء البكارة في أطفال تعرضن لحوادث أو اغتصاب فإنه يفضل عدم إجراء عملية رتق أو إصلاح للغشاء فورا ولذلك لصغر أنسجة الأطفال ورقتها وسهولة إصابتها أثناء العملية مما يؤدي إلى فشلها في كثير من الأحيان . ومن الأفضل تأجيل العملية في هذه الحالة إلى أن تبلغ الطفلة سن الخامسة عشرة حيث تكون الأنسجة أكبر واسمك مما يزيد من فرص نجاح العملية . +question : بماذا ينصج الأطباء في حالات الأطفال اللذين تعرضوا للحوادث أو الاغتصاب ؟ +prompt : أجب عن السؤال التالي : بماذا ينصج الأطباء في حالات الأطفال اللذين تعرضوا للحوادث أو الاغتصاب ؟ الجواب هو +pred_answer : ما يلي : 1 - يجب على الطبيب أن يخبر الأهل بما حدث للطفل .2 - +answer : يفضل عدم إجراء عملية رتق أو إصلاح للغشاء فورا ولذلك لصغر أنسجة الأطفال + +context : وفي حالة وجود تمزقات بغشاء البكارة في أطفال تعرضن لحوادث أو اغتصاب فإنه يفضل عدم إجراء عملية رتق أو إصلاح للغشاء فورا ولذلك لصغر أنسجة الأطفال ورقتها وسهولة إصابتها أثناء العملية مما يؤدي إلى فشلها في كثير من الأحيان . ومن الأفضل تأجيل العملية في هذه الحالة إلى أن تبلغ الطفلة سن الخامسة عشرة حيث تكون الأنسجة أكبر واسمك مما يزيد من فرص نجاح العملية . +question : ما هو السن الأنسب لعمليات رتق غشاء البكارة في الأطفال ؟ +prompt : أجب عن السؤال التالي : ما هو السن الأنسب لعمليات رتق غشاء البكارة في الأطفال ؟ الجواب هو +pred_answer : أن عملية ر +answer : سن الخامسة عشرة + +context : وفي حالة وجود تمزقات بغشاء البكارة في أطفال تعرضن لحوادث أو اغتصاب فإنه يفضل عدم إجراء عملية رتق أو إصلاح للغشاء فورا ولذلك لصغر أنسجة الأطفال ورقتها وسهولة إصابتها أثناء العملية مما يؤدي إلى فشلها في كثير من الأحيان . ومن الأفضل تأجيل العملية في هذه الحالة إلى أن تبلغ الطفلة سن الخامسة عشرة حيث تكون الأنسجة أكبر واسمك مما يزيد من فرص نجاح العملية . +question : لماذا يجب تأجيل عملية رتق غشاء البكارة حتي سن الخامسة عشرة ؟ +prompt : أجب عن السؤال التالي : لماذا يجب تأجيل عملية رتق غشاء البكارة حتي سن الخامسة عشرة ؟ الجواب هو +pred_answer : لأن الفتاة في هذه السن تكون قد بلغت مرحلة النضج العقلي +answer : تكون الأنسجة أكبر واسمك مما يزيد من فرص نجاح العملية + +context : حرب أكتوبر " حرب العاشر من رمضان " كما تعرف في مصر أو حرب تشرين التحريرية كما تعرف في سوريا أو حرب يوم الغفران ( بالعبرية : ، ميلخمت يوم كيبور ) كما تعرف في إسرائيل ، هي حرب شنتها كل من مصر وسوريا على إسرائيل عام 1973 وهي رابع الحروب العربية الإسرائيلية بعد حرب 1948 ( حرب فلسطين ) وحرب 1956 ( حرب السويس ) وحرب 1967 ( حرب الستة أيام ) ، وكانت إسرائيل في الحرب الثالثة قد احتلت شبه جزيرة سيناء من مصر وهضبة الجولان من سوريا إلى جانب الضفة الغربية من الأردن بالإضافة إلى قطاع غزة الخاضع آنذاك لحكم عسكري مصري . عقب بدء الهجوم حققت القوات المسلحة المصرية والسورية أهدافها من شن الحرب على إسرائيل ، وكانت هناك إنجازات ملموسة في الأيام الأولى للمعارك ، فعبرت القوات المصرية قناة السويس بنجاح وحطمت حصون خط بارليف وتوغلت 20 كم شرقا داخل سيناء ، فيما تمكنت القوات السورية من الدخول إلى عمق هضبة الجولان وصولا إلى سهل الحولة وبحيرة طبريا . أما في نهاية الحرب فقد انتعش الجيش الإسرائيلي فعلى الجبهة المصرية تمكن من فتح ثغرة الدفرسوار وعبر للضفة الغربية للقناة وضرب الحصار على الجيش الثالث الميداني ومدينة السويس ولكنه فشل في تحقيق أي مكاسب استراتيجية سواء باحتلال مدينتي الإسماعيلية أو السويس أو تدمير الجيش الثالث أو محاولة رد القوات المصرية للضفة الغربية مرة أخرى ، أما على الجبهة السورية فتمكن من رد القوات السورية عن هضبة الجولان واحتلالها مرة أخرى . +question : ما هي حرب أكتوبر ؟ +prompt : أجب عن السؤال التالي : ما هي حرب أكتوبر ؟ الجواب هو +pred_answer : أنه في يوم السادس من أكتوبر عام 1973 م +answer : هي حرب شنتها كل من مصر وسوريا على إسرائيل عام 1973 + +context : حرب أكتوبر " حرب العاشر من رمضان " كما تعرف في مصر أو حرب تشرين التحريرية كما تعرف في سوريا أو حرب يوم الغفران ( بالعبرية : ، ميلخمت يوم كيبور ) كما تعرف في إسرائيل ، هي حرب شنتها كل من مصر وسوريا على إسرائيل عام 1973 وهي رابع الحروب العربية الإسرائيلية بعد حرب 1948 ( حرب فلسطين ) وحرب 1956 ( حرب السويس ) وحرب 1967 ( حرب الستة أيام ) ، وكانت إسرائيل في الحرب الثالثة قد احتلت شبه جزيرة سيناء من مصر وهضبة الجولان من سوريا إلى جانب الضفة الغربية من الأردن بالإضافة إلى قطاع غزة الخاضع آنذاك لحكم عسكري مصري . عقب بدء الهجوم حققت القوات المسلحة المصرية والسورية أهدافها من شن الحرب على إسرائيل ، وكانت هناك إنجازات ملموسة في الأيام الأولى للمعارك ، فعبرت القوات المصرية قناة السويس بنجاح وحطمت حصون خط بارليف وتوغلت 20 كم شرقا داخل سيناء ، فيما تمكنت القوات السورية من الدخول إلى عمق هضبة الجولان وصولا إلى سهل الحولة وبحيرة طبريا . أما في نهاية الحرب فقد انتعش الجيش الإسرائيلي فعلى الجبهة المصرية تمكن من فتح ثغرة الدفرسوار وعبر للضفة الغربية للقناة وضرب الحصار على الجيش الثالث الميداني ومدينة السويس ولكنه فشل في تحقيق أي مكاسب استراتيجية سواء باحتلال مدينتي الإسماعيلية أو السويس أو تدمير الجيش الثالث أو محاولة رد القوات المصرية للضفة الغربية مرة أخرى ، أما على الجبهة السورية فتمكن من رد القوات السورية عن هضبة الجولان واحتلالها مرة أخرى . +question : بماذا تسمي حرب اكتوبر في اسرائيل ؟ +prompt : أجب عن السؤال التالي : بماذا تسمي حرب اكتوبر في اسرائيل ؟ الجواب هو +pred_answer : ان هذه الحرب +answer : حرب يوم الغفران + +context : تدخلت الولايات المتحدة والاتحاد السوفيتي لتعويض خسائر الأطراف المتحاربة ، فمدت الولايات المتحدة جسرا جويا لإسرائيل بلغ إجمالي ما نقل عبره 27895 طنا ، في حين مد الاتحاد السوفيتي جسرا جويا لكل من مصر وسوريا بلغ إجمالي ما نقل عبره 15000 طنا . وفي نهاية الحرب تم وقف إطلاق النار بعد مماطلات وخداع من الجانب الإسرائيلي . +question : كم بلغ اجمالي ما نقلته الولايات المتحده عبر الجسر الجوي ؟ +prompt : أجب عن السؤال التالي : كم بلغ اجمالي ما نقلته الولايات المتحده عبر الجسر الجوي ؟ الجواب هو +pred_answer : 21 مليار دولار . +answer : 27895 طنا + +context : تدخلت الولايات المتحدة والاتحاد السوفيتي لتعويض خسائر الأطراف المتحاربة ، فمدت الولايات المتحدة جسرا جويا لإسرائيل بلغ إجمالي ما نقل عبره 27895 طنا ، في حين مد الاتحاد السوفيتي جسرا جويا لكل من مصر وسوريا بلغ إجمالي ما نقل عبره 15000 طنا . وفي نهاية الحرب تم وقف إطلاق النار بعد مماطلات وخداع من الجانب الإسرائيلي . +question : ماهي الدولة اللتي مدت جسرا جويا الي مصر وسوريا ؟ +prompt : أجب عن السؤال التالي : ماهي الدولة اللتي مدت جسرا جويا الي مصر وسوريا ؟ الجواب هو +pred_answer : الولايات المتحدة الامريكية +answer : الاتحاد السوفيتي + +context : تدخلت الولايات المتحدة والاتحاد السوفيتي لتعويض خسائر الأطراف المتحاربة ، فمدت الولايات المتحدة جسرا جويا لإسرائيل بلغ إجمالي ما نقل عبره 27895 طنا ، في حين مد الاتحاد السوفيتي جسرا جويا لكل من مصر وسوريا بلغ إجمالي ما نقل عبره 15000 طنا . وفي نهاية الحرب تم وقف إطلاق النار بعد مماطلات وخداع من الجانب الإسرائيلي . +question : كيف انتهت حرب أكتوبر ؟ +prompt : أجب عن السؤال التالي : كيف انتهت حرب أكتوبر ؟ الجواب هو +pred_answer : أن إسرائيل لم تنتصر في هذه الحرب ، بل إن العرب هم الذين انهزموا فيها +answer : وفي نهاية الحرب تم وقف إطلاق النار بعد مماطلات وخداع من الجانب الإسرائيلي + +context : انتهت الحرب رسميا بالتوقيع على اتفاقيات فك الاشتباك بين جميع الأطراف . ومن أهم نتائجها تحطم أسطورة الجيش الإسرائيلي الذي لا يقهر التي كان يدعيها القادة العسكريين في إسرائيل ، وتوقيع معاهدة السلام بين مصر وإسرائيل في 26 مارس آذار 1979 ، واسترداد مصر لسيادتها الكاملة على سيناء وقناة السويس في 25 أبريل نيسان 1982 ، ما عدا طابا التي تم تحريرها عن طريق التحكيم الدولي في 19 مارس آذار 1989 . +question : كيف انتهت حرب أكتوبر رسميا ؟ +prompt : أجب عن السؤال التالي : كيف انتهت حرب أكتوبر رسميا ؟ الجواب هو +pred_answer : أن الرئيس السادات كان قد اتخذ قرارا استراتيجيا بالتفاوض مع إسرائيل +answer : انتهت الحرب رسميا بالتوقيع على اتفاقيات فك الاشتباك بين جميع الأطراف + +context : انتهت الحرب رسميا بالتوقيع على اتفاقيات فك الاشتباك بين جميع الأطراف . ومن أهم نتائجها تحطم أسطورة الجيش الإسرائيلي الذي لا يقهر التي كان يدعيها القادة العسكريين في إسرائيل ، وتوقيع معاهدة السلام بين مصر وإسرائيل في 26 مارس آذار 1979 ، واسترداد مصر لسيادتها الكاملة على سيناء وقناة السويس في 25 أبريل نيسان 1982 ، ما عدا طابا التي تم تحريرها عن طريق التحكيم الدولي في 19 مارس آذار 1989 . +question : ما هي أهم نتائج حرب أكتوبر ؟ +prompt : أجب عن السؤال التالي : ما هي أهم نتائج حرب أكتوبر ؟ الجواب هو +pred_answer : أن إسرائيل لم تعد قادرة على فرض إرادتها على الدول العربية ، كما كانت تفعل في الماضي +answer : الإسرائيلي الذي لا يقهر التي كان يدعيها القادة العسكريين في إسرائيل وتوقيع معاهدة السلام + +context : انتهت الحرب رسميا بالتوقيع على اتفاقيات فك الاشتباك بين جميع الأطراف . ومن أهم نتائجها تحطم أسطورة الجيش الإسرائيلي الذي لا يقهر التي كان يدعيها القادة العسكريين في إسرائيل ، وتوقيع معاهدة السلام بين مصر وإسرائيل في 26 مارس آذار 1979 ، واسترداد مصر لسيادتها الكاملة على سيناء وقناة السويس في 25 أبريل نيسان 1982 ، ما عدا طابا التي تم تحريرها عن طريق التحكيم الدولي في 19 مارس آذار 1989 . +question : متي استردت مصر مدينة طابا ؟ +prompt : أجب عن السؤال التالي : متي استردت مصر مدينة طابا ؟ الجواب هو +pred_answer : في عام 1989 ، +answer : 19 مارس آذار 1989 + +context : نجيب محفوظ ( 11 ديسمبر 1911 - 30 أغسطس 2006 ) روائي مصري ، هو أول عربي حائز على جائزة نوبل في الأدب . كتب نجيب محفوظ منذ بداية الأربعينيات واستمر حتى 2004 . تدور أحداث جميع رواياته في مصر ، وتظهر فيها سيمة متكررة هي الحارة التي تعادل العالم . ولد نجيب محفوظ عبد العزيز إبراهيم أحمد الباشا في حي الجمالية بالقاهرة . والده الذي كان موظفا لم يقرأ كتابا في حياته بعد القرآن غير " حديث عيسى بن هشام " لأن كاتبه المويلحي كان صديقا له ، وفاطمة مصطفى قشيشة ، ابنة الشيخ مصطفى قشيشة من علماء الأزهر . وكان نجيب محفوظ أصغر إخوته ، ولأن الفرق بينه وبين أقرب إخوته سنا إليه كان عشر سنوات فقد عومل كأنه طفل وحيد . كان عمره 7 أعوام حين قامت ثورة 1919 التي أثرت فيه وتذكرها فيما بعد في بين القصرين أول أجزاء ثلاثيته . +question : متي ولد نجيب محفوظ ؟ +prompt : أجب عن السؤال التالي : متي ولد نجيب محفوظ ؟ الجواب هو +pred_answer : أنه ولد في +answer : 11 ديسمبر 1911 + +context : نجيب محفوظ ( 11 ديسمبر 1911 - 30 أغسطس 2006 ) روائي مصري ، هو أول عربي حائز على جائزة نوبل في الأدب . كتب نجيب محفوظ منذ بداية الأربعينيات واستمر حتى 2004 . تدور أحداث جميع رواياته في مصر ، وتظهر فيها سيمة متكررة هي الحارة التي تعادل العالم . ولد نجيب محفوظ عبد العزيز إبراهيم أحمد الباشا في حي الجمالية بالقاهرة . والده الذي كان موظفا لم يقرأ كتابا في حياته بعد القرآن غير " حديث عيسى بن هشام " لأن كاتبه المويلحي كان صديقا له ، وفاطمة مصطفى قشيشة ، ابنة الشيخ مصطفى قشيشة من علماء الأزهر . وكان نجيب محفوظ أصغر إخوته ، ولأن الفرق بينه وبين أقرب إخوته سنا إليه كان عشر سنوات فقد عومل كأنه طفل وحيد . كان عمره 7 أعوام حين قامت ثورة 1919 التي أثرت فيه وتذكرها فيما بعد في بين القصرين أول أجزاء ثلاثيته . +question : ما هي أهم جائزة عالمية حصل عليها نجيب محفوظ ؟ +prompt : أجب عن السؤال التالي : ما هي أهم جائزة عالمية حصل عليها نجيب محفوظ ؟ الجواب هو +pred_answer : جائزة نوبل للآداب عام 1988 +answer : جائزة نوبل في الأدب + +context : نجيب محفوظ ( 11 ديسمبر 1911 - 30 أغسطس 2006 ) روائي مصري ، هو أول عربي حائز على جائزة نوبل في الأدب . كتب نجيب محفوظ منذ بداية الأربعينيات واستمر حتى 2004 . تدور أحداث جميع رواياته في مصر ، وتظهر فيها سيمة متكررة هي الحارة التي تعادل العالم . ولد نجيب محفوظ عبد العزيز إبراهيم أحمد الباشا في حي الجمالية بالقاهرة . والده الذي كان موظفا لم يقرأ كتابا في حياته بعد القرآن غير " حديث عيسى بن هشام " لأن كاتبه المويلحي كان صديقا له ، وفاطمة مصطفى قشيشة ، ابنة الشيخ مصطفى قشيشة من علماء الأزهر . وكان نجيب محفوظ أصغر إخوته ، ولأن الفرق بينه وبين أقرب إخوته سنا إليه كان عشر سنوات فقد عومل كأنه طفل وحيد . كان عمره 7 أعوام حين قامت ثورة 1919 التي أثرت فيه وتذكرها فيما بعد في بين القصرين أول أجزاء ثلاثيته . +question : أين تدور أحداث جميع روايات نجيب محفوظ ؟ +prompt : أجب عن السؤال التالي : أين تدور أحداث جميع روايات نجيب محفوظ ؟ الجواب هو +pred_answer : أنها تدور في مصر ، وفي القاهرة +answer : تدور أحداث جميع رواياته في مصر + +context : التحق بجامعة القاهرة في 1930 وحصل على ليسانس الفلسفة ، شرع بعدها في إعداد رسالة الماجستير عن الجمال في الفلسفة الإسلامية ثم غير رأيه وقرر التركيز على الأدب . انضم إلى السلك الحكومي ليعمل سكرتيرا برلمانيا في وزارة الأوقاف ( 1938 - 1945 ) ، ثم مديرا لمؤسسة القرض الحسن في الوزارة حتى 1954 . وعمل بعدها مديرا لمكتب وزير الإرشاد ، ثم انتقل إلى وزارة الثقافة مديرا للرقابة على المصنفات الفنية . وفي 1960 عمل مديرا عاما لمؤسسة دعم السينما ، ثم مستشارا للمؤسسة العامة للسينما والإذاعة والتلفزيون . آخر منصب حكومي شغله كان رئيس مجلس إدارة المؤسسة العامة للسينما ( 1966 - 1971 ) ، وتقاعد بعده ليصبح أحد كتاب مؤسسة الأهرام . +question : ما هو المؤهل الدراسي اللذي حصل عليه نجيب محفوظ ؟ +prompt : أجب عن السؤال التالي : ما هو المؤهل الدراسي اللذي حصل عليه نجيب محفوظ ؟ الجواب هو +pred_answer : : ليسانس الآداب قسم +answer : ليسانس الفلسفة + +context : التحق بجامعة القاهرة في 1930 وحصل على ليسانس الفلسفة ، شرع بعدها في إعداد رسالة الماجستير عن الجمال في الفلسفة الإسلامية ثم غير رأيه وقرر التركيز على الأدب . انضم إلى السلك الحكومي ليعمل سكرتيرا برلمانيا في وزارة الأوقاف ( 1938 - 1945 ) ، ثم مديرا لمؤسسة القرض الحسن في الوزارة حتى 1954 . وعمل بعدها مديرا لمكتب وزير الإرشاد ، ثم انتقل إلى وزارة الثقافة مديرا للرقابة على المصنفات الفنية . وفي 1960 عمل مديرا عاما لمؤسسة دعم السينما ، ثم مستشارا للمؤسسة العامة للسينما والإذاعة والتلفزيون . آخر منصب حكومي شغله كان رئيس مجلس إدارة المؤسسة العامة للسينما ( 1966 - 1971 ) ، وتقاعد بعده ليصبح أحد كتاب مؤسسة الأهرام . +question : ماهو أول منصب حكومي شغله نجيب محفوظ ؟ +prompt : أجب عن السؤال التالي : ماهو أول منصب حكومي شغله نجيب محفوظ ؟ الجواب هو +pred_answer : رئاسة مجلس إدارة بنك التسليف الزراعي . +answer : سكرتيرا برلمانيا في وزارة الأوقاف + +context : التحق بجامعة القاهرة في 1930 وحصل على ليسانس الفلسفة ، شرع بعدها في إعداد رسالة الماجستير عن الجمال في الفلسفة الإسلامية ثم غير رأيه وقرر التركيز على الأدب . انضم إلى السلك الحكومي ليعمل سكرتيرا برلمانيا في وزارة الأوقاف ( 1938 - 1945 ) ، ثم مديرا لمؤسسة القرض الحسن في الوزارة حتى 1954 . وعمل بعدها مديرا لمكتب وزير الإرشاد ، ثم انتقل إلى وزارة الثقافة مديرا للرقابة على المصنفات الفنية . وفي 1960 عمل مديرا عاما لمؤسسة دعم السينما ، ثم مستشارا للمؤسسة العامة للسينما والإذاعة والتلفزيون . آخر منصب حكومي شغله كان رئيس مجلس إدارة المؤسسة العامة للسينما ( 1966 - 1971 ) ، وتقاعد بعده ليصبح أحد كتاب مؤسسة الأهرام . +question : ما هو اخر منصب حكومي شغله نجيب محفوظ ؟ +prompt : أجب عن السؤال التالي : ما هو اخر منصب حكومي شغله نجيب محفوظ ؟ الجواب هو +pred_answer : انه شغل منصب رئيس مجلس ادارة مؤسسة +answer : رئيس مجلس إدارة المؤسسة العامة للسينما + +context : تزوج نجيب محفوظ في فترة توقفه عن الكتابة بعد ثورة 1952 من السيدة عطية الله إبراهيم ، وأخفى خبر زواجه عمن حوله لعشر سنوات متعللا عن عدم زواجه بانشغاله برعاية أمه وأخته الأرملة وأطفالها . في تلك الفترة كان دخله قد ازداد من عمله في كتابة سيناريوهات الأفلام وأصبح لديه من المال ما يكفي لتأسيس عائلة . ولم يعرف عن زواجه إلا بعد عشر سنوات من حدوثه عندما تشاجرت إحدى ابنتيه أم كلثوم وفاطمة مع زميلة لها في المدرسة ، فعرف الشاعر صلاح جاهين بالأمر من والد الطالبة ، وانتشر الخبر بين المعارف . +question : ما اسم زوجة نجيب محفوظ ؟ +prompt : أجب عن السؤال التالي : ما اسم زوجة نجيب محفوظ ؟ الجواب هو +pred_answer : « أم كلثوم » . +answer : السيدة عطية الله إبراهيم + +context : تزوج نجيب محفوظ في فترة توقفه عن الكتابة بعد ثورة 1952 من السيدة عطية الله إبراهيم ، وأخفى خبر زواجه عمن حوله لعشر سنوات متعللا عن عدم زواجه بانشغاله برعاية أمه وأخته الأرملة وأطفالها . في تلك الفترة كان دخله قد ازداد من عمله في كتابة سيناريوهات الأفلام وأصبح لديه من المال ما يكفي لتأسيس عائلة . ولم يعرف عن زواجه إلا بعد عشر سنوات من حدوثه عندما تشاجرت إحدى ابنتيه أم كلثوم وفاطمة مع زميلة لها في المدرسة ، فعرف الشاعر صلاح جاهين بالأمر من والد الطالبة ، وانتشر الخبر بين المعارف . +question : لماذا أخفي نجيب محفوظ خبر زواجه ؟ +prompt : أجب عن السؤال التالي : لماذا أخفي نجيب محفوظ خبر زواجه ؟ الجواب هو +pred_answer : أن نجيب محفوظ لم يتزوج أبدا ، ولم يفكر في الزواج مطلقا ، كما أنه لم يكن متزوجا من قبل .و +answer : عمن حوله لعشر سنوات متعللا عن عدم زواجه بانشغاله برعاية أمه وأخته الأرملة وأطفالها + +context : تزوج نجيب محفوظ في فترة توقفه عن الكتابة بعد ثورة 1952 من السيدة عطية الله إبراهيم ، وأخفى خبر زواجه عمن حوله لعشر سنوات متعللا عن عدم زواجه بانشغاله برعاية أمه وأخته الأرملة وأطفالها . في تلك الفترة كان دخله قد ازداد من عمله في كتابة سيناريوهات الأفلام وأصبح لديه من المال ما يكفي لتأسيس عائلة . ولم يعرف عن زواجه إلا بعد عشر سنوات من حدوثه عندما تشاجرت إحدى ابنتيه أم كلثوم وفاطمة مع زميلة لها في المدرسة ، فعرف الشاعر صلاح جاهين بالأمر من والد الطالبة ، وانتشر الخبر بين المعارف . +question : ما أسماء ابنتي نجيب محفوظ ؟ +prompt : أجب عن السؤال التالي : ما أسماء ابنتي نجيب محفوظ ؟ الجواب هو +pred_answer : : نجيب محفوظ +answer : أم كلثوم وفاطمة + +context : غزوة بدر ( وتسمى أيضا غزوة بدر الكبرى وبدر القتال ويوم الفرقان ) هي غزوة وقعت في السابع عشر من رمضان في العام الثاني من الهجرة ( الموافق 13 مارس 624 م ) بين المسلمين بقيادة رسول الإسلام محمد ، وقبيلة قريش ومن حالفها من العرب بقيادة عمرو بن هشام المخزومي القرشي . بدأت المعركة بمحاولة المسلمين اعتراض عير لقريش متوجهة من الشام إلى مكة يقودها أبو سفيان بن حرب ، ولكن أبا سفيان تمكن من الفرار بالقافلة ، وأرسل رسولا إلى قريش يطلب عونهم ونجدتهم ، فاستجابت قريش وخرجت لقتال المسلمين . كان عدد المسلمين في غزوة بدر ثلاثمائة وبضعة عشر رجلا ، معهم فرسان وسبعون جملا ، وكان تعداد جيش قريش ألف رجل معهم مئتا فرس ، أي كانوا يشكلون ثلاثة أضعاف جيش المسلمين من حيث العدد تقريبا . وانتهت غزوة بدر بانتصار المسلمين على قريش وقتل قائدهم عمرو بن هشام ، وكان عدد من قتل من قريش في غزوة بدر سبعين رجلا وأسر منهم سبعون آخرون ، أما المسلمون فلم يقتل منهم سوى أربعة عشر رجلا ، ستة منهم من المهاجرين وثمانية من الأنصار . تمخضت عن غزوة بدر عدة نتائج نافعة بالنسبة للمسلمين ، منها أنهم أصبحوا مهابين في المدينة وما جاورها ، وأصبح لدولتهم مصدر جديد للدخل وهو غنائم المعارك ، وبذلك تحسن حال المسلمين المادي والاقتصادي والمعنوي . +question : متى وقعت غزوة بدر ؟ +prompt : أجب عن السؤال التالي : متى وقعت غزوة بدر ؟ الجواب هو +pred_answer : : في السنة الثانية من الهجرة ، حيث كان المسلمون +answer : السابع عشر من رمضان في العام الثاني من الهجرة + +context : غزوة بدر ( وتسمى أيضا غزوة بدر الكبرى وبدر القتال ويوم الفرقان ) هي غزوة وقعت في السابع عشر من رمضان في العام الثاني من الهجرة ( الموافق 13 مارس 624 م ) بين المسلمين بقيادة رسول الإسلام محمد ، وقبيلة قريش ومن حالفها من العرب بقيادة عمرو بن هشام المخزومي القرشي . بدأت المعركة بمحاولة المسلمين اعتراض عير لقريش متوجهة من الشام إلى مكة يقودها أبو سفيان بن حرب ، ولكن أبا سفيان تمكن من الفرار بالقافلة ، وأرسل رسولا إلى قريش يطلب عونهم ونجدتهم ، فاستجابت قريش وخرجت لقتال المسلمين . كان عدد المسلمين في غزوة بدر ثلاثمائة وبضعة عشر رجلا ، معهم فرسان وسبعون جملا ، وكان تعداد جيش قريش ألف رجل معهم مئتا فرس ، أي كانوا يشكلون ثلاثة أضعاف جيش المسلمين من حيث العدد تقريبا . وانتهت غزوة بدر بانتصار المسلمين على قريش وقتل قائدهم عمرو بن هشام ، وكان عدد من قتل من قريش في غزوة بدر سبعين رجلا وأسر منهم سبعون آخرون ، أما المسلمون فلم يقتل منهم سوى أربعة عشر رجلا ، ستة منهم من المهاجرين وثمانية من الأنصار . تمخضت عن غزوة بدر عدة نتائج نافعة بالنسبة للمسلمين ، منها أنهم أصبحوا مهابين في المدينة وما جاورها ، وأصبح لدولتهم مصدر جديد للدخل وهو غنائم المعارك ، وبذلك تحسن حال المسلمين المادي والاقتصادي والمعنوي . +question : بين من كانت المعركة ؟ +prompt : أجب عن السؤال التالي : بين من كانت المعركة ؟ الجواب هو +pred_answer : ما يلي : لم تكن هناك معركة بالمعنى الحقيقي للكلمة ، ولم يكن هناك قتال حقيقي . +answer : بين المسلمين بقيادة رسول الإسلام محمد وقبيلة قريش ومن حالفها من العرب بقيادة عمرو + +context : غزوة بدر ( وتسمى أيضا غزوة بدر الكبرى وبدر القتال ويوم الفرقان ) هي غزوة وقعت في السابع عشر من رمضان في العام الثاني من الهجرة ( الموافق 13 مارس 624 م ) بين المسلمين بقيادة رسول الإسلام محمد ، وقبيلة قريش ومن حالفها من العرب بقيادة عمرو بن هشام المخزومي القرشي . بدأت المعركة بمحاولة المسلمين اعتراض عير لقريش متوجهة من الشام إلى مكة يقودها أبو سفيان بن حرب ، ولكن أبا سفيان تمكن من الفرار بالقافلة ، وأرسل رسولا إلى قريش يطلب عونهم ونجدتهم ، فاستجابت قريش وخرجت لقتال المسلمين . كان عدد المسلمين في غزوة بدر ثلاثمائة وبضعة عشر رجلا ، معهم فرسان وسبعون جملا ، وكان تعداد جيش قريش ألف رجل معهم مئتا فرس ، أي كانوا يشكلون ثلاثة أضعاف جيش المسلمين من حيث العدد تقريبا . وانتهت غزوة بدر بانتصار المسلمين على قريش وقتل قائدهم عمرو بن هشام ، وكان عدد من قتل من قريش في غزوة بدر سبعين رجلا وأسر منهم سبعون آخرون ، أما المسلمون فلم يقتل منهم سوى أربعة عشر رجلا ، ستة منهم من المهاجرين وثمانية من الأنصار . تمخضت عن غزوة بدر عدة نتائج نافعة بالنسبة للمسلمين ، منها أنهم أصبحوا مهابين في المدينة وما جاورها ، وأصبح لدولتهم مصدر جديد للدخل وهو غنائم المعارك ، وبذلك تحسن حال المسلمين المادي والاقتصادي والمعنوي . +question : كم كتن عدد المسلمين ؟ +prompt : أجب عن السؤال التالي : كم كتن عدد المسلمين ؟ الجواب هو +pred_answer : : 1 . 5 مليار مسلم ، +answer : ثلاثمائة وبضعة عشر رجلا + +context : خرج رسول الإسلام محمد في شهري جمادى الأولى وجمادى الآخرة سنة 2 ه في مئة وخمسين أو مئتين من المهاجرين لاعتراض عير لقريش ذاهبة من مكة إلى الشام ، فلما وصل مكانا يسمى " ذا العشيرة " وجد العير قد فاتته بأيام . فلما اقترب رجوع العير من الشام إلى مكة ، بعث الرسول محمد طلحة بن عبيد الله وسعيد بن زيد إلى الشمال ليقوما باكتشاف خبرها ، فوصلا إلى منطقة تسمى الحوراء ، ومكثا حتى مر بهما أبو سفيان بن حرب بالعير ، فأسرعا إلى المدينة وأخبرا الرسول محمدا بالخبر . وقد كانت هذه العير قافلة تجارية كبيرة قادمة من الشام تحمل أموالا عظيمة لقريش ، وكان يقودها أبو سفيان ، ويقوم على حراستها بين ثلاثين وأربعين رجلا . +question : من كان يقود القافلة ؟ +prompt : أجب عن السؤال التالي : من كان يقود القافلة ؟ الجواب هو +pred_answer : عبد الله +answer : أبو سفيان + +context : خرج رسول الإسلام محمد في شهري جمادى الأولى وجمادى الآخرة سنة 2 ه في مئة وخمسين أو مئتين من المهاجرين لاعتراض عير لقريش ذاهبة من مكة إلى الشام ، فلما وصل مكانا يسمى " ذا العشيرة " وجد العير قد فاتته بأيام . فلما اقترب رجوع العير من الشام إلى مكة ، بعث الرسول محمد طلحة بن عبيد الله وسعيد بن زيد إلى الشمال ليقوما باكتشاف خبرها ، فوصلا إلى منطقة تسمى الحوراء ، ومكثا حتى مر بهما أبو سفيان بن حرب بالعير ، فأسرعا إلى المدينة وأخبرا الرسول محمدا بالخبر . وقد كانت هذه العير قافلة تجارية كبيرة قادمة من الشام تحمل أموالا عظيمة لقريش ، وكان يقودها أبو سفيان ، ويقوم على حراستها بين ثلاثين وأربعين رجلا . +question : كم رجلا كان يحرسون القافلة ؟ +prompt : أجب عن السؤال التالي : كم رجلا كان يحرسون القافلة ؟ الجواب هو +pred_answer : رجل واحد فقط ، وهو +answer : ثلاثين وأربعين رجلا + +context : خرج رسول الإسلام محمد في شهري جمادى الأولى وجمادى الآخرة سنة 2 ه في مئة وخمسين أو مئتين من المهاجرين لاعتراض عير لقريش ذاهبة من مكة إلى الشام ، فلما وصل مكانا يسمى " ذا العشيرة " وجد العير قد فاتته بأيام . فلما اقترب رجوع العير من الشام إلى مكة ، بعث الرسول محمد طلحة بن عبيد الله وسعيد بن زيد إلى الشمال ليقوما باكتشاف خبرها ، فوصلا إلى منطقة تسمى الحوراء ، ومكثا حتى مر بهما أبو سفيان بن حرب بالعير ، فأسرعا إلى المدينة وأخبرا الرسول محمدا بالخبر . وقد كانت هذه العير قافلة تجارية كبيرة قادمة من الشام تحمل أموالا عظيمة لقريش ، وكان يقودها أبو سفيان ، ويقوم على حراستها بين ثلاثين وأربعين رجلا . +question : من بعث الرسول محمد ليكتشف خبر القافلة ؟ +prompt : أجب عن السؤال التالي : من بعث الرسول محمد ليكتشف خبر القافلة ؟ الجواب هو +pred_answer : الله سبحانه وتعالى ، قال تعالى : { +answer : طلحة بن عبيد الله وسعيد بن زيد + +context : لقد أرسل الرسول محمد بسبس بن عمرو ليقوم بجمع المعلومات عن القافلة ، فلما عاد بسبس بالخبر اليقين ، ندب الرسول محمد أصحابه للخروج وقال لهم : ، ولكن الرسول محمدا لم يعزم على أحد بالخروج ، لأنه لم يكن يتوقع عند هذا الخروج أنه خارج للقتال في معركة مع قريش ، ولذلك تخلف كثير من الصحابة في المدينة ، ولم ينكر على أحد تخلفه في هذه الغزوة ، ومن المؤكد أنه حين خرج الرسول محمد من المدينة لم يكن في نيته قتال ، وإنما كان قصده عير قريش التي كانت فيها أموال كان جزء منها للمهاجرين المسلمين من أهل مكة ، وقد استولت عليها قريش ظلما وعدوانا . +question : من أرسل الرسول محمد ليقوم بجمع المعلومات عن القافلة ؟ +prompt : أجب عن السؤال التالي : من أرسل الرسول محمد ليقوم بجمع المعلومات عن القافلة ؟ الجواب هو +pred_answer : : الله سبحانه وتعالى . +answer : محمد بسبس بن عمرو + +context : لقد أرسل الرسول محمد بسبس بن عمرو ليقوم بجمع المعلومات عن القافلة ، فلما عاد بسبس بالخبر اليقين ، ندب الرسول محمد أصحابه للخروج وقال لهم : ، ولكن الرسول محمدا لم يعزم على أحد بالخروج ، لأنه لم يكن يتوقع عند هذا الخروج أنه خارج للقتال في معركة مع قريش ، ولذلك تخلف كثير من الصحابة في المدينة ، ولم ينكر على أحد تخلفه في هذه الغزوة ، ومن المؤكد أنه حين خرج الرسول محمد من المدينة لم يكن في نيته قتال ، وإنما كان قصده عير قريش التي كانت فيها أموال كان جزء منها للمهاجرين المسلمين من أهل مكة ، وقد استولت عليها قريش ظلما وعدوانا . +question : هل أنكر الرسول محمد على أصحابه الذين لم يخرجوا ؟ +prompt : أجب عن السؤال التالي : هل أنكر الرسول محمد على أصحابه الذين لم يخرجوا ؟ الجواب هو +pred_answer : نعم ، فقد روى البخاري ومسلم في صحيحيهما +answer : ولم ينكر على أحد تخلفه في هذه الغزوة + +context : لقد أرسل الرسول محمد بسبس بن عمرو ليقوم بجمع المعلومات عن القافلة ، فلما عاد بسبس بالخبر اليقين ، ندب الرسول محمد أصحابه للخروج وقال لهم : ، ولكن الرسول محمدا لم يعزم على أحد بالخروج ، لأنه لم يكن يتوقع عند هذا الخروج أنه خارج للقتال في معركة مع قريش ، ولذلك تخلف كثير من الصحابة في المدينة ، ولم ينكر على أحد تخلفه في هذه الغزوة ، ومن المؤكد أنه حين خرج الرسول محمد من المدينة لم يكن في نيته قتال ، وإنما كان قصده عير قريش التي كانت فيها أموال كان جزء منها للمهاجرين المسلمين من أهل مكة ، وقد استولت عليها قريش ظلما وعدوانا . +question : هل كان في نية الرسول محمد القتال ؟ +prompt : أجب عن السؤال التالي : هل كان في نية الرسول محمد القتال ؟ الجواب هو +pred_answer : نعم ، فقد قال الله تعالى : { أذن للذين يقاتلون بأنهم ظلموا وإن الله على نصر +answer : وإنما كان قصده عير قريش التي كانت فيها أموال كان جزء منها للمهاجرين المسلمين + +context : أبو الملوك السلطان الغازي فخر الدين قره عثمان خان الأول بن أرطغرل بن سليمان شاه القايوي التركماني ( بالتركية العثمانية : أبو الملوك غازى سلطان عثمان خان أول بن ارطغرل ؛ وبالتركية المعاصرة : Sultan Osman Gazi Han ben Ertu rul ) ، ويعرف كذلك باسم عثمان بك ( بالتركية المعاصرة : Osman Bey ) وقره عثمان ( بالتركية المعاصرة : Kara Osman ) ؛ هو زعيم عشيرة قايى التركية وعامل سلاجقة الروم على إحدى إمارات الثغور الأناضولية ومؤسس السلالة العثمانية التي حكمت البلقان والأناضول والمشرق العربي وشمال أفريقيا طيلة 600 عام إلى أن انقضى أجلها مع إعلان قيام الجمهورية التركية سنة 1922 م . ولد عثمان الأول سنة 656 ه الموافقة لسنة 1258 م ، للأمير أرطغرل الغازي ، عامل سلاجقة الروم على إحدى الثغور المطلة على بحر مرمرة ، وحليمة خاتون . وصودف أن يولد في ذات اليوم الذي غزا خلاله المغول مدينة بغداد عاصمة الدولة العباسية وحاضرة الخلافة الإسلامية ، الأمر الذي جعل المؤرخين العثمانيين اللاحقين يربطون بين الحدثين بطريقة دراماتيكية . تولى عثمان شؤون الإمارة وزعامة العشيرة بعد وفاة والده ، فأخلص الولاء للسلطنة السلجوقية الرومية على الرغم مما كانت تتخبط فيه من اضطراب وما كان يتهددها من أخطار . وفي سنة 1295 م شرع عثمان بمهاجمة الثغور البيزنطية باسم السلطان السلجوقي والخليفة العباسي ، ففتح عدة حصون وقاد عشيرته إلى سواحل بحر مرمرة والبحر الأسود . وحين تغلب المغول على سلاجقة الروم وقضوا على دولتهم ، سارع عثمان إلى إعلان استقلاله عن السلاجقة ، فكان بذلك المؤسس الحقيقي لدولة تركية كبرى نسبت إليه فيما بعد ، فعرفت « بالعثمانية » . وظل عثمان يحكم الدولة الجديدة بصفته سلطانا مستقلا حتى سنة 1326 م . وفي هذه السنة فتح ابنه أورخان مدينة بورصة الواقعة على مقربة من بحر مرمرة ، وكان عثمان في هذه الفترة قد مرض مرض الموت ، وما لبث أن توفي ، فنقل جثمانه إلى بورصة ودفن فيها ، الأمر الذي جعل للمدينة رمزية كبيرة عند العثمانيين لاحقا . أما خلفائه وذريته فقد تابعوا الحملات التي بدأ فيها حتى أواسط القرن السابع عشر الميلادي ، محولين الإمارة التي وضع أسسها إلى إمبراطورية عالمية . +question : متى ولد عثمان الأول ؟ +prompt : أجب عن السؤال التالي : متى ولد عثمان الأول ؟ الجواب هو +pred_answer : : في شهر رمضان المبارك من عام 654 ه +answer : 656 ه الموافقة لسنة 1258 م + +context : أبو الملوك السلطان الغازي فخر الدين قره عثمان خان الأول بن أرطغرل بن سليمان شاه القايوي التركماني ( بالتركية العثمانية : أبو الملوك غازى سلطان عثمان خان أول بن ارطغرل ؛ وبالتركية المعاصرة : Sultan Osman Gazi Han ben Ertu rul ) ، ويعرف كذلك باسم عثمان بك ( بالتركية المعاصرة : Osman Bey ) وقره عثمان ( بالتركية المعاصرة : Kara Osman ) ؛ هو زعيم عشيرة قايى التركية وعامل سلاجقة الروم على إحدى إمارات الثغور الأناضولية ومؤسس السلالة العثمانية التي حكمت البلقان والأناضول والمشرق العربي وشمال أفريقيا طيلة 600 عام إلى أن انقضى أجلها مع إعلان قيام الجمهورية التركية سنة 1922 م . ولد عثمان الأول سنة 656 ه الموافقة لسنة 1258 م ، للأمير أرطغرل الغازي ، عامل سلاجقة الروم على إحدى الثغور المطلة على بحر مرمرة ، وحليمة خاتون . وصودف أن يولد في ذات اليوم الذي غزا خلاله المغول مدينة بغداد عاصمة الدولة العباسية وحاضرة الخلافة الإسلامية ، الأمر الذي جعل المؤرخين العثمانيين اللاحقين يربطون بين الحدثين بطريقة دراماتيكية . تولى عثمان شؤون الإمارة وزعامة العشيرة بعد وفاة والده ، فأخلص الولاء للسلطنة السلجوقية الرومية على الرغم مما كانت تتخبط فيه من اضطراب وما كان يتهددها من أخطار . وفي سنة 1295 م شرع عثمان بمهاجمة الثغور البيزنطية باسم السلطان السلجوقي والخليفة العباسي ، ففتح عدة حصون وقاد عشيرته إلى سواحل بحر مرمرة والبحر الأسود . وحين تغلب المغول على سلاجقة الروم وقضوا على دولتهم ، سارع عثمان إلى إعلان استقلاله عن السلاجقة ، فكان بذلك المؤسس الحقيقي لدولة تركية كبرى نسبت إليه فيما بعد ، فعرفت « بالعثمانية » . وظل عثمان يحكم الدولة الجديدة بصفته سلطانا مستقلا حتى سنة 1326 م . وفي هذه السنة فتح ابنه أورخان مدينة بورصة الواقعة على مقربة من بحر مرمرة ، وكان عثمان في هذه الفترة قد مرض مرض الموت ، وما لبث أن توفي ، فنقل جثمانه إلى بورصة ودفن فيها ، الأمر الذي جعل للمدينة رمزية كبيرة عند العثمانيين لاحقا . أما خلفائه وذريته فقد تابعوا الحملات التي بدأ فيها حتى أواسط القرن السابع عشر الميلادي ، محولين الإمارة التي وضع أسسها إلى إمبراطورية عالمية . +question : متى قامت الجمهورية التركية ؟ +prompt : أجب عن السؤال التالي : متى قامت الجمهورية التركية ؟ الجواب هو +pred_answer : عندما قام مصطفى كمال أتاتورك +answer : 1922 م + +context : أبو الملوك السلطان الغازي فخر الدين قره عثمان خان الأول بن أرطغرل بن سليمان شاه القايوي التركماني ( بالتركية العثمانية : أبو الملوك غازى سلطان عثمان خان أول بن ارطغرل ؛ وبالتركية المعاصرة : Sultan Osman Gazi Han ben Ertu rul ) ، ويعرف كذلك باسم عثمان بك ( بالتركية المعاصرة : Osman Bey ) وقره عثمان ( بالتركية المعاصرة : Kara Osman ) ؛ هو زعيم عشيرة قايى التركية وعامل سلاجقة الروم على إحدى إمارات الثغور الأناضولية ومؤسس السلالة العثمانية التي حكمت البلقان والأناضول والمشرق العربي وشمال أفريقيا طيلة 600 عام إلى أن انقضى أجلها مع إعلان قيام الجمهورية التركية سنة 1922 م . ولد عثمان الأول سنة 656 ه الموافقة لسنة 1258 م ، للأمير أرطغرل الغازي ، عامل سلاجقة الروم على إحدى الثغور المطلة على بحر مرمرة ، وحليمة خاتون . وصودف أن يولد في ذات اليوم الذي غزا خلاله المغول مدينة بغداد عاصمة الدولة العباسية وحاضرة الخلافة الإسلامية ، الأمر الذي جعل المؤرخين العثمانيين اللاحقين يربطون بين الحدثين بطريقة دراماتيكية . تولى عثمان شؤون الإمارة وزعامة العشيرة بعد وفاة والده ، فأخلص الولاء للسلطنة السلجوقية الرومية على الرغم مما كانت تتخبط فيه من اضطراب وما كان يتهددها من أخطار . وفي سنة 1295 م شرع عثمان بمهاجمة الثغور البيزنطية باسم السلطان السلجوقي والخليفة العباسي ، ففتح عدة حصون وقاد عشيرته إلى سواحل بحر مرمرة والبحر الأسود . وحين تغلب المغول على سلاجقة الروم وقضوا على دولتهم ، سارع عثمان إلى إعلان استقلاله عن السلاجقة ، فكان بذلك المؤسس الحقيقي لدولة تركية كبرى نسبت إليه فيما بعد ، فعرفت « بالعثمانية » . وظل عثمان يحكم الدولة الجديدة بصفته سلطانا مستقلا حتى سنة 1326 م . وفي هذه السنة فتح ابنه أورخان مدينة بورصة الواقعة على مقربة من بحر مرمرة ، وكان عثمان في هذه الفترة قد مرض مرض الموت ، وما لبث أن توفي ، فنقل جثمانه إلى بورصة ودفن فيها ، الأمر الذي جعل للمدينة رمزية كبيرة عند العثمانيين لاحقا . أما خلفائه وذريته فقد تابعوا الحملات التي بدأ فيها حتى أواسط القرن السابع عشر الميلادي ، محولين الإمارة التي وضع أسسها إلى إمبراطورية عالمية . +question : لمن ولد عثمان الأول ؟ +prompt : أجب عن السؤال التالي : لمن ولد عثمان الأول ؟ الجواب هو +pred_answer : : إن عثمان بن أرطغرل +answer : للأمير أرطغرل الغازي + +context : رغم شيوع لقب « السلطان » أو « ال اديشاه » والتصاقه بعثمان الأول إلا أنه لم يكن سلطانا فعليا في زمانه ، وإنما لقب بذلك لاحقا لاعتباره مؤسس سلالة السلاطين العثمانيين . اشتهر عثمان الأول ببساطة العيش والملبس لتأثره بمعتقدات الدراويش الصوفية ، وكان بعيدا عن الترف والبذخ ، فحافظ على نمط حياته كشيخ لعشيرة قايى ، وحافظ على التقاليد التركية القديمة التي تحكم العلاقة بين الشيخ وأفراد العشيرة ، وهي تقاليد سابقة على الإسلام لم يهجرها الترك لعدم تعارضها مع تعاليم الشريعة الإسلامية . +question : بماذا تأثر عثمان الأول ؟ +prompt : أجب عن السؤال التالي : بماذا تأثر عثمان الأول ؟ الجواب هو +pred_answer : أن السلطان محمد الفاتح كان متأثرا جدا +answer : لتأثره بمعتقدات الدراويش الصوفية + +context : رغم شيوع لقب « السلطان » أو « ال اديشاه » والتصاقه بعثمان الأول إلا أنه لم يكن سلطانا فعليا في زمانه ، وإنما لقب بذلك لاحقا لاعتباره مؤسس سلالة السلاطين العثمانيين . اشتهر عثمان الأول ببساطة العيش والملبس لتأثره بمعتقدات الدراويش الصوفية ، وكان بعيدا عن الترف والبذخ ، فحافظ على نمط حياته كشيخ لعشيرة قايى ، وحافظ على التقاليد التركية القديمة التي تحكم العلاقة بين الشيخ وأفراد العشيرة ، وهي تقاليد سابقة على الإسلام لم يهجرها الترك لعدم تعارضها مع تعاليم الشريعة الإسلامية . +question : بماذا اشتهر عثمان الأول ؟ +prompt : أجب عن السؤال التالي : بماذا اشتهر عثمان الأول ؟ الجواب هو +pred_answer : ما ذكره ابن الأثير في +answer : ببساطة العيش والملبس + +context : رغم شيوع لقب « السلطان » أو « ال اديشاه » والتصاقه بعثمان الأول إلا أنه لم يكن سلطانا فعليا في زمانه ، وإنما لقب بذلك لاحقا لاعتباره مؤسس سلالة السلاطين العثمانيين . اشتهر عثمان الأول ببساطة العيش والملبس لتأثره بمعتقدات الدراويش الصوفية ، وكان بعيدا عن الترف والبذخ ، فحافظ على نمط حياته كشيخ لعشيرة قايى ، وحافظ على التقاليد التركية القديمة التي تحكم العلاقة بين الشيخ وأفراد العشيرة ، وهي تقاليد سابقة على الإسلام لم يهجرها الترك لعدم تعارضها مع تعاليم الشريعة الإسلامية . +question : أي سلالة أسسها عثمان الأول ؟ +prompt : أجب عن السؤال التالي : أي سلالة أسسها عثمان الأول ؟ الجواب هو +pred_answer : السلالة السلجوقية +answer : سلالة السلاطين العثمانيين + +context : أوروبا إحدى قارات العالم السبع . وجغرافيا تعد شبه جزيرة كبيرة تكون الجزء الغربي الممتد من أوراسيا بين جبال الأورال وجبال القوقاز وبحر قزوين من الشرق والمحيط الأطلسي من الغرب والبحر الأبيض المتوسط والبحر الأسود ومنطقة القوقاز من الجنوب والمحيط المتجمد الشمالي من الشمال . وكلمة أوربا أصلها إغريقي ( باليونانية : ) وتعني الوجه العريض ، وتصل مساحة القارة لحوالي 10 . 180 مليون ( 7 . 1 % من مساحة الأرض ) . وهي القارة الثالثة من حيث عدد السكان في العالم إذ يزيد عدد سكانها عن 700 مليون نسمة ( أي 11 % من سكان الأرض ) . تمتد روسيا وهي أكبر بلد أوروبي عبر كامل شمال آسيا و 40 % من أوروبا ، في حين تعتبر دولة الفاتيكان أصغر دول القارة . +question : ما مساحة قارة أوروبا ؟ +prompt : أجب عن السؤال التالي : ما مساحة قارة أوروبا ؟ الجواب هو +pred_answer : أن القارة الأوروبية هي أكبر +answer : لحوالي 10 180 مليون + +context : أوروبا إحدى قارات العالم السبع . وجغرافيا تعد شبه جزيرة كبيرة تكون الجزء الغربي الممتد من أوراسيا بين جبال الأورال وجبال القوقاز وبحر قزوين من الشرق والمحيط الأطلسي من الغرب والبحر الأبيض المتوسط والبحر الأسود ومنطقة القوقاز من الجنوب والمحيط المتجمد الشمالي من الشمال . وكلمة أوربا أصلها إغريقي ( باليونانية : ) وتعني الوجه العريض ، وتصل مساحة القارة لحوالي 10 . 180 مليون ( 7 . 1 % من مساحة الأرض ) . وهي القارة الثالثة من حيث عدد السكان في العالم إذ يزيد عدد سكانها عن 700 مليون نسمة ( أي 11 % من سكان الأرض ) . تمتد روسيا وهي أكبر بلد أوروبي عبر كامل شمال آسيا و 40 % من أوروبا ، في حين تعتبر دولة الفاتيكان أصغر دول القارة . +question : كم عدد سكان أوروبا ؟ +prompt : أجب عن السؤال التالي : كم عدد سكان أوروبا ؟ الجواب هو +pred_answer : أكثر بقليل من +answer : 700 مليون نسمة + +context : أوروبا إحدى قارات العالم السبع . وجغرافيا تعد شبه جزيرة كبيرة تكون الجزء الغربي الممتد من أوراسيا بين جبال الأورال وجبال القوقاز وبحر قزوين من الشرق والمحيط الأطلسي من الغرب والبحر الأبيض المتوسط والبحر الأسود ومنطقة القوقاز من الجنوب والمحيط المتجمد الشمالي من الشمال . وكلمة أوربا أصلها إغريقي ( باليونانية : ) وتعني الوجه العريض ، وتصل مساحة القارة لحوالي 10 . 180 مليون ( 7 . 1 % من مساحة الأرض ) . وهي القارة الثالثة من حيث عدد السكان في العالم إذ يزيد عدد سكانها عن 700 مليون نسمة ( أي 11 % من سكان الأرض ) . تمتد روسيا وهي أكبر بلد أوروبي عبر كامل شمال آسيا و 40 % من أوروبا ، في حين تعتبر دولة الفاتيكان أصغر دول القارة . +question : ماهي أصغر دول أوروبا ؟ +prompt : أجب عن السؤال التالي : ماهي أصغر دول أوروبا ؟ الجواب هو +pred_answer : جمهورية التشيك +answer : الفاتيكان + +context : يتفق المؤرخين أن أوروبا ، خاصة في اليونان القديمة وروما القديمة هي مهد الحضارة الغربية المؤثرة على العالم . وقد لعبت أوروبا دورا بارزا في الشؤون العالمية بدءا من القرن الخامس عشر ، وخاصة عقب بداية الاستعمار . سيطرت الدول الأوروبية بين القرنين السادس عشر والعشرين ، في أوقات مختلفة على الأمريكتين ، ومعظم أفريقيا وأوقيانوسيا ، وأجزاء كبيرة من آسيا . أدت الثورة الصناعية ، التي بدأت في بريطانيا العظمى في نهاية القرن الثامن عشر ، إلى تغييرات اقتصادية وثقافية وإجتماعية راديكالية في أوروبا الغربية أولا ، لتشمل بعد ذلك العالم . وقد ازداد النمو السكاني الأوروبي بشكل كبير ، إذ بحلول عام 1900 ، كان نصيب أوروبا حوالي 25 % من مجمل سكان العالم . +question : أين بدأت الثورة الصناعية ؟ +prompt : أجب عن السؤال التالي : أين بدأت الثورة الصناعية ؟ الجواب هو +pred_answer : في بريطانيا ، +answer : بريطانيا العظمى + +context : يتفق المؤرخين أن أوروبا ، خاصة في اليونان القديمة وروما القديمة هي مهد الحضارة الغربية المؤثرة على العالم . وقد لعبت أوروبا دورا بارزا في الشؤون العالمية بدءا من القرن الخامس عشر ، وخاصة عقب بداية الاستعمار . سيطرت الدول الأوروبية بين القرنين السادس عشر والعشرين ، في أوقات مختلفة على الأمريكتين ، ومعظم أفريقيا وأوقيانوسيا ، وأجزاء كبيرة من آسيا . أدت الثورة الصناعية ، التي بدأت في بريطانيا العظمى في نهاية القرن الثامن عشر ، إلى تغييرات اقتصادية وثقافية وإجتماعية راديكالية في أوروبا الغربية أولا ، لتشمل بعد ذلك العالم . وقد ازداد النمو السكاني الأوروبي بشكل كبير ، إذ بحلول عام 1900 ، كان نصيب أوروبا حوالي 25 % من مجمل سكان العالم . +question : في أي قرن بدأت الثورة الصناعية ؟ +prompt : أجب عن السؤال التالي : في أي قرن بدأت الثورة الصناعية ؟ الجواب هو +pred_answer : القرن الثامن عشر ، حيث +answer : نهاية القرن الثامن عشر + +context : يتفق المؤرخين أن أوروبا ، خاصة في اليونان القديمة وروما القديمة هي مهد الحضارة الغربية المؤثرة على العالم . وقد لعبت أوروبا دورا بارزا في الشؤون العالمية بدءا من القرن الخامس عشر ، وخاصة عقب بداية الاستعمار . سيطرت الدول الأوروبية بين القرنين السادس عشر والعشرين ، في أوقات مختلفة على الأمريكتين ، ومعظم أفريقيا وأوقيانوسيا ، وأجزاء كبيرة من آسيا . أدت الثورة الصناعية ، التي بدأت في بريطانيا العظمى في نهاية القرن الثامن عشر ، إلى تغييرات اقتصادية وثقافية وإجتماعية راديكالية في أوروبا الغربية أولا ، لتشمل بعد ذلك العالم . وقد ازداد النمو السكاني الأوروبي بشكل كبير ، إذ بحلول عام 1900 ، كان نصيب أوروبا حوالي 25 % من مجمل سكان العالم . +question : ما النسبة التي شكلها عدده سكان أوروبا من العدد الإجمالي لسكان أوروبا ؟ +prompt : أجب عن السؤال التالي : ما النسبة التي شكلها عدده سكان أوروبا من العدد الإجمالي لسكان أوروبا ؟ الجواب هو +pred_answer : 1 % . +answer : حوالي 25 + +context : أخذت الحربان العالميتان مسرحها وأحداثها بشكل كبير في أوروبا ، ومساهمتها في الشؤون السياسية أخذت في الإنخفاض مع انخفاض هيمنة أوروبا الغربية في الشؤون العالمية في منتصف القرن العشرين وازدياد نفوذ كل من الولايات المتحدة والاتحاد السوفياتي . خلال الحرب الباردة ، قسمت أوروبا على طول الستار الحديدي بين منظمة حلف شمال الأطلسي في الغرب وحلف وارسو في أوروبا الشرقية . أدى التكامل الأوروبي إلى تشكيل مجلس أوروبا والاتحاد الأوروبي في أوروبا الغربية ، ومع سقوط الاتحاد السوفياتي في عام 1991 انضمت دول أوروبية شرقية إلى الاتحاد الأوروبي . وتعد عملة اليورو وهي العملة الموحدة للاتحاد الأوروبي العملة الأكثر تداولا في القارة . +question : أين كانت الحربين العالميتين الأولى و الثانية ؟ +prompt : أجب عن السؤال التالي : أين كانت الحربين العالميتين الأولى و الثانية ؟ الجواب هو +pred_answer : أنهما كانتا +answer : أوروبا + +context : أخذت الحربان العالميتان مسرحها وأحداثها بشكل كبير في أوروبا ، ومساهمتها في الشؤون السياسية أخذت في الإنخفاض مع انخفاض هيمنة أوروبا الغربية في الشؤون العالمية في منتصف القرن العشرين وازدياد نفوذ كل من الولايات المتحدة والاتحاد السوفياتي . خلال الحرب الباردة ، قسمت أوروبا على طول الستار الحديدي بين منظمة حلف شمال الأطلسي في الغرب وحلف وارسو في أوروبا الشرقية . أدى التكامل الأوروبي إلى تشكيل مجلس أوروبا والاتحاد الأوروبي في أوروبا الغربية ، ومع سقوط الاتحاد السوفياتي في عام 1991 انضمت دول أوروبية شرقية إلى الاتحاد الأوروبي . وتعد عملة اليورو وهي العملة الموحدة للاتحاد الأوروبي العملة الأكثر تداولا في القارة . +question : في أي سنة سقط الاتحاد السوفياتي ؟ +prompt : أجب عن السؤال التالي : في أي سنة سقط الاتحاد السوفياتي ؟ الجواب هو +pred_answer : عام 1991 +answer : عام 1991 + +context : أخذت الحربان العالميتان مسرحها وأحداثها بشكل كبير في أوروبا ، ومساهمتها في الشؤون السياسية أخذت في الإنخفاض مع انخفاض هيمنة أوروبا الغربية في الشؤون العالمية في منتصف القرن العشرين وازدياد نفوذ كل من الولايات المتحدة والاتحاد السوفياتي . خلال الحرب الباردة ، قسمت أوروبا على طول الستار الحديدي بين منظمة حلف شمال الأطلسي في الغرب وحلف وارسو في أوروبا الشرقية . أدى التكامل الأوروبي إلى تشكيل مجلس أوروبا والاتحاد الأوروبي في أوروبا الغربية ، ومع سقوط الاتحاد السوفياتي في عام 1991 انضمت دول أوروبية شرقية إلى الاتحاد الأوروبي . وتعد عملة اليورو وهي العملة الموحدة للاتحاد الأوروبي العملة الأكثر تداولا في القارة . +question : ماهي العلمة الأكثر تداولا في القارة الأوروبية ؟ +prompt : أجب عن السؤال التالي : ماهي العلمة الأكثر تداولا في القارة الأوروبية ؟ الجواب هو +pred_answer : " علم +answer : عملة اليورو + +context : إسبانيا ( بالإسبانية : Espa a ) ، رسميا مملكة إسبانيا ( بالإسبانية : Reino de Espa a ) هي دولة عضو في الاتحاد الأوروبي تقع في جنوب غرب أوروبا في شبه الجزيرة الأيبيرية . تضم الأراضي الإسبانية أيضا جزر البليار في البحر الأبيض المتوسط وجزر الكناري في المحيط الأطلسي قبالة الساحل الأفريقي واثنتين من مدن الحكم الذاتي في شمال أفريقيا هما سبتة ومليلية . علاوة على ذلك ، تقع بلدية ييفيا الإسبانية كمكتنف داخل الأراضي الفرنسية . تبلغ مساحتها 504 . 030 كم وبذلك تكون ثاني أكبر بلد من حيث المساحة في أوروبا الغربية والاتحاد الأوروبي بعد فرنسا . +question : أين تقع إسبانيا ؟ +prompt : أجب عن السؤال التالي : أين تقع إسبانيا ؟ الجواب هو +pred_answer : في شمال غرب القارة الأوروبية ، وتحديدا في شبه +answer : جنوب غرب أوروبا في شبه الجزيرة الأيبيرية + +context : إسبانيا ( بالإسبانية : Espa a ) ، رسميا مملكة إسبانيا ( بالإسبانية : Reino de Espa a ) هي دولة عضو في الاتحاد الأوروبي تقع في جنوب غرب أوروبا في شبه الجزيرة الأيبيرية . تضم الأراضي الإسبانية أيضا جزر البليار في البحر الأبيض المتوسط وجزر الكناري في المحيط الأطلسي قبالة الساحل الأفريقي واثنتين من مدن الحكم الذاتي في شمال أفريقيا هما سبتة ومليلية . علاوة على ذلك ، تقع بلدية ييفيا الإسبانية كمكتنف داخل الأراضي الفرنسية . تبلغ مساحتها 504 . 030 كم وبذلك تكون ثاني أكبر بلد من حيث المساحة في أوروبا الغربية والاتحاد الأوروبي بعد فرنسا . +question : ما هو أول بلد من حيث المساحة في أوروبا الغربية و الاتحاد الأوروبي ؟ +prompt : أجب عن السؤال التالي : ما هو أول بلد من حيث المساحة في أوروبا الغربية و الاتحاد الأوروبي ؟ الجواب هو +pred_answer : فرنسا . +answer : فرنسا + +context : إسبانيا ( بالإسبانية : Espa a ) ، رسميا مملكة إسبانيا ( بالإسبانية : Reino de Espa a ) هي دولة عضو في الاتحاد الأوروبي تقع في جنوب غرب أوروبا في شبه الجزيرة الأيبيرية . تضم الأراضي الإسبانية أيضا جزر البليار في البحر الأبيض المتوسط وجزر الكناري في المحيط الأطلسي قبالة الساحل الأفريقي واثنتين من مدن الحكم الذاتي في شمال أفريقيا هما سبتة ومليلية . علاوة على ذلك ، تقع بلدية ييفيا الإسبانية كمكتنف داخل الأراضي الفرنسية . تبلغ مساحتها 504 . 030 كم وبذلك تكون ثاني أكبر بلد من حيث المساحة في أوروبا الغربية والاتحاد الأوروبي بعد فرنسا . +question : كم تبلغ مساحة إسبانيا ؟ +prompt : أجب عن السؤال التالي : كم تبلغ مساحة إسبانيا ؟ الجواب هو +pred_answer : 1 . 6 مليون كيلومتر +answer : 504 030 كم + +context : خضعت إسبانيا بسبب موقعها لمؤثرات خارجية كثيرة منذ عصور ما قبل التاريخ وحتى بزوغها كدولة . خرجت إسبانيا كبلد موحد في القرن الخامس عشر وذلك بعد توحيد الممالك الكاثوليكية والسيطرة على كامل شبه الجزيرة الأيبيرية في 1492 . من ناحية أخرى ، كانت إسبانيا مصدر نفوذ هام في مناطق أخرى خلال العصور الحديثة ، عندما أصبحت إمبراطورية عالمية خلفت إرثا يضم أكثر من 500 مليون ناطق بالإسبانية ، مما يجعلها ثاني اللغات الأم استخداما . +question : متى خرجت إسبانيا كدولة موحدة ؟ +prompt : أجب عن السؤال التالي : متى خرجت إسبانيا كدولة موحدة ؟ الجواب هو +pred_answer : بعد الحرب العالمية الأولى +answer : القرن الخامس عشر + +context : خضعت إسبانيا بسبب موقعها لمؤثرات خارجية كثيرة منذ عصور ما قبل التاريخ وحتى بزوغها كدولة . خرجت إسبانيا كبلد موحد في القرن الخامس عشر وذلك بعد توحيد الممالك الكاثوليكية والسيطرة على كامل شبه الجزيرة الأيبيرية في 1492 . من ناحية أخرى ، كانت إسبانيا مصدر نفوذ هام في مناطق أخرى خلال العصور الحديثة ، عندما أصبحت إمبراطورية عالمية خلفت إرثا يضم أكثر من 500 مليون ناطق بالإسبانية ، مما يجعلها ثاني اللغات الأم استخداما . +question : ماهي ثاني لغات الأم استخداما في العالم ؟ +prompt : أجب عن السؤال التالي : ماهي ثاني لغات الأم استخداما في العالم ؟ الجواب هو +pred_answer : اللغة العربية +answer : بالإسبانية + +context : خضعت إسبانيا بسبب موقعها لمؤثرات خارجية كثيرة منذ عصور ما قبل التاريخ وحتى بزوغها كدولة . خرجت إسبانيا كبلد موحد في القرن الخامس عشر وذلك بعد توحيد الممالك الكاثوليكية والسيطرة على كامل شبه الجزيرة الأيبيرية في 1492 . من ناحية أخرى ، كانت إسبانيا مصدر نفوذ هام في مناطق أخرى خلال العصور الحديثة ، عندما أصبحت إمبراطورية عالمية خلفت إرثا يضم أكثر من 500 مليون ناطق بالإسبانية ، مما يجعلها ثاني اللغات الأم استخداما . +question : كم هناك من ناطق بالغة الإسبانية ؟ +prompt : أجب عن السؤال التالي : كم هناك من ناطق بالغة الإسبانية ؟ الجواب هو +pred_answer : أن عدد الناطقين بالإسبانية +answer : أكثر من 500 مليون + +context : تعد إسبانيا دولة ديمقراطية ذات حكومة برلمانية في ظل نظام ملكي دستوري . وتعد إسبانيا من البلدان المتقدمة حيث أن اقتصادها تاسع أكبر اقتصاد في العالم من حيث الناتج المحلي الإجمالي الاسمي ، كما أن مستويات المعيشة مرتفعة جدا وتقع ( في المرتبة العشرين على مؤشر التنمية البشرية ) ، وأيضا في المرتبة العاشرة من حيث معيار جودة الحياة في العالم في عام 2005 . إسبانيا عضو في الأمم المتحدة والاتحاد الأوروبي وحلف شمال الأطلسي ومنظمة التعاون والتنمية الاقتصادية ومنظمة التجارة العالمية . +question : من حيث الناتج المحلي الإجمالي الأسمى ، ماهي المتبة التي تشغلها إسبانيا في العالم ؟ +prompt : أجب عن السؤال التالي : من حيث الناتج المحلي الإجمالي الأسمى ، ماهي المتبة التي تشغلها إسبانيا في العالم ؟ الجواب هو +pred_answer : أن إسبانيا تحتل المرتبة الأولى عالميا +answer : تاسع أكبر اقتصاد في العالم + +context : تعد إسبانيا دولة ديمقراطية ذات حكومة برلمانية في ظل نظام ملكي دستوري . وتعد إسبانيا من البلدان المتقدمة حيث أن اقتصادها تاسع أكبر اقتصاد في العالم من حيث الناتج المحلي الإجمالي الاسمي ، كما أن مستويات المعيشة مرتفعة جدا وتقع ( في المرتبة العشرين على مؤشر التنمية البشرية ) ، وأيضا في المرتبة العاشرة من حيث معيار جودة الحياة في العالم في عام 2005 . إسبانيا عضو في الأمم المتحدة والاتحاد الأوروبي وحلف شمال الأطلسي ومنظمة التعاون والتنمية الاقتصادية ومنظمة التجارة العالمية . +question : ما هي الطبيعة السياسية لدولة إسبانيا ؟ +prompt : أجب عن السؤال التالي : ما هي الطبيعة السياسية لدولة إسبانيا ؟ الجواب هو +pred_answer : أن النظام السياسي في إسبانيا يقوم على أساس الملكية الدستورية ، +answer : دولة ديمقراطية ذات حكومة برلمانية في ظل نظام ملكي دستوري + +context : تعد إسبانيا دولة ديمقراطية ذات حكومة برلمانية في ظل نظام ملكي دستوري . وتعد إسبانيا من البلدان المتقدمة حيث أن اقتصادها تاسع أكبر اقتصاد في العالم من حيث الناتج المحلي الإجمالي الاسمي ، كما أن مستويات المعيشة مرتفعة جدا وتقع ( في المرتبة العشرين على مؤشر التنمية البشرية ) ، وأيضا في المرتبة العاشرة من حيث معيار جودة الحياة في العالم في عام 2005 . إسبانيا عضو في الأمم المتحدة والاتحاد الأوروبي وحلف شمال الأطلسي ومنظمة التعاون والتنمية الاقتصادية ومنظمة التجارة العالمية . +question : ماهي المؤسسات التي تنتمي إليها إسبانيا ؟ +prompt : أجب عن السؤال التالي : ماهي المؤسسات التي تنتمي إليها إسبانيا ؟ الجواب هو +pred_answer : : الاتحاد الأوروبي ، الولايات المتحدة الأمريكية ، المملكة المتحدة ، فرنسا ، ألمانيا ، +answer : الأمم المتحدة والاتحاد الأوروبي وحلف شمال الأطلسي ومنظمة التعاون والتنمية الاقتصادية ومنظمة التجارة العالمية + +context : السودان أو ( رسميا : جمهورية السودان ) ، هي دولة عربية تقع في شمال شرق أفريقيا تحدها من الشرق إثيوبيا وإريتريا ومن الشمال مصر وليبيا ومن الغرب تشاد وجمهورية أفريقيا الوسطى ومن الجنوب دولة جنوب السودان . استوطن الإنسان في السودان منذ 5000 سنة قبل الميلاد والسودان موطن للعديد من الحضارات القديمة ، مثل مملكة كوش ، مروي ، نوباتيا ، علوة ، المقرة ، وغيرها ، والتي ازدهرت معظمها على طول نهر النيل . تداخل تاريخ السودان القديم مع تاريخ مصر الفرعونية على مدى فترات طويلة ، لاسيما في عهد الأسرة الخامسة والعشرين السودانية ( الفراعنة السود ) التي حكمت مصر من السودان ومن أشهر ملوكها طهراقة وبعنخي . +question : أين تقع دولة السودان ؟ +prompt : أجب عن السؤال التالي : أين تقع دولة السودان ؟ الجواب هو +pred_answer : أنها تقع في قلب +answer : شمال شرق أفريقيا + +context : السودان أو ( رسميا : جمهورية السودان ) ، هي دولة عربية تقع في شمال شرق أفريقيا تحدها من الشرق إثيوبيا وإريتريا ومن الشمال مصر وليبيا ومن الغرب تشاد وجمهورية أفريقيا الوسطى ومن الجنوب دولة جنوب السودان . استوطن الإنسان في السودان منذ 5000 سنة قبل الميلاد والسودان موطن للعديد من الحضارات القديمة ، مثل مملكة كوش ، مروي ، نوباتيا ، علوة ، المقرة ، وغيرها ، والتي ازدهرت معظمها على طول نهر النيل . تداخل تاريخ السودان القديم مع تاريخ مصر الفرعونية على مدى فترات طويلة ، لاسيما في عهد الأسرة الخامسة والعشرين السودانية ( الفراعنة السود ) التي حكمت مصر من السودان ومن أشهر ملوكها طهراقة وبعنخي . +question : ما الدول التي تحد السودان من الغرب ؟ +prompt : أجب عن السؤال التالي : ما الدول التي تحد السودان من الغرب ؟ الجواب هو +pred_answer : مصر وليبيا وتشاد وإفريقيا +answer : تشاد وجمهورية أفريقيا الوسطى + +context : السودان أو ( رسميا : جمهورية السودان ) ، هي دولة عربية تقع في شمال شرق أفريقيا تحدها من الشرق إثيوبيا وإريتريا ومن الشمال مصر وليبيا ومن الغرب تشاد وجمهورية أفريقيا الوسطى ومن الجنوب دولة جنوب السودان . استوطن الإنسان في السودان منذ 5000 سنة قبل الميلاد والسودان موطن للعديد من الحضارات القديمة ، مثل مملكة كوش ، مروي ، نوباتيا ، علوة ، المقرة ، وغيرها ، والتي ازدهرت معظمها على طول نهر النيل . تداخل تاريخ السودان القديم مع تاريخ مصر الفرعونية على مدى فترات طويلة ، لاسيما في عهد الأسرة الخامسة والعشرين السودانية ( الفراعنة السود ) التي حكمت مصر من السودان ومن أشهر ملوكها طهراقة وبعنخي . +question : ماهي الدول التي تحد السودان من الشرق ؟ +prompt : أجب عن السؤال التالي : ماهي الدول التي تحد السودان من الشرق ؟ الجواب هو +pred_answer : المملكة العربية السعودية ، +answer : إثيوبيا وإريتريا + +context : استقل السودان عن بريطانيا و مصر في الأول من يناير 1956 واشتعلت فيه الحرب الأهلية منذ قبيل إعلان الاستقلال حتى 2005 عدا فترات سلام متقطعة ، نتيجة صراعات عميقة بين الحكومة المركزية في شمال السودان وحركات متمردة في جنوبه وانتهت الحرب الأهلية بالتوقيع اتفاقية السلام الشامل ، بين حكومة السودان والحركة الشعبية لتحرير السودان ، واستقل جنوب السودان عام 2011 كدولة ، بعد استفتاء تلى الفترة الانتقالية التي نصت عليها الإتفاقية . +question : متى استقل السودان عن بريطانيا و مصر ؟ +prompt : أجب عن السؤال التالي : متى استقل السودان عن بريطانيا و مصر ؟ الجواب هو +pred_answer : في عام 1956 � +answer : الأول من يناير 1956 + +context : استقل السودان عن بريطانيا و مصر في الأول من يناير 1956 واشتعلت فيه الحرب الأهلية منذ قبيل إعلان الاستقلال حتى 2005 عدا فترات سلام متقطعة ، نتيجة صراعات عميقة بين الحكومة المركزية في شمال السودان وحركات متمردة في جنوبه وانتهت الحرب الأهلية بالتوقيع اتفاقية السلام الشامل ، بين حكومة السودان والحركة الشعبية لتحرير السودان ، واستقل جنوب السودان عام 2011 كدولة ، بعد استفتاء تلى الفترة الانتقالية التي نصت عليها الإتفاقية . +question : متى استعلت الحرب الأهلية في السودان ؟ +prompt : أجب عن السؤال التالي : متى استعلت الحرب الأهلية في السودان ؟ الجواب هو +pred_answer : : منذ عام 1955 +answer : منذ قبيل إعلان الاستقلال + +context : استقل السودان عن بريطانيا و مصر في الأول من يناير 1956 واشتعلت فيه الحرب الأهلية منذ قبيل إعلان الاستقلال حتى 2005 عدا فترات سلام متقطعة ، نتيجة صراعات عميقة بين الحكومة المركزية في شمال السودان وحركات متمردة في جنوبه وانتهت الحرب الأهلية بالتوقيع اتفاقية السلام الشامل ، بين حكومة السودان والحركة الشعبية لتحرير السودان ، واستقل جنوب السودان عام 2011 كدولة ، بعد استفتاء تلى الفترة الانتقالية التي نصت عليها الإتفاقية . +question : متى توقفت الحرب الأهلية في السودان ؟ +prompt : أجب عن السؤال التالي : متى توقفت الحرب الأهلية في السودان ؟ الجواب هو في عام +pred_answer : 2005 ، +answer : 2005 + +context : تكررت الإنقلابات العسكرية في تاريخ السودان الحديث ، وفي عام 1989 م ، قاد العميد عمر البشير انقلابا عسكريا ، أطاح بحكومة مدنية برئاسة الصادق المهدي زعيم ، وأصبح رئيسا لمجلس قيادة ثورة الإنقاذ ، ثم رئيسا للجمهورية إلى الآن . +question : في أي سنة وقع آخر انقلاب عسكري في السودان ؟ +prompt : أجب عن السؤال التالي : في أي سنة وقع آخر انقلاب عسكري في السودان ؟ الجواب هو +pred_answer : أن الانقلاب +answer : عام 1989 + +context : تكررت الإنقلابات العسكرية في تاريخ السودان الحديث ، وفي عام 1989 م ، قاد العميد عمر البشير انقلابا عسكريا ، أطاح بحكومة مدنية برئاسة الصادق المهدي زعيم ، وأصبح رئيسا لمجلس قيادة ثورة الإنقاذ ، ثم رئيسا للجمهورية إلى الآن . +question : من قاد الانقلاب العسكري ؟ +prompt : أجب عن السؤال التالي : من قاد الانقلاب العسكري ؟ الجواب هو +pred_answer : الجنرال محمد ولد عبد +answer : العميد عمر البشير + +context : تكررت الإنقلابات العسكرية في تاريخ السودان الحديث ، وفي عام 1989 م ، قاد العميد عمر البشير انقلابا عسكريا ، أطاح بحكومة مدنية برئاسة الصادق المهدي زعيم ، وأصبح رئيسا لمجلس قيادة ثورة الإنقاذ ، ثم رئيسا للجمهورية إلى الآن . +question : من كان رئيس الجكومة المدنية وقت الإنقلاب ؟ +prompt : أجب عن السؤال التالي : من كان رئيس الجكومة المدنية وقت الإنقلاب ؟ الجواب هو +pred_answer : عبد الفتاح السيسي +answer : الصادق المهدي + diff --git a/arabert/aragpt2/results/AraGPT2-zero-shot-TydiQA.txt b/arabert/aragpt2/results/AraGPT2-zero-shot-TydiQA.txt new file mode 100644 index 0000000000000000000000000000000000000000..da59cb50fdd6a7aeb2f1c1d28e385177da2b9aee --- /dev/null +++ b/arabert/aragpt2/results/AraGPT2-zero-shot-TydiQA.txt @@ -0,0 +1,5502 @@ +context : أقيمت البطولة 21 مرة ، شارك في النهائيات 78 دولة ، وعدد الفرق التي فازت بالبطولة حتى الآن 8 فرق ، ويعد المنتخب البرازيلي الأكثر تتويجا بالكأس حيث فاز بها 5 مرات أعوام : 1958 ، 1962 ، 1970 ، 1994 و 2002 . يليه المنتخب الإيطالي الذي أحرزها 4 مرات في أعوام : 1934 ، 1938 ، 1982 و 2006 ، بالمشاركة مع المنتخب الألماني الذي حققها 4 مرات أيضا أعوام : 1954 ، 1974 و 1990 و 2014 ، ثم الأوروغواي والأرجنتين وفرنسا برصيد بطولتين . بينما أحرزت منتخبات إنجلترا وإسبانيا البطولة مرة واحدة . +question : كم عدد مرات فوز الأوروغواي ببطولة كاس العالم لكرو القدم ؟ +prompt : أجب عن السؤال التالي : كم عدد مرات فوز الأوروغواي ببطولة كاس العالم لكرو القدم ؟ الجواب هو +pred_answer : مرة واحدة +answer : بطولتين + +context : المرو أو الكوارتز هو معدن يعود اكتشافه إلى الفرنسي ( بيير كوري ) وأخوه ( جاك ) اللذان كانا يدرسان عينة من الرمل في سنة 1880 حيث لاحظا ظاهرة غريبة ، وهي انه عند تعريض الكوارتز ( ثاني أكسيد السيليكون ) لجهد آلي فإنه يتولد تيار كهربائي ، وبالعكس ففي حال تعرضت بلورة الكوارتز لمجال كهربائي ، فإنها تتذبذب وتهتز بتردد معين ، كما وجد أن هذا الاهتزاز والتذبذب يتسم بالانتظام والدقة العالية . هذه الظاهرة والتي عرفت بالبيزوكهربائية ، مكنت الباحثين من تصنيع الكثير من الأجهزة الحساسة ، من أهمها الساعات المصممة لقياس الوقت بدقة عالية ، حيث بلغ نصيب الكوارتز في صناعة الساعات أكثر من 85 % من سوق الساعات العالمية . ويعود أول نموذج لساعة مصنوعة من الكوارتز إلى سنة 1967 حيث تم إنتاج هذه الساعة من قبل الباحثين في مركز الساعات الإلكترونية في نويشتل في سويسرا ، وفي سنة 1969 تمت صناعة أول ساعة كوارتز في اليابان من قبل سيكو اليابانية تحت اسم أسترون . +question : من هو مكتشف المرو أو الكوارتز ؟ +prompt : أجب عن السؤال التالي : من هو مكتشف المرو أو الكوارتز ؟ الجواب هو +pred_answer : العالم الإيطالي جاليليو ( 156 +answer : بيير كوري وأخوه جاك + +context : المشيمة أو الخلاص أو السخد ( بالإنجليزية : Placenta ) هي عضو دائري مسطح الشكل يتصل بالجنين عن طريق الحبل السري في الرحم ، وتخرج المشيمة من رحم الأم بعد المرحلة الثالثة من الولادة . [1] +question : كيف يتصل الجنين بالرحم ؟ +prompt : أجب عن السؤال التالي : كيف يتصل الجنين بالرحم ؟ الجواب هو +pred_answer : أن اتصال الجنين بالر +answer : عن طريق الحبل السري + +context : مسجد السلطان عبد المجيد ، هو مسجد أثري تاريخي في مدينة جبيل اللبنانية شيد في العهد الأيوبي على أنقاض مسجد بني في عهد الخلفاء الراشدين ، ثم اعيد ترميمه في عهد العثمانيين ، تعلوه قبة نصف كروية وعلى زاويته الشمالية الغربية مئذنة مثمنة الشكل . [1] +question : أين يقع مسجد السلطان عبد المجيد ؟ +prompt : أجب عن السؤال التالي : أين يقع مسجد السلطان عبد المجيد ؟ الجواب هو +pred_answer : في حي الفاتح +answer : مدينة جبيل اللبنانية + +context : رغم سيطرة المسلمين على العاصمة تبليسي في 645 م ، حافظت كارتلي - ايبيريا على استقلال كبير في ظل الحكام المسلمين المحليين . [17] أصبح الأمير آشوت الأول ( المعروف أيضا آشوت كورابالات ) عام 813 م أول حاكم للمملكة من أسرة باغراتيوني . افتتح عهد أشوت ما يقرب من 1000 سنة من حكم بيت باغراتيوني لجزء من الجمهورية الحالية على الأقل . +question : ما عاصمة جورجيا ؟ +prompt : أجب عن السؤال التالي : ما عاصمة جورجيا ؟ الجواب هو +pred_answer : تبليسي +answer : تبليسي + +context : سورة الكهف هي سورة مكية رقمها 18 ، تسبق سورة مريم وتلحق سورة الإسراء ، في ترتيب سور القرآن الكريم . عدد آياتها 110 آية ، وهي من السور المكية المتأخرة في النزول ، إذ أن ترتيب نزولها 69 . تتوسط السورة القرآن الكريم ، فهي تقع في الجزئين الخامس عشر والسادس عشر ، 8 صفحات في نهاية الجزء الخامس عشر و 3 في بداية الجزء السادس عشر . تتناول السورة عدة مواضيع ، تدور حول التحذير من الفتن ، والتبشير والإنذار ، وذكر بعض االمشاهد من يوم القيامة ، كما تناولت عدة قصص ، كقصة أصحاب الكهف الذين سميت السورة لذكر قصتهم فيها . +question : ما هو عدد آيات سورة الكهف ؟ +prompt : أجب عن السؤال التالي : ما هو عدد آيات سورة الكهف ؟ الجواب هو +pred_answer : قوله تعالى +answer : 110 + +context : توفي ناصر السنباطي يوم 20 مارس 2013 في القاهرة ( زيارة ) عن عمر ناهز 47 عام ، حيث توفى أثناء نومه[1] . +question : ما سبب وفاة لاعب كمال الأجسام ناصر السنباطي ؟ +prompt : أجب عن السؤال التالي : ما سبب وفاة لاعب كمال الأجسام ناصر السنباطي ؟ الجواب هو +pred_answer : أنه كان يعاني +answer : أثناء نومه + +context : مخترع المحرك البخاري هو جيمس واط ( 1736 – 1819 م ) كان مهندسا اسكتلندي ، ولد في جرينوك من أب كان يعمل بالتجارة دون أن يحقق نجاحا . تلقى واط تدريبه عند صانع للأدوات في لندن . ثم عاد إلى جلاسجو ليعمل في مهنته . وقد كان واط على علاقة صداقة قوية مع الفيزيائي جوزيف بلاك مكتشف الحرارة الكامنة ، وكان لهذه الصداقة الأثر الهام في توجيه واط إلى الاهتمام بالطاقة الحرارية وتوصل إلى أنه يمكن الاستفادة من البخار كقوة محركة . وقد أجرى عدة تجارب للاستفادة من ضغط البخار . ثم وقع في يده محرك بخاري من طراز نيوكومن فاخترع له مكثفا وأجرى عليه بعض التعديلات والتحسينات مثل إدخال المضخة الهوائية وغلاف لأسطوانة البخار وزوده بمؤشر للبخار ، مما جعل المحرك البخاري آلة تجارية ناجحة . وقد أدعى واط اكتشاف تركيب المتاء قبل كافندش أو في نفس الوقت . وقد سميت وحدة القدرة الكهربية باسم واط تخليدا له . أسس واط بالاشتراك مع بولتون شركة هندسية هي شركة سوهو للأعمال الهندسية ، وقدأدخل الشريكان مصطلح وحدة القدرة الحصانية H . P ) Horse Power ) حيث 1 كيلوواط = 0 . 746 HP . +question : من هو مخترع المحرك البخاري ؟ +prompt : أجب عن السؤال التالي : من هو مخترع المحرك البخاري ؟ الجواب هو +pred_answer : جورج ستيفنس +answer : جيمس واط + +context : وثيقة إعلان قيام دولة إسرائيل هي وثيقة كتبت في 14 أيار مايو 1948 بعد انتهاء الانتداب البريطاني على فلسطين وإعلان ديفيد بن غوريون الرئيس التنفيذي للمنظمة الصهيونية العالمية ومدير الوكالة اليهودية قيام الدولة الإسرائيلية وعودة الشعب اليهودي إلى ما أسماه أرضه التاريخية . [1][2][3] +question : متى تمت كتابة وثيقة إعلان قيام دولة إسرائيل ؟ +prompt : أجب عن السؤال التالي : متى تمت كتابة وثيقة إعلان قيام دولة إسرائيل ؟ الجواب هو في عام +pred_answer : 1948 م +answer : 14 أيار مايو 1948 + +context : حسب مصادر التراث الإسلامي فإنها حملت الرسول محمد من مكة في تهامة إلى المسجد الأقصى في بيت المقدس ليلة الإسراء والمعراج . وعند وصوله ربطها عند جدار يعرفه المسلمون بحائط البراق [1][2] . ووصف في صحيح البخاري بأنه أبيض دون البغل وفوق الحمار [3] . ويقال في تسمية الحائط الغربي للمسجد الأقصى - بحائط البراق أن الملاك جبريل قام بربط البراق بالحائط إلى أن دخل النبي محمد إلى المسجد وصلى في المسجد ثم رجع إليها ليصعد بها إلى السماوات ثم عاد به إلى مكة مرة أخرى [4][5] . +question : ما كان إسم حصان الرسول صلي الله عليه وسلم ؟ +prompt : أجب عن السؤال التالي : ما كان إسم حصان الرسول صلي الله عليه وسلم ؟ الجواب هو +pred_answer : : ( +answer : البراق + +context : Coordinates : ألمانيا النازية هو اسم شائع غير رسمي يطلق على ألمانيا في الفترة الممتدة من عام 1933 حتى عام 1945 ، نسبة الى اسم الحزب النازي عندما كان أدولف هتلر وحزبه يحكمان ألمانيا دكتاتوريا . تحولت ألمانيا - تحت حكم نظام هتلر - إلى دولة فاشية استولى فيها الحزب النازي على البلاد وسيطر بشمولية على جميع جوانب الحياة تقريبا . بينما كان الاسم الرسمي للدولة الرايخ الألماني " ديوتشس رايش " من سنة 1933 حتى 1943 و " غروديوتشس رايش " الرايخ الألماني الأكبر من 1943 إلى 1945 . هذه الفترة معروفة أيضا باسم أسماء الرايخ الثالث ( الألمانية : دريتس رايش ) أو الفترة الاشتراكية الوطنية ( الألمانية : زيت ديس ناتيونسوزياليسموس ، مختصر باسم نس - زيت ) . انتهى النظام النازي بعد أن هزمت ألمانيا في مايو 1945 ، مما أنهى الحرب العالمية الثانية في أوروبا . +question : من رئيس ألمانيا النازية في الحرب العالمية الثانية ؟ +prompt : أجب عن السؤال التالي : من رئيس ألمانيا النازية في الحرب العالمية الثانية ؟ الجواب هو +pred_answer : أدولف هتلر . +answer : أدولف هتلر + +context : الطيف الكهرومغناطيسي مصطلح عام يشمل جميع الترددات الممكنة من الإشعاعات الكهرومغناطيسية . [1][2][3] و يعرف الطيف الكهرومغناطيسي ايضا ( يسمى عادة بالطيف فقط ) بخطوط الأشعة الصادرة من جسم أسود عند درجة حرارة معينة ( لكل خط طول موجة معينة وتردد معين ) . لكل عنصر كيميائي طيف يميزه ، أي له مجموعة خطوط متسلسلة تميزه عن غيره ، ويسمى هذا الطيف " طيف انبعاث " . يتغير طيف الأشعة المنبعثة من جسم بتغير درجة حرارة الجسم ، ويختار اللون الأسود بالذات لأنه " مثالي " في امتصاص الأشعة ومثالي أيضا في إصدار الأشعة . يكون طيف العناصر عادة في نطاق الضوء المرئي . +question : ما هو الطيف الكهرومغناطيسي ؟ +prompt : أجب عن السؤال التالي : ما هو الطيف الكهرومغناطيسي ؟ الجواب هو +pred_answer : أنه عبارة عن موجات كهرومغناطيسية تنتشر في الفراغ بسرعة الضوء +answer : مصطلح عام يشمل جميع الترددات الممكنة من الإشعاعات الكهرومغناطيسية + +context : بنفنتو[1] أو بينيفنتو مدينة جنوب إيطاليا في إقليم كامبانيا ، عاصمة مقاطعة بينيفنتو عدد سكانها 63 . 026 نسمة ، تقع بين نهري ساباتو وكالوري إربينو ، محاطة بجبال الأبينيني ، تاريخها يرجع إلى عصر الإغريق . +question : أين تقع مدينة بينيفنتو ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة بينيفنتو ؟ الجواب هو +pred_answer : في شمال إيطاليا ، وتحديدا في +answer : جنوب إيطاليا في إقليم كامبانيا + +context : المحاسبة هي تسجيل وتبويب المدخلات والعمليات التي تمثل الأحداث الاقتصادية وفق نظام معين ، المعلومات المالية المستخدمة بشكل أساسي من المدراء والمستثمرين والجهات الضريبية ومتخذي القرارات الآخرين ، بهدف توزيع الموارد ضمن المؤسسات والشركات أو المنظمات أو الحكومة . [1][2][3] تم اشتقاق اسم المحاسبة من استخدام كلمة الحساب مالي . +question : ما هي المحاسبة المالية ؟ +prompt : أجب عن السؤال التالي : ما هي المحاسبة المالية ؟ الجواب هو +pred_answer : أنه لا يوجد تعريف متفق عليه للمحاسبة المالية ، فهي تختلف من نظام +answer : تسجيل وتبويب المدخلات والعمليات التي تمثل الأحداث الاقتصادية وفق نظام معين + +context : يتراوح عدد بيوضه التي تضعها الانثى ما بين 500 إلى 600 بيضه ويقوم الذكر بتخصيبها وحمايتها ل 6 اسابيع . تفقس البيوض ويخرج الصغار ولها خياشم تضمر بمرور الوقت ويحل محلها الرئتان . يبلغ طولها سنتمترين ونصف وتصبح مثل والديها حتى بلوغها 3 سنوات . تبقى في معظم الوقت تحت الماء ولاتخرج حتى تكبر . +question : كم يتراوح عدد بيوض السلمندر التي تضعها الانثى ؟ +prompt : أجب عن السؤال التالي : كم يتراوح عدد بيوض السلمندر التي تضعها الانثى ؟ الجواب هو +pred_answer : ( 1 - 2 ) +answer : 500 إلى 600 بيضه + +context : كانت الماجنا كارتا أول وثيقة تفرض على ملك إنجليزي من مجموعة من رعاياه ( و هم البارونات ) ، في محاولة للحد من نفوذه وحماية امتيازاتهم قانونيا ، ولم تكن الماجنا كارتا أول ميثاق للحد من سلطة الملك فقد سبق هذا الميثاق ميثاق آخر للحريات عام 1100 م وتأثر به تأثرا مباشرا وكان ذلك في عهد الملك هنري الأول ، وبالرغم من أن للميثاق أهمية لا يختلف عليها اثنان ، إلا أن بحلول النصف الثاني من القرن التاسع عشر ألغيت معظم البنود التي كانت في قالبها الأصلي وبقيت ثلاثة بنود كجزء من قانون إنجلترا وويلز ، وتعتبر عادة كجزء من الدستور غير المدون . +question : لماذا وقع الميثاق الأعظم أو الماجنا كارتا ؟ +prompt : أجب عن السؤال التالي : لماذا وقع الميثاق الأعظم أو الماجنا كارتا ؟ الجواب هو +pred_answer : أن هذا الميثاق قد تم التوقيع عليه من قبل +answer : محاولة للحد من نفوذه وحماية امتيازاتهم قانونيا + +context : وعنابة اليوم مدينة زاهرة ومركز صناعي مهم ، تضم صرحا من أهم صروح الصناعة الجزائرية وبها خام للحديد والفولاذ الذي يمتد على مساحة 1700 هكتار وينتج 12 مليون طن سنويا من الحديد والفولاذ يشتغل فيه 45 ألف عامل ، كما توجد بها مصانع مهمة أخرى كمصنع الأسمدة الفوسفاتية ومعمل الزئبق ، والعديد من مصانع المواد الغذائية التي تحول المنتجات الزراعية التي ينتجها سهل عنابة إلى مواد صناعية +question : ما هي المدينة التي تحوي على أكبر مصنع للحديد والصلب في أفريقيا ؟ +prompt : أجب عن السؤال التالي : ما هي المدينة التي تحوي على أكبر مصنع للحديد والصلب في أفريقيا ؟ الجواب هو +pred_answer : لاغوس +answer : عنابة + +context : كاثرين صوفي فاينر ( من مواليد يناير 1971[1][2] ) هي صحفية وكاتبة مسرحية بريطانية . في 1 يونيو 2015 أصبحت أول امرأة تتقلد منصب رئيسة تحرير صحيفة الغارديان خلفا لآلان روسبيرجير[3][4] بعد أن ترأست سابقا عمليات الويب الخاصة بالغارديان في أستراليا والولايات المتحدة ، قبل أن يتم اختيارها لمنصب رئيس تحرير الجريدة العريقة[5] . +question : من هي أول امرأة تتقلد منصب رئيسة تحرير صحيفة الغارديان خلفا لآلان روسبيرجير ؟ +prompt : أجب عن السؤال التالي : من هي أول امرأة تتقلد منصب رئيسة تحرير صحيفة الغارديان خلفا لآلان روسبيرجير ؟ الجواب هو +pred_answer : مارغريت ثاتشر . +answer : كاثرين صوفي فاينر + +context : نشأت أول مجموعة جهادية في مصر حوالى عام 1964 بالقاهرة وكان أبرز مؤسسيها ثلاثة هم علوى مصطفى ( من حى مصر الجديدة ) وإسماعيل طنطاوي ( من حى المنيل ) ونبيل البرعي ( من حى المعادى ) وكانوا جميعا طلبة في الثانوية العامة وقتها , ولقد تخرج إسماعيل من كلية الهندسة بجامعة الأزهر فيما بعد , كما تخرج علوى من كلية الهندسة أيضا , بينما تأخر نبيل البرعى دراسيا ثم التحق بكلية الأداب بجامعة بيروت . [3] +question : من هو مؤسس حركة الجهاد الاسلامي في مصر ؟ +prompt : أجب عن السؤال التالي : من هو مؤسس حركة الجهاد الاسلامي في مصر ؟ الجواب هو +pred_answer : الدكتور رمضان عبد الله شلح ، الأمين العام لحركة الجهاد الإسلامي في فلسطين .والدكتور +answer : علوى مصطفى من حى مصر الجديدة وإسماعيل طنطاوي من حى المنيل ونبيل البرعي من حى المعادى + +context : إسحاق رابين ( بالعبرية : - يلفظ : يتسحاك رابين ) ، ( 1 مارس 1922 - 4 نوفمبر 1995 ) سياسي إسرائيلي وجنرال عسكري سابق في الجيش الإسرائيلي ورئيس وزراء إسرائيل ، يعد من أبرز الشخصيات الإسرائيلية وأحد أهم متخذي القرارات في الشؤون الخارجية ، العسكرية والأمنية في إسرائيل . [1] +question : في أي عام توفي إسحاق رابين ؟ +prompt : أجب عن السؤال التالي : في أي عام توفي إسحاق رابين ؟ الجواب هو في عام +pred_answer : 1995 ، عندما +answer : 4 نوفمبر 1995 + +context : ميشال فوكو ( 1926 - 1984 ) فيلسوف فرنسي ، يعتبر من أهم فلاسفة النصف الأخير من القرن العشرين ، تأثر بالبنيويين ودرس وحلل تاريخ الجنون في كتابه " تاريخ الجنون " , وعالج مواضيع مثل الإجرام والعقوبات والممارسات الاجتماعية في السجون . ابتكر مصطلح " أركيولوجية المعرفة " . أرخ للجنس أيضا من " حب الغلمان عند اليونان " وصولا إلى معالجاته الجدلية المعاصرة كما في " تاريخ الجنسانية " . +question : ما هي جنسية الفيلسوف ميشال فوكو ؟ +prompt : أجب عن السؤال التالي : ما هي جنسية الفيلسوف ميشال فوكو ؟ الجواب هو +pred_answer : أنه فرنسي +answer : فرنسي + +context : رونالد ويلسون ريغان ( 6 فبراير 1911 – 5 يونيو 2004 ) هو سياسي وممثل أمريكي راحل شغل منصب الرئيس الأربعين للولايات المتحدة في الفترة من 1981 إلى 1989 . وقبل رئاسته كان حاكم ولاية كاليفورنيا الثالث والثلاثين بين عامي 1967 و 1975 ، بعد مسيرة كممثل في هوليوود ورئيس نقابة ممثلي الشاشة . +question : في أي عام ولد رونالد ريغان ؟ +prompt : أجب عن السؤال التالي : في أي عام ولد رونالد ريغان ؟ الجواب هو في عام +pred_answer : 1901 � +answer : فبراير 1911 + +context : تأسس نادي مانشستر يونايتد في 1 مارس 1878 م وكان يسمى النادي آنذاك باسم نويتن هيث سكة حديد لانكشاير ويوركشاير وتم تأسيسه من قبل مجموعة من عمال سكة حديد في مانشستر وتم إختصار الاسم بعد ذلك إلى نيوتن هيث وإنضموا إلى الدوري الإنجليزي الممتاز في 1892 م واجه النادي الإفلاس عام 1902 م ولكن جون هنري ديفيز أنقذ النادي ودفع الديون وغير الاسم إلى مانشستر يونايتد وغير ألوان الفريق من الذهبي والأخضر إلى الأحمر والأبيض وفاز النادي بالدوري عام 1908 م وبالمعونة المالية من ديفيز إنتقل النادي إلى الملعب الجديد ملعب أولد ترافورد في 1909 م وعين اليونايتد السير مات بسبي كمدرب للفريق بعد الحرب العالمية الثانية وكانت سياسته التي تعتمد على لاعبين من نادي الشباب جلبت نجاحا عظيما للنادي وفاز الفريق بالدوري عامين 1956 م و 1957 م لكن هذا النجاح تأثر بعد كارثة ميونخ الجوية عام 1958 م ومات 8 من لاعبين الفريق لكن عندما تعافى السير بسبي من إصابته جراء حادثة ميونخ بنى فريقا عظيما آخر إستطاع الفوز بالدوري عامين 1965 م و 1967 م ومن ثم أصبح مانشستر يونايتد أول نادي إنجليزي يفوز بدوري الإبطال عام 1968 م بعد الفوز على بنفيكا في النهائي ولم يرى النادي نجاح عظيم مرة أخرى حتى التسعينيات عندما قاد السير أليكس فيرغسون الفريق إلى 8 بطولات دوري في إحدى عشرة سنة وفي 1999 م أصبح مانشستر يونايتد أول فريق يفوز بالدوري وكأس إنجلترا ودوري أبطال أوروبا في موسم واحد . +question : في أي عام تأسس نادي مانشستر يونايتد لكرة القدم ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسس نادي مانشستر يونايتد لكرة القدم ؟ الجواب هو في عام +pred_answer : 1878 � +answer : 1 مارس 1878 + +context : أقيمت النسخة الأولى من بطولاته عام 2000 في العاصمة الأردنية ، كما شارك اليمن في النسخة الخامسة منها في طهران بصفته عضوا ، فيما شاركت قطر وعمان لأول مرة أيضا دون أن تكونا عضوين في اتحاد غرب آسيا . +question : متى أقيمت بطولة ( غرب آسيا ) لكرة القدم لأول مرة ؟ +prompt : أجب عن السؤال التالي : متى أقيمت بطولة ( غرب آسيا ) لكرة القدم لأول مرة ؟ الجواب هو في عام +pred_answer : 1976 ، +answer : 2000 + +context : تأسس الجيش النظامي للمملكة المتوكلية في 1919 ، وبدأ تأسيس الجيش الجمهوري في الجمهورية العربية اليمنية عام 1962 وذلك بقيام ثورة 26 سبتمبر أما جيش دولة الجنوب جمهورية اليمن الديمقراطية الشعبية فقد تأسس الجيش الاتحادي في 1959 قبل قيام ثورة 14 أكتوبر والاستقلال بعدة سنوات ، تعثر دمج الجيشين فعليا بعد قيام الوحدة اليمنية 1990 لأسباب سياسية ، وبعد حرب صيف 1994 الأهلية ، توحد الموالون للوحدة ضد الموالين للانفصال ولم يعد هناك جيشان بعد ذلك . +question : متى تاسس الجيش اليمني ؟ +prompt : أجب عن السؤال التالي : متى تاسس الجيش اليمني ؟ الجواب هو في عام +pred_answer : 1962 +answer : 1962 + +context : بحر قزوين هو بحر مغلق يقع في غرب آسيا على مساحة تبلغ 371 , 000 كيلو متر مربع وهو أكبر بحر مغلق في العالم ، يبلغ طول بحر قزوين 1 , 200 كيلو متر بعرض يصل ل 300 كيلو متر ، ويبلغ أقصى عمق له 1023 م ، وتطل على بحر قزوين خمسة دول هي روسيا وإيران وأذربيجان وتركمانستان وكازاخستان . +question : كم يبلغ أقصى عمق لبحر قزوين ؟ +prompt : أجب عن السؤال التالي : كم يبلغ أقصى عمق لبحر قزوين ؟ الجواب هو +pred_answer : 10 آلاف +answer : 1023 + +context : الرجفان البطيني هو حالة توقف القلب عن العمل بسبب خلل في منظومة القلب تؤدي إلى ارتجاف البطينين بدل انقباضهما ، الأمر الذي يؤدي إلى توقف الدورة الدموية ومن ثم إلى الوفاة بالسكتة القلبية إن لم يتم تدارك الأمر علاجيا خلال دقائق معدودة من خلال عملية الإنعاش القلبي الرئوي . +question : ما هو الرجفان البطيني ؟ +prompt : أجب عن السؤال التالي : ما هو الرجفان البطيني ؟ الجواب هو +pred_answer : أن هناك نوعين من الرجفان الأذيني ، النوع الأول يحدث عندما يكون القلب غير قادر على ضخ +answer : حالة توقف القلب عن العمل بسبب خلل في منظومة القلب تؤدي إلى ارتجاف البطينين بدل انقباضهما + +context : ترجع تسمية الإمارات العربية المتحدة إلى الإمارات السبع التي شكلت اتحادا فيما بينها ، وهي : إمارة أبوظبي وإمارة دبي وإمارة عجمان وإمارة الشارقة وإمارة رأس الخيمة وإمارة أم القيوين وإمارة الفجيرة . [6] +question : كم عدد امارات الأمارات العربية المتحدة ؟ +prompt : أجب عن السؤال التالي : كم عدد امارات الأمارات العربية المتحدة ؟ الجواب هو +pred_answer : دولة الإمارات +answer : سبع + +context : البناء الضوئي ( أو التمثيل أو التخليق أو التركيب الضوئي ) عملية كيميائية معقدة تحدث في خلايا البكتيريا الزرقاء وفي صانعات اليخضور ( الصانعات الخضراء ) أو الكلوروبلاست في كل من الطحالب والنباتات العليا ؛ حيث يتم فيها تحويل الطاقة الضوئية الشمسية من طاقة كهرومغناطيسية على شكل فوتونات أشعة الشمس إلى طاقة كيميائية تخزن في روابط سكر الجلوكوز وفق المعادلة التالية : +question : ما هي عملية التركيب الضوئي ؟ +prompt : أجب عن السؤال التالي : ما هي عملية التركيب الضوئي ؟ الجواب هو +pred_answer : تحويل الطاقة الضوئية إلى طاقة كيميائية في النبات ، حيث تقوم النباتات الخضراء بتحويل ثاني أكسيد الكربون الموجود في الجو إلى أكسجين وهيدروجين ونتروجين +answer : عملية كيميائية معقدة تحدث في خلايا البكتيريا الزرقاء وفي صانعات اليخضور الصانعات الخضراء أو الكلوروبلاست في كل من الطحالب والنباتات العليا + +context : ألفرد نوبل ( 21 أكتوبر 1833 - 10 ديسمبر 1896 ) ، مهندس ومخترع وكيميائي سويدي ، اخترع الديناميت في سنة 1867 ومن ثم أوصى بمعظم ثروته التي جناها من الاختراع إلى جائزة نوبل التي سميت بإسمه . +question : من هو ألفرد نوبل ؟ +prompt : أجب عن السؤال التالي : من هو ألفرد نوبل ؟ الجواب هو +pred_answer : : مخترع الديناميت ، ومخترع +answer : مهندس ومخترع وكيميائي سويدي + +context : ولد ميكيلانجيلو في قرية كابريزي قرب أريتسو بتوسكانا وترعرع في فلورنسا ، [10] التي كانت مركز النهضة الأوروبية آنذاك ، ومن محيطها المليء بمنجزات فناني النهضة السابقين إلى تحف الإغريق المذهلة ، استطاع أن يتعلم ويستقي منها الكثير عن فن النحت والرسم . كانت أسرة ميكيلانجيلو من أبرز المصرفيين الصغار في فلورنسا ، لكن والده ، " لودفيكو دي ليوناردو دي بوناروتي دي سيموني " ، شذ عن باقي أفراد العائلة ، وشغل عدة مناصب حكومية خلال حياته ، [11] أما والدته فهي " فرانشيسكا دي نيري دل مينياتو دي سيينا " . [12] زعمت أسرة بوناروتي أن أبنائها يتحدرون من " ماتيلدي التوسكانية " وهي إحدى نبيلات إيطاليا القديمات ، وعلى الرغم من أن هذا الزعم ما زال غير مؤكد ، إلا أن ميكيلانجيلو نفسه كان مؤمنا به . [13] بعد بضعة أشهر من ولادة ميكيلانجيلو ، عادت أسرته إلى فلورنسا ، حيث قضى سنوات صباه ، وفي سنة 1481 ، أي عندما كان يبلغ من العمر ست سنوات فحسب ، توفيت والدته بعد صراع طويل مع المرض ، فانتقل ميكيلانجيلو ليعيش مع أسرة رجل يعمل في قلع الحجارة ببلدة " سيتيغنانو " ، حيث كان ولده يملك مقلعا للرخام ومزرعة صغيرة . [12] أفاد جورجو فازاري أن ميكيلانجيلو قال : . [10] أقدم والد ميكيلانجيلو ، الذي كان قاضيا على بلدة كابريزي في ذلك الوقت ، [14] على إرسال ولده إلى المعلم " فرانشيسكو دا أوربينو " في فلورنسا ، حتى يتعلم قواعد اللغة ، [10][15] لكن الفتى لم يظهر ميلا نحو العلم ، بل كثيرا ما كان يفضل نسخ اللوحات في الكنائس ، ويميل إلى صحبة الفنانين والرسامين . [15] في النهاية وافق الأب على رغبة ولده وسمح لهذا الصبي ذو ثلاثة عشر ربيعا بأن يعمل لدى رسام جص يدعى دومينيكو غرلاندايو ، [16][17] وعندما بلغ ميكيلانجيلو عامه الرابع عشر ، كان والده قد أقنع دومنيكو بأن يعلن تلميذه رساما . [18] يعرف أن ميكيلانجيلو لم يستطع التوافق مع معلمه وكثيرا ما كان يصطدم معه مما حذا به لينهي عمله لديه بعد أقل من سنة . [19] في عام 1489 ، طلب لورينزو دي ميديشي ، حاكم فلورنسا بحكم الأمر الواقع ، طلب من دومينيكو غرلاندايو أن يرسل إليه أفضل طالبين في عهدته ، فأرسل إليه الأخير كلا من ميكيلانجيلو وفرانشيسكو غراناسي . [20] خلال الفترة الممتدة من عام 1490 حتى عام 1492 ، التحق ميكيلانجيلو بالمدرسة الإنسانية التي أسستها أسرة ميديشي لتدريس الفلسفة الإفلاطونية المحدثة ، حيث تعلم النحت على يد " بيرتولدو دي جيوفاني " ، وتأثرت نظرته إلى الحياة وأنماط فنه بآراء ونظريات الكثير من الفلاسفة والكتأب المعروفين في ذلك الزمن ، مثل : مارسيليو فيسينو ، بيكو ديلا ميراندولا ، وأنجلو بوليزيانو . [21] خلال هذه الفترة ، أتم ميكيلانجيلو العمل على نقش " سيدة الأدراج " ( 1490 – 1492 ) ومعركة القناطرة ( 1491 – 1492 ) ، وقد كانت الأخيرة مبنية على فكرة اقترحها أنجلو بوليزيانو ، وكلفه بها لورينزو دي ميديشي . [22] أدى إعجاب بيرتولدو دي جيوفاني بعمل تلميذه أشد الإعجاب ، إلى تولد شعور بالغيرة عند زميل ميكيلانجيلو المدعو " بيترو توريغيانو " ، فضربه على أنفه ضربة قوية شوهت شكله ، ويظهر هذا التشوه بشكل واضح في كل الرسومات الشخصية لوجه ميكيلانجيلو . [23] على الرغم من إنكار ميكيلانجيلو لفضل غيرلاندايو في تعليمه أي شيء إلا أنه من الواضح أنه تعلم منه فن الرسم الجداري حيث أن رسومه الأولية كانت قد أظهرت طرق ومناهج اتبعها غيرلاندايو . في الفترة الممتدة بين عامي 1490 و 1492 أمضى وقته في منزل لورينزو دي ميديشي المعروف بلورينزو العظيم الراعي الأهم للفنون في فلورنسا وحاكمها . حيث كان المنزل مكان دائم لاجتماع الفنانين الفلاسفة والشعراء . ومن المفترض أن ميكيلانجيلو قابل وتعلم من المعلم الكهل بيرتولدو الذي كان قد تدرب مع دوناتلو فنان القرن الخامس عشر في فلورنسا . [24] +question : أين ولد ميكيلانجيلو ؟ +prompt : أجب عن السؤال التالي : أين ولد ميكيلانجيلو ؟ الجواب هو +pred_answer : في فلورنسا ( إيطاليا ) .ولد ليوناردو دافن +answer : قرية كابريزي قرب أريتسو بتوسكانا + +context : وقدم الباحثون اكتشافات متضاربة بشأن فترة انتظار القذف داخل المهبل . وفي دراسة متعددة الجنسيات ، [1] عكف القائمون على دراسة 491 رجلا في هولندا وإسبانيا وتركيا والمملكة المتحدة والولايات المتحدة . وكان الرجال يتمتعون بعلاقات جنسية مستقرة . وعلى مدى أربعة أسابيع ، سجل الأزواج بيانات فترة انتظار القذف داخل المهبل باستخدام ساعة توقيت وأشاروا إلى استخدام العازل الذكري . ولم تكن هناك علاقة بين متوسط فترة انتظار القذف داخل المهبل واستخدام العازل الذكري . وتراجع متوسط فترة انتظار القذف داخل المهبل مع الأعمار ( من 18 إلى 30 : 6 . 5 دقائق ، ومن 31 إلى 50 : 5 . 4 دقائق ، و 51 + : 4 . 3 دقائق ) . وكان متوسط فترة انتظار القذف داخل المهبل بالنسبة لجميع المشاركين 5 . 4 دقائق . وتفاوت متوسط فترة انتظار القذف داخل المهبل بشكل ملحوظ من قبل الأفراد مع 14 % من الرجال دون 3 : 20 و 26 % من الرجال فوق 10 : 00 . وتشمل المشاكل المحتملة إجمالي حجم العينة وصغر حجم العينة لكل بلد وقلة الملاحظات الخاصة بكل مشارك والآثار النفسية لاستخدام ساعة التوقيت . +question : ما المعدل العادي لعملية الجماع ؟ +prompt : أجب عن السؤال التالي : ما المعدل العادي لعملية الجماع ؟ الجواب هو +pred_answer : أن العملية الجنسية +answer : 5 4 دقائق + +context : ' ' ' معاهدة عدم انتشار الأسلحة النووية ' ' ' ( NPT أو NNPT ) ( و تسمى أيضا معاهدة الحد من انتشار الأسلحة النووية ) هي معاهدة دولية ، بدأ التوقيع عليها في 1 يوليو 1968 للحد من انتشار الأسلحة النووية التي تهدد السلام العالمي ومستقبل البشرية . حتى الآن وقع على الاتفاقية 189 دولة . مع ذلك ما زال خارج الاتفاقية دولتين نوويتين أكيدتين ( تملكان تجارب نووية مصرح بها ) هما الهند وباكستان ودولة نووية محتملة هي إسرائيل ( لم تصرح إسرائيل حتى الآن عن امتلاكها للسلاح النووي رغم الكثير من المؤشرات التي تؤكد ذلك ) . إحدى الأطراف التي يحتمل امتلاكها لقوة نووية هي كوريا الشمالية أيضا ما زالت خارج الاتفاقية . تم اقتراح الاتفاقية من قبل إيرلندا وكانت فنلندة أول من وقع عليها . +question : متى بدأ التوقيع على معاهدة الحد من انتشار الأسلحة النووية ؟ +prompt : أجب عن السؤال التالي : متى بدأ التوقيع على معاهدة الحد من انتشار الأسلحة النووية ؟ الجواب هو في عام +pred_answer : 1968 ، عندما +answer : 1 يوليو 1968 + +context : فقد الإرجاز أو فقد هزة الجماع هو نوع من العجز الجنسي ، حيث يكون الشخص غير قادر على تحقيق هزة الجماع على الرغم من وجود التحفيز الكافي . في الذكور ، يكون فقد الإرجاز أكثر ارتباطا بتأخر القذف . وغالبا ما يتسبب فقد الإرجاز في الإحباط الجنسي . يعتبر فقد الإرجاز أكثر شيوعا في الإناث ( 4 . 7 في المئة ) عن الذكور ، ونادر الحدوث بشكل خاص في الرجال الأصغر سنا . والمشكلة أكبر في النساء اللواتي يعانين من انقطاع الطمث . +question : ما هو الارجاز ؟ +prompt : أجب عن السؤال التالي : ما هو الارجاز ؟ الجواب هو +pred_answer : أن الله سبحانه وتعالى خلق الإنسان في أحسن تقويم ، وأنعم عليه بنعم لا تعد ولا تحصى ، +answer : نوع من العجز الجنسي حيث يكون الشخص غير قادر على تحقيق هزة الجماع على الرغم من وجود التحفيز الكافي + +context : الرهبنة الفرنسيسكانية ، ويعرف رهبانها باسم الفرنسيسكان ، هي رهبنة في الكنيسة الكاثوليكية ، تأسست على يد القديس فرنسيس الأسيزي في شمال إيطاليا في القرن الثالث عشر تحديدا عام 1208 وثبت قوانينها البابا إينوسنت الثالث عام 1209 ، وتعتمد على روحانية القديس فرنسيس ، والقوانين التي وضعها بشكل أساسي . تتالف الرهبنة من ثلاث فروعك رهبنة رجالية ، ورهبنة نسائية ، وما يعرف بالرهبنة الثالثة التي ينضم إليها المدنيون ، الذين يبقون في العالم لا في الدير ، ويحق لهم الزواج وإنما يلتزمون بفروض وصلوات الرهبنة وتأملاتها . +question : ما هي الرهبنة الفرنسيسكانية ؟ +prompt : أجب عن السؤال التالي : ما هي الرهبنة الفرنسيسكانية ؟ الجواب هو +pred_answer : أن الرهبان الفرنسيسكان هم الذين أسسوا هذه الرهبنة في القرن +answer : رهبنة في الكنيسة الكاثوليكية تأسست على يد القديس فرنسيس الأسيزي + +context : نقفور الثاني فوكاس Nikephoros II Phokas ، واسمه الملتن Nicephorus II Phocas نيقفوروس الثاني ؛ ( Greek : ، نيكفوروس ب فوكاس ، ح . 912 – 10 ديسمبر 969 ، كان امبراطور بيزنطي ( 963 - 969 ) أسهمت حملاته العسكرية في إحياء الامبراطورية البيزنطية في القرن العاشر . تزوج نقفور في مستهل شبابه ستفانو . وقد توفيت بعد أن أصبح شهيرا ، وبعد وفاتها أخذ قسم العفة ، وهو الأمر الذي سبب له مشاكل لاحقا . +question : من هو نقفور الثاني فوكاس ؟ +prompt : أجب عن السؤال التالي : من هو نقفور الثاني فوكاس ؟ الجواب هو +pred_answer : الإمبراطور البيزنطي نقفور الأول ، +answer : امبراطور بيزنطي + +context : Coordinates : هضبة التبت أو هضبة تشينغهاي - التبت هي هضبة تقع في آسيا الوسطى بالتبت معدل الارتفاع الذي يفوق 4000 فوق مستوى سطح البحر هي الأعلى من نوعها في العالم . [1][2][3] يصفها الإنسان ، عادة ، بانها اقرب بقعة على الأرض من الشمس . فالطريق المبني في مكانها اطلق عليه اسم " الطريق السماوي " . وعليه اعتبرت سكة الحديد التي يجري بناؤها على قدم وساق ، حاليا ، طريقا من الحديد يفضي إلى " السماء " . هضبة جنوب الصين الغربي الميال إلى الشمال . . ويفوق معدل ارتفاعها 4000 فوق مستوى سطح البحر ، ويعلوها ما يزيد عن 50 قمة شاهقة بارتفاع ينوف على 7000 متر فوق مستوى سطح البحر . . بما فيها جبل إفرست أعلى جبال الأرض . +question : أين تقع هضبة التيبت ؟ +prompt : أجب عن السؤال التالي : أين تقع هضبة التيبت ؟ الجواب هو +pred_answer : في شمال غرب +answer : آسيا الوسطى + +context : ليلة النجوم و هي لوحة رسمها الفنان الإنطباعي الهولندي فينسنت فان غوخ من خارج نافذة غرفته في المصح في عام 1889 م وكانت عن ليل مدينة سان ريمي دو بروفنس على الرغم من أنه رسمها في النهار وأن كل مارسمه هو من ذاكرته عن تلك الليلة التي رآها . +question : متى رسم فان كوخ لوحة ليلة النجوم ؟ +prompt : أجب عن السؤال التالي : متى رسم فان كوخ لوحة ليلة النجوم ؟ الجواب هو في عام +pred_answer : 1890 +answer : 1889 + +context : جورجيا ( بالجورجية : ، ) هي دولة ذات سيادة في منطقة القوقاز من أوراسيا . تقع عند ملتقى أوروبا الشرقية مع غرب آسيا ، [1] يحدها من الغرب البحر الأسود ، ومن الشمال روسيا ، ومن الجنوب تركيا وأرمينيا ، وأذربيجان من الشرق . تغطي جورجيا مساحة 69 . 700 كم 2 ويبلغ تعداد السكان 4 , 385 , 000 نسمة . +question : ما مساحة جورجيا ؟ +prompt : أجب عن السؤال التالي : ما مساحة جورجيا ؟ الجواب هو +pred_answer : 1 . 5 مليون +answer : 69 700 كم 2 + +context : ( حرفيا ؛ الهائج ) هي سلاسلة مانغا يابانية من الخيال المظلم ، مكتوبة ومصورة من قبل كينتارو ميورا . لها طابع أحداث العصور الوسطى في أوروب المظلمة . تدور القصة حول شخصيات غاتس ، ميرسينار ، جريفيث ، هو زعيم لفرقة تدعى " فريق الصقور " . المواضيع العزلية ، الصداقة ، ومسألة ما إذا كانت الإنسانية هي في الأساس من الخير أو الشر التي تسوهاد القص ، كما يستكشف أفضل أسوأ ما في الطبيعة البشرية . كل المانغا والأنمي مشهور باستخدام العنف التصويري المحتوى الجنسي . +question : من هو مؤلف مانجا بيرسيرك ؟ +prompt : أجب عن السؤال التالي : من هو مؤلف مانجا بيرسيرك ؟ الجواب هو +pred_answer : " تيتسويا أو +answer : كينتارو ميورا + +context : العيون ( بالأمازيغية : ) هي أكبر مدن الصحراء الغربية ، وهي مدينة متنازع عليها . وتديرها الحكومة المغربية حاليا بعدما أخضعتها لسيطرتها خلال حرب الصحراء الغربية عام 1975 ، [1] وهي مركز منطقة جهة العيون الساقية الحمراء التي ضمتها المغرب إلى الجهات الاثنا عشرة بالمملكة المغربية وتقع المنطقة تحت متابعة فريق حفظ السلام وإجراء استفتاء الاستقلال التابع للأمم المتحدة الخاص بالصحراء الغربية ( المينورسو ) . أسس المدينة المستعمر الإسباني أنطونيو دي أورو في عام 1938 كقاعدة عسكرية . وأعلنت إسبانيا عام 1940 المدينة عاصمة الصحراء الإسبانية تطل مدينة العيون على المحيط الأطلسي غربا وتتميز بمناخها المعتدل عموما الواقع تحت تأثير البحر من الغرب والتيارات الصحراوية من الجنوب والشرق . وعملت حكومة المغرب منذ اقتطاع الصحراء على استيطان المدينة بالسكان غير الأصليين حيث جاءت بالمغاربة ليصبح عددهم يفوق عدد الشعب الصحراوي . +question : في أي سنة تأسست مدينة العيون ؟ +prompt : أجب عن السؤال التالي : في أي سنة تأسست مدينة العيون ؟ الجواب هو +pred_answer : ما يلي +answer : 1938 + +context : السلم الموسيقي هو عبارة عن تتابع النغمات صعودا وهبوطا ويتكون من سبع درجات نغمية وهي : دو - ري - مي - فا - صول - لا - سي . أما العلامة الثامنة فهي جواب العلامة الأولى وتحمل نفس التسمية دو 1 . العلامة القياسية نغما والمعتمدة تقع على السلم الرابع من آلة البيانو ، لذلك تعتبر علامة دو 4 العلامة القياسية . و بناء على ذلك ، فسلسلة العلامات السبعة والمسماة " أوكتاف " من دو إلى سي تتكرر وصولا إلى ثمانية أوكتافات ضمن الحدود المسموعة نغميا للأذن البشرية . +question : ما هو السلم الموسيقي ؟ +prompt : أجب عن السؤال التالي : ما هو السلم الموسيقي ؟ الجواب هو +pred_answer : أن نقول إن السلم الموسيقي يتكون من ستة عشر درجة ، وكل درجة +answer : عبارة عن تتابع النغمات صعودا وهبوطا ويتكون من سبع درجات نغمية + +context : الجيش البريطاني هو فرع الحرب البرية من القوات المسلحة البريطانية في المملكة المتحدة . جاءت إلى حيز الوجود مع توحيد مملكة إنجلترا واسكتلندا في مملكة بريطانيا العظمى في عام 1707 . الجيش البريطاني الجديد دمج الأفواج التي كانت موجودة بالفعل في إنجلترا واسكتلندا وأدير من قبل مكتب الحرب في لندن . تم إدارته بواسطة وزارة الدفاع منذ عام 1964 . الرئيس المهني في الجيش البريطاني هو رئيس الأركان العامة , حاليا الجنرال السير بيتر وول . +question : متى تأسست القواة الخاصة التابعة للجيش البريطاني ؟ +prompt : أجب عن السؤال التالي : متى تأسست القواة الخاصة التابعة للجيش البريطاني ؟ الجواب هو في عام +pred_answer : 1857 +answer : 1707 + +context : Les D sorient s أو التائهون هي رواية للأديب اللبناني أمين معلوف باللغة الفرنسية صدرت عن دار Grasset في سبتمبر 2012 . وقد استلهم المؤلف أحداثها من شبابه . [1] تقع الرواية في 528 صفحة وقد صدرت ترجمة لها للعربية عن دار الفارابي في نوفمبر من نفس السنة . [2] +question : من هو مؤلف رواية التائهون ؟ +prompt : أجب عن السؤال التالي : من هو مؤلف رواية التائهون ؟ الجواب هو +pred_answer : جورج أور +answer : أمين معلوف + +context : أنغريت كرامب كارينباور ؛ ( مواليد 9 آب 1962 ) ، يشار إليها في بعض الأحيان بالأحرف الأولى من اسمها واسم عائلتها AKK ، [1] سياسية ألمانية تشغل منصب زعيمة الاتحاد الديمقراطي المسيحي ( CDU ) منذ انتخابها في مؤتمر الحزب في ديسمبر 2018 ، حيث خلفت أنغيلا ميركل في هذا المنصب . شغلت سابقا منصب الأمينة العامة للحزب ورئيسة وزراء ولاية سارلاند من عام 2011 إلى عام 2018 ، [2] وهي أول امرأة ترأس حكومة سارلاند ورابع امرأة ترأس حكومة ولاية في ألمانيا . +question : من هي أنغريت كرامب كارينباور ؟ +prompt : أجب عن السؤال التالي : من هي أنغريت كرامب كارينباور ؟ الجواب هو +pred_answer : المستشارة الألمانية أنجيلا ميركل ، التي ولدت في +answer : سياسية ألمانية تشغل منصب زعيمة الاتحاد الديمقراطي المسيحي + +context : تعتبر بذورها طاردة للأرياح ومنشطة ومدرة للبول . عجينة من البذور تشفي الجروح القاطعة ولدغات العقرب والأكزيما . والبذور مطهرة ومضادة للديدان المعوية ولاسيما لدى الأطفال ومدرة للطمث ومفيدة في الربو ومقوية لجهاز المناعة . وتوضع البذور بين طيات الملابس المخزونة كطاردة للعثة . حبة البركة مفيدة في أمراض البروستاتا والقولون ومنشطة للأعصاب والجنس أو لعلاج السكري . والجزء المستخدم من هذا النبات هو بذورها السوداء حيث تجمع البذور عندما تنضج . تحتوي البذور على 40 % من الزيت الثابت ، واحد من الصابونينات ( الميلانتين ) وحوالي 1 . 4 % من الزيت الطيار . +question : ماهى نسبة الزيت في حبة البركة ؟ +prompt : أجب عن السؤال التالي : ماهى نسبة الزيت في حبة البركة ؟ الجواب هو +pred_answer : : +answer : 40 + +context : جوردان بيرنت بيترسون ( Jordan Bernt Peterson ) ولد 11 يونيو 1962 ، طبيب نفسي سريري كندي ، و أستاذ علم النفس في جامعة تورنتو ، مجالات أبحاثه الرئيسية : علم النفس اللاقياسي ، و علم نفس الشخصية و علم النفس الأجتماعي , بجانب اهتمامه الخاص بعلم نفس الأديان و الأيديولوجي [1] وتقييم وتحسين الشخصية والأداء الوظيفي . [2] +question : من هو مؤلف كتاب " 12 قاعدة للحياة " ؟ +prompt : أجب عن السؤال التالي : من هو مؤلف كتاب " 12 قاعدة للحياة " ؟ الجواب هو +pred_answer : د . جون غراي ، أستاذ +answer : جوردان بيرنت بيترسون + +context : اليهود الأشكناز هم اليهود الذين ترجع أصولهم إلى أوروبا الشرقية ، أما اليهود السفارديم فينحدرون من اليهود الذين أخرجوا من إسبانيا والبرتغال في القرنين الخامس عشر والسادس عشر ، ثم استقر بهم المقام في منطقة حوض البحر المتوسط والبلقان وبعض المناطق الأخرى . أما اليهود المزراحيون فهم اليهود الشرقيون بالمعنى الحرفي أو يهود الشرق الأوسط . +question : من هم اليهود الأشكناز ؟ +prompt : أجب عن السؤال التالي : من هم اليهود الأشكناز ؟ الجواب هو +pred_answer : : يهود أوروبا ، الذين هاجروا إلى فلسطين +answer : اليهود الذين ترجع أصولهم إلى أوروبا الشرقية + +context : توماس صاموئيل كون أو ( كوهن ) ( 18 تموز 1922 - 17 حزيران 1996 ) مفكر أمريكي أنتج بغزارة في تاريخ العلوم وفلسفة العلوم ، كما أدخل إضافات وأفكار مهمة جديدة في فلسفة العلم . [1][2][3] انحدر كوهن من عائلة يهودية الأصل . ولد في سنسناتي – أوهايو ، لأب هو صامئيل كوهن ، الذي كان مهندسا صناعيا . +question : متى توفي توماس كوهين ؟ +prompt : أجب عن السؤال التالي : متى توفي توماس كوهين ؟ الجواب هو في عام +pred_answer : 1904 . +answer : 17 حزيران 1996 + +context : كريستوفر ستيفنز ؛ ( 18 أبريل 1960 [1] - 11 سبتمبر 2012 ) ، واسمه الكامل جون كريستوفر ستيفينز ، ولد وترعرع في شمال كاليفورنيا[2] ، درس في جامعة " بركلي " وعمل محاميا مختصا بالشؤون التجارية الدولية في واشنطن قبل ان ينضم إلى الخارجية الأمريكية في عام 1991 . يجيد ستيفنز اللغة العربية والفرنسية وقد نشر العديد من المقالات في القدس ودمشق والقاهرة[3] . عمل كمتطوع في شمال أفريقيا وعمل كمدرس لغة إنكليزية بالمغرب لمدة سنتين[4] وكان سفير الولايات المتحدة في ليبيا منذ مايو 2012 [2] وحتى وفاته . +question : من هو كريستوفر ستيفنز ؟ +prompt : أجب عن السؤال التالي : من هو كريستوفر ستيفنز ؟ الجواب هو +pred_answer : : رجل أعمال أمريكي ، ولد في مدينة نيويورك عام 1953 م . حصل على درجة البكالوريوس في إدارة الأعمال من جامعة كولومبيا عام 1978 ل . . . اقرأ المزيدالتسجيل التعليمات اجعل كافة الأقسام مقروءة أنيدرا أونلاين ألعاب أنيدرا رفع الملفات القرآن الكريم أون لاين +answer : اسمه الكامل جون كريستوفر ستيفينز ولد وترعرع في شمال كاليفورنيا 2 درس في جامعة بركلي وعمل محاميا مختصا بالشؤون التجارية الدولية في واشنطن قبل ان ينضم إلى الخارجية الأمريكية في عام 1991 يجيد ستيفنز اللغة العربية والفرنسية وقد نشر العديد من المقالات في القدس ودمشق والقاهرة + +context : العصور الوسطى[1] أو القرون الوسطى[1] هي التسمية التي تطلق على الفترة الزمنية في التاريخ الأوروبي التي امتدت من القرن الخامس حتى القرن الخامس عشر الميلادي . حيث بدأت بانهيار الإمبراطورية الرومانية الغربية واستمرت حتى عصر النهضة والاستكشاف . وتعتبر فترة العصور الوسطى هي الفترة الثانية بين التقسيمات التقليدية للتاريخ الغربي : الفترة القديمة ، والوسطى ، والحديثة . وتنقسم العصور الوسطى نفسها إلى ثلاثة فترات : الفترة المبكرة ، والمتوسطة ، والمتأخرة . +question : ما هي العصور الوسطى ؟ +prompt : أجب عن السؤال التالي : ما هي العصور الوسطى ؟ الجواب هو +pred_answer : أن العصر الذهبي للحضارة الإسلامية كان في القرن الثاني عشر الميلادي ، حيث ازدهرت الحضارة العربية الإسلامية وازد +answer : التسمية التي تطلق على الفترة الزمنية في التاريخ الأوروبي التي امتدت من القرن الخامس حتى القرن الخامس عشر الميلادي + +context : يشكل عظم الإسك الجزء الأسفل والخلفي لعظم الورك . ويتوضع تحت عظم الحرقفة وخلف عظم العانة ، وهو أحد العظام الثلاثة التي تندمج مع بعضها لتشكل مفصل الورك ، يشكل القسم العلوي لهذا العظم ثلث الحق تقريبا . +question : ما هو عظم الإسك ؟ +prompt : أجب عن السؤال التالي : ما هو عظم الإسك ؟ الجواب هو +pred_answer : أن عظمة الإسك هي جزء من العمود الفقري +answer : الجزء الأسفل والخلفي لعظم الورك + +context : سورة المائدة هي سورة مدنية ومن أواخر السور التي نزلت في القرآن وتتضمن هذه السورة كيفية المعاملة مع أهل الكتاب ، الطيبات وتحريم جميع الخبائث وعدد اياتها 120 اية . +question : ما هو عدد آيات سورة المائدة ؟ +prompt : أجب عن السؤال التالي : ما هو عدد آيات سورة المائدة ؟ الجواب هو +pred_answer : ( +answer : 120 + +context : العثث مجموعة كبيرة من الحشرات القريبة من الفراشات ، وهي من أكثر الكائنات الحية شيوعا في العالم ، حيث تتواجد في مختلف الأقاليم والمناخات ، حتى الثلجية منها . وتتميز معظم الكائنات التي تنتمي للنوعان بوجود زوجين من الأجنحة ، الزوج الأمامي الكبير ، والزوج الخلفي الأصغر نسبيا . تنتمي العثث إلى عائلة Lepidoptera المستوحاة من الكلمتين الإغريقيتين : Lepis بمعنى حراشف ، و pteron بمعنى جناح ، بسبب وجود حراشف دقيقة تغطي الأجنحة بشكل تام ، ولذلك تسمى بعائلة حرشفية الأجنحة . +question : ما هو العثث ؟ +prompt : أجب عن السؤال التالي : ما هو العثث ؟ الجواب هو +pred_answer : أن هناك نوعين من العثث ، النوع الأول +answer : مجموعة كبيرة من الحشرات القريبة من الفراشات + +context : أوديسا مدينة من المدن الكبرى في جمهورية أوكرانيا تقع على ساحل البحر الأسود ، يتكلم أهل المدينة اللغة الروسية ويوجد فيها جامعات كثيرة تزيد على العشرين مختلفة الاختصاصات ترتيبها الثالثة بعد كييف وخاركوف من ناحية الكبر عدد سكانها أكثر من مليون نسمة يوجد فيها أربع موانئ وتعتبر العاصمة الاقتصادية والسياحية بالإضافة إلى مطار دولي ودار أوبرا وعدد من المسارح يوجد فيها عدد من الأسواق مثل النوفي رينك الرادو رينك البريفوز و 7 كم ( السدموي كيلو متر ) المشهور إقليميا ويأتيه الزبائن من غير دول تبعد عن العاصمة 750 كم وتعتبر عاصمة مقاطعة أوديسا وهي ذات طبيعة خلابة . [1][2][3] +question : أين تقع مدينة أوديسا ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة أوديسا ؟ الجواب هو +pred_answer : في أوكرانيا +answer : جمهورية أوكرانيا + +context : صح النوم فيلم كوميدي سوري للثنائي دريد ونهاد عام 1975 . +question : متى تم إنتاج الفلم العربي ( صح النوم ) ؟ +prompt : أجب عن السؤال التالي : متى تم إنتاج الفلم العربي ( صح النوم ) ؟ الجواب هو في عام +pred_answer : 1966 ، +answer : 1975 + +context : مواهب أمريكا ( معروف بالاختصار : AGT ) هو برنامج مواهب تلفزيون واقع أميركي يعرض على إن بي سي ويعد البرنامج جزء من نسخة عالمية . يقدم الأشخاص المواهبين مواهبهم على المسرح سواء كانوا صغارا في السن أم كبارا . عرض لاول مرة في شهر يونيو من عام 2006 . وجائزة البرنامج مليون دولار . [1][2] +question : متى تم عرض اول موسم من مسلسل امريكا قوت تالنت ؟ +prompt : أجب عن السؤال التالي : متى تم عرض اول موسم من مسلسل امريكا قوت تالنت ؟ الجواب هو في عام +pred_answer : 2011 .في الحقيقة ، +answer : يونيو من عام 2006 + +context : جوزيف لويس بارو ( 13 من مايو 1914 م – 12 من أبريل 1981 م ) يعرف باسم جو لويس ، هو ملاكم محترف أمريكي الجنسية ، وبطل العالم للوزن الثقيل في الفترة من عام 1937 وحتى عام 1949 . ويعتبر لويس واحدا من أعظم ملاكمي الوزن الثقيل على مر العصور . لقب لويس ب براون بومبر ( Brown Bomber ) ، والذي ساعد لويس في رفع مستوى الملاكمة من مستوى النظير الذي أثر على رواجها في عصر ما بعد جاك دمبسي ، وذلك من خلال بناء سمعته كملاكم نزيه ومجتهد في وقت كانت الرياضة يسيطر عليها مصالح تقوم على المقامرة . وقد استمر عصر بطولاته 140 شهرا متتالية ، شارك خلال تلك الفترة في 26 مباراة بطولية ؛ وكانت المباراة السابعة والعشرون ضد إيزارد تشارلز تحديا على لقب الوزن الثقيل ، ولذلك لم تدخل ضمن المباريات التي خاضها لويس خلال عهده . وفي كل الأحوال ، انتصر لويس في 25 مباراة للاحتفاظ باللقب ، وهو رقم قياسي لفئة الوزن الثقيل . وفي عام 2005 ، احتل لويس +question : من هو الملاكم الملقب ببراون بومبر ؟ +prompt : أجب عن السؤال التالي : من هو الملاكم الملقب ببراون بومبر ؟ الجواب هو +pred_answer : محمد علي كلاي ، +answer : جوزيف لويس بارو + +context : ساكسونيا ( بالألمانية : Sachsen ؛ وتلفظ زاكسن ، بالصوربية العليا : Swobodny stat Sakska ) هي ولاية ألمانية اتحادية حبيسة تحد ولايات براندنبورغ وساكسونيا أنهالت وتورينغن وبافاريا وتقع على الحدود مع بولندا ( محافظتي سيليزيا السفلى ولوبوسكي ) ومع جمهورية التشيك في أقاليم كارلوفي فاري وليبيريتس وأوستي ناد لابم . كانت قبل الوحدة الألمانية إحدى أهم ولايات جمهورية ألمانيا الديمقراطية . عاصمتها درسدن وأكبر مدنها لايبزيغ . +question : أين تقع ولاية ساكسونيا ؟ +prompt : أجب عن السؤال التالي : أين تقع ولاية ساكسونيا ؟ الجواب هو +pred_answer : في شمال +answer : ولاية ألمانية + +context : قد أدى قيام الجامعة في عام 1401 ه بأمر الملك خالد بن عبد العزيز صدر المرسوم الملكي الذي أدى إلى انبثاق عدد من الكليات هي امتداد لأقسام الكليتين العتيدتين بها : كلية الشريعة والدراسات الإسلامية كلية التربية مع معهد اللغة العربية حيث تم خلال العقد الأول من القرن الخامس عشر إنشاء خمس كليات هي كلية الدعوة وأصول الدين وكلية اللغة العربية ، وكلية العلوم التطبيقية ، وكلية العلوم الاجتماعية ، وكلية الهندسة والعمارة الإسلامية ، بالإضافة إلى كلية التربية بالطائف التي افتتحت في عام 1400 ه ، وبإنشاء كلية الطب والعلوم الطبية في عام 1416 ه بمكة وتحويل عمادة خدمة المجتمع إلى كلية أصبح عدد كليات هذه الجامعة اثنتي عشرة كلية بالإضافة إلى معهد خاص بتعليم اللغة العربية للناطقين بغيرها ، ومعهد لأبحاث الحج . وتم أخيرا افتتاح كلية للمجتمع بالباحة ، وأصبحت الجامعة تقدم مختلف أنواع التخصصات ، وتمنح درجات البكالوريوس والدبلوم العالي والماجستير والدكتوراه في علوم الشريعة واللغة العربية والتربية ، والعلوم الاجتماعية والتطبيقية والطب والهندسة . وتضم من الطلاب نحو ثلاثين ألف طالب وطالبة ، في مقر الجامعة بمكة ، وأعداد تخصصات الكليات في هذه الجامعة في ازدياد ، وهي بذلك تساهم في سد احتياجات المجتمع ومتطلبات خطط التنمية من الدارسين المؤهلين للخدمة في مختلف المجالات . وقد صحب قيام هذه الجامعة ، صدور الأمر بالمضي في إقامة مباني المدينة الجامعية الجديدة ، حيث اختبرت منطقة العابدية ، جنوب شرقي مكة ، المطلة على صعيد عرفات ، موقعا جديدا للجامعة . وقد وضع حجر الأساس لهذا المشروع العملاق ، خادم الحرمين الشريفين الملك فهد بن عبد العزيز عام 1406 ه ويتوقع أن يتم إنجاز المرحلة الثانية قريبا . و في عام 1414 ه انتقلت إلى المباني الجديدة في العابدية كلية الشريعة والدراسات الإسلامية الكلية الرائدة في العلوم الشرعية وذات اعتماد أكاديمي من رابطة العالم الإسلامي ، وكلية الهندسة والعمارة الإسلامية ، واحتلت كلية اللغة العربية مبنى ملحقا وثم انتقلت إلى مبنى آخر في نهاية 1420 ه . وعند إنشاء كلية الطب والعلوم الطبية في عام 1417 ه ألحقت مؤقتا بمبنى كلية الهندسة والعمارة الإسلامية ثم استقلت بمبناها الجديد الذي أنجزت مؤخرا المرحلة الأولى منه في وقت قياسي . وتتوزع مقرات الجامعة حاليا وكلياتها على ثلاثة مواقع في مكة : العزيزية ، وبها مباني الإدارة العامة ، والعمادات المساندة ، وبعض الكليات ، ومعهد خادم الحرمين الشريفين لأبحاث الحج والعمرة ، وكلية خدمة المجتمع ، ومعهد البحوث العلمية . والمقر الثاني بالزاهر يضم عمادة الدراسات الجامعية للطالبات ومباني كلياتها ومرافقها ، بالإضافة إلى المدينة الجديدة في العابدية . +question : متى تاسست جامعة أم القرى ؟ +prompt : أجب عن السؤال التالي : متى تاسست جامعة أم القرى ؟ الجواب هو في عام +pred_answer : 1369 ه ، +answer : 1401 ه + +context : دوامة نفايات شمال المحيط الهادئ هي منطقة قمامة بحرية تقع في منتصف المحيط الهادي الشمالي ، وتمتد إلى منطقة غير محددة الحدود بشكل دقيق ، وذلك لاختلاف تركيز البلاستيك والنفايات على حسب المنطقة . [1][2][3] +question : ما هي دوامة نفايات شمال المحيط الهادئ ؟ +prompt : أجب عن السؤال التالي : ما هي دوامة نفايات شمال المحيط الهادئ ؟ الجواب هو +pred_answer : أن هذه الدوامة عبارة عن مجموعة من الجزر الصغيرة التي تقع قبالة الساحل الشمالي للمحيط الهادئ ، وهي جزء من الحاجز المرجاني العظيم . +answer : منطقة قمامة بحرية تقع في منتصف المحيط الهادي الشمالي وتمتد إلى منطقة غير محددة الحدود بشكل دقيق وذلك لاختلاف تركيز البلاستيك والنفايات على حسب المنطقة + +context : المفعول به هو : الاسم الذي يدل على من وقع عليه فعل الفاعل . يكون دائما في الجملة الفعلية ويكون منصوبا دائما ، وعامل النصب فيه هو : الفعل المتعدي ، وعلامة نصبه الفتحة الظاهرة ، أو المقدرة ، أو الياء إن كان مثنى أو جمع مذكر سالم ، أو الكسرة ( نيابة عن الفتحة ) إن كان جمع مؤنث سالم ، أو الألف إن كان من الأسماء الخمسة . وقد يكون المفعول به اسما ظاهرا ، أو ضميرا ، أو جملة . +question : ما هي علامة إعراب المفعول به في اللغة العربية ؟ +prompt : أجب عن السؤال التالي : ما هي علامة إعراب المفعول به في اللغة العربية ؟ الجواب هو +pred_answer : : مفعول به منصوب وعلامة نصبه الفتحة الظاهرة على آخره .إذا كانت هذه زيارتك الأولى للمنتديات يشرفنا أن تقوم بالتسجيل بالضغط هنا ، أما إذا كنت أحد أعضاء +answer : الفتحة الظاهرة أو المقدرة أو الياء إن كان مثنى أو جمع مذكر سالم أو الكسرة نيابة عن الفتحة إن كان جمع مؤنث سالم أو الألف إن كان من الأسماء الخمسة + +context : موزمبيق رسميا جمهورية موزمبيق ( بالبرتغالية : Rep blica de Mo ambique ) هي دولة تقع في جنوب شرق أفريقيا يحدها المحيط الهندي من الشرق ، وتنزانيا من الشمال ، ومالاوي وزامبيا من الشمال الغربي ، وزيمبابوي من الغرب ، وسوازيلاند وجنوب أفريقيا من الجنوب الغربي ، وتقع جزر القمر شمال شرق سواحلها ومدغشقر تقابلها وبينهما القناة الموزمبيقية . عاصمتها وأكبر مدنها هي مابوتو وتقع في الطرف الجنوبي للبلاد . +question : ما هي عاصمة موزمبيق ؟ +prompt : أجب عن السؤال التالي : ما هي عاصمة موزمبيق ؟ الجواب هو +pred_answer : مابوتو +answer : مابوتو + +context : الكوكايين يعتبر أشد المنشطات الطبيعية . ويستخلص من أوراق نبات الكوكا الذي ينمو في أمريكا الجنوبية حيث يمضغه الأهالي وهو معروف لديهم منذ 5000 عام خاصة بوليفيا وبيرو أو يضعونه مع الشاي ويشربونه للانتعاش والتغلب على التعب . وكانت مادة الكوكايين النقية قد عزلت عن النبات عام 1880 بواسطة ألفريد نيمان وكانت تستعمل كمخدر موضعي في جراحات العين والأنف والحلق لأن هذه المادة تضيق الأوعية الدموية وتمنع النزيف . وقد استعمله الأطباء في بداية القرن الماضي كعلاج للاكتئاب سيجموند فرويد . +question : من أوراق أي نبات يستخلص الكوكايين ؟ +prompt : أجب عن السؤال التالي : من أوراق أي نبات يستخلص الكوكايين ؟ الجواب هو +pred_answer : لا شيء +answer : الكوكا + +context : في 11 من أكتوبر 2011 حطم فورلان الرقم القياسي بتسجيله الهدف رقم 32 ضد منتخب الباراغواي والتي انتهت بالتعادل ضمن تصفيات كأس العالم 2014 والرقم السابق كان مسجلا باسم اللاعب هيكتور سكاروني ب 31 هدفا منذ العام 1930 . [9][10] اعتزل اللعب دوليا في مارس 2015 . +question : متى اعتزل لاعب كرة القدم دييغو فورلان اللعب دوليا ؟ +prompt : أجب عن السؤال التالي : متى اعتزل لاعب كرة القدم دييغو فورلان اللعب دوليا ؟ الجواب هو في عام +pred_answer : 2010 . +answer : مارس 2015 + +context : هيلانة ، هي والدة الإمبراطور الروماني قسطنطين الكبير . [1][2][3] هيلانة الملكة القديسة +question : من هي الملكة هيلانة ؟ +prompt : أجب عن السؤال التالي : من هي الملكة هيلانة ؟ الجواب هو +pred_answer : القديسة هيلانة أم الامبراطور قسطنطين الكبير +answer : والدة الإمبراطور الروماني قسطنطين الكبير + +context : مات المستشار الألماني أدولف هتلر في 30 أبريل 1945 منتحرا عن طريق تناول مادة السيانيد السامة وإطلاق النار على نفسه وهي الرواية العامة المقبولة لطريقة موت الزعيم النازي . ولكن هذه الطريقة المزدوجة في الانتحار والظروف الأخرى التي أحاطت بالحادثة شجعت البعض على إطلاق الشائعات بأن هتلر لم ينتحر وأنه عاش حتى نهاية الحرب العالمية الثانية مع الاختلاف حول ما حدث لجثته . وقد أكدت الوثائق السوفيتية المفرج عنها من جهازي كي جي بي وجهاز الأمن الفيدرالي الروسي سنة 1993 الرواية التي تقول بانتحاره . ولكنها لم تظهر ما حدث لبقايا جثته بعد حرقها . +question : متى توفي هتلر ؟ +prompt : أجب عن السؤال التالي : متى توفي هتلر ؟ الجواب هو في عام +pred_answer : 1945 � +answer : 30 أبريل 1945 + +context : يقدر عدد سكان الفلبين بحوالي 92 مليون شخص ، مما يضعها في المرتبة 12 عالميا حسب التعداد السكاني . تشير التقديرات إلى وجود 11 مليون مغترب فلبيني في جميع أنحاء العالم . توجد أعراق وثقافات متعددة في جميع أنحاء الجزر . مناخها استوائي وتعد واحدة من أغنى مناطق التنوع الحيوي في العالم . +question : كم يبلغ التعداد السكاني للفلبين ؟ +prompt : أجب عن السؤال التالي : كم يبلغ التعداد السكاني للفلبين ؟ الجواب هو +pred_answer : أكثر من +answer : 92 مليون + +context : الغواصة القزمية نوع من الغواصات يكون حجم إزاحتها أقل من 150 طن ، ويشغل هذا النوع من الغواصات طاقم يتألف من من شخص إلى شخصين وفي بعض الأنواع يصل هذا العدد إلى 6 - 8 أفراد ، ولا تحوي الغواصة القزمة عادة أماكن المبيت على متنها للطاقم . [1][2][3] +question : ما هي الغواصة القزمية ؟ +prompt : أجب عن السؤال التالي : ما هي الغواصة القزمية ؟ الجواب هو +pred_answer : أنها عبارة عن غواصة صغيرة الحجم ، لا يزيد طولها عن +answer : نوع من الغواصات يكون حجم إزاحتها أقل من 150 طن + +context : 1848 : بيان لمبدأ نقل الصور ، ولكن من دون إمكان الإنجازات المادية . 1884 : المخترع الألماني بول نيبكو على براءة اختراع جهاز للخطوط تحليل الصور ، قرص نيبكو وأساس التلفزيون الميكانيكي . 27 يناير 1926 : الولادة الرسمية للتلفزيون . 26 أبريل 1935 : أول بث رسمي للتلفزيون الفرنسي . نوفمبر 1935 : التلفزيون يعرض ب 180 خط تعريف ، وجهاز إرسال على الموجات القصيرة يثبت على قمة برج ايفل . 4 يناير 1937 : بدء التلفزيون الفرنسي لبث كل مساء من ساعة 20 إلى الساعة 20 ونصف . 3 سبتمبر 1939 : في الحرب ، الألمان يهيمنون على التلفزيون الفرنسي . 1944 : رينيه بارث يطور تعريف 819 خطوط التلفزيون . 20 نوفمبر 1948 : مستوى انتقال الآن 819 خطوط . وفرنسا هي البلد الوحيد في اعتماد بلدان أخرى سيتم اختيار 625 خطوط . 1951 : هو البث العلني الأول بالألوان . 1967 : سيكام ، وهو مقياس ترميز الفيديو ملون في 625 خط ، اخترعه هنري دو فرانس ، والتلفزيون الفرنسي يعتمده . 2000 : تطور الأنظمة التلفزونية وتقسيمها حسب فئات عمرية محددة +question : في أي عام كان البث العلني الأول بالألوان ؟ +prompt : أجب عن السؤال التالي : في أي عام كان البث العلني الأول بالألوان ؟ الجواب هو في عام +pred_answer : 1996 . +answer : 1951 + +context : تشارلز فرانسيس ريختر ( 26 أبريل 1900 - 30 سبتمبر 1985 ) هو عالم زلازل وفيزيائي أمريكي . وريختر معروف بأنه مخترع مقياس ريختر ، والذي كان ولا زال يستخدم لقياس قوة الزلازل . [1] +question : من هو تشارلز فرانسيس ريشتر ؟ +prompt : أجب عن السؤال التالي : من هو تشارلز فرانسيس ريشتر ؟ الجواب هو +pred_answer : : Charles Francis Richter +answer : عالم زلازل وفيزيائي أمريكي + +context : رغم سيطرة المسلمين على العاصمة تبليسي في 645 م ، حافظت كارتلي - ايبيريا على استقلال كبير في ظل الحكام المسلمين المحليين . [17] أصبح الأمير آشوت الأول ( المعروف أيضا آشوت كورابالات ) عام 813 م أول حاكم للمملكة من أسرة باغراتيوني . افتتح عهد أشوت ما يقرب من 1000 سنة من حكم بيت باغراتيوني لجزء من الجمهورية الحالية على الأقل . +question : ما هي عاصمة جورجيا ؟ +prompt : أجب عن السؤال التالي : ما هي عاصمة جورجيا ؟ الجواب هو +pred_answer : تبليسي +answer : تبليسي + +context : نهر ليمبوبو أحد أكبر الأنهار في أفريقيا بعد نهر زمبيزي والتي تصب في المحيط الهندي . ومصدر هذا النهر من جنوب وسط أفريقيا ، ويجري بصورة عامة باتجاه الشرق حتى مصبه في المحيط الهندي . يبلغ طول النهر حوالي 1750 كيلومتر ، ومساحة حجم حوض تصريفه 415 , 000 كيلومتر مربع ، ومعدل تصريفه السنوي 170 متر مكعب في الثانية ( 6 , 200 قدم مكعب في الثانية ) [1] . ويجري هذا النهر في 4 دول من منبعه حتى مصبه وهى : جنوب أفريقيا و بتسوانا و زيمبابوي و موزمبيق . +question : أين ينبع نهر ليمبوبو ؟ +prompt : أجب عن السؤال التالي : أين ينبع نهر ليمبوبو ؟ الجواب هو +pred_answer : أنه ينبع من +answer : جنوب وسط أفريقيا + +context : ثورة الشواف هي حركة قامت في العراق في مدينتي الموصل وكركوك ضد حكم الزعيم عبد الكريم قاسم ، بقيادة العقيد عبد الوهاب الشواف في شهر آذار من عام 1959 م . { { # وسم : ref | مذكرات صبحي عبد الحميد - صبحي عبد الحميد - الدار العربية للموسوعات - 1989 م . } } +question : من كان قائد ثورة الشواف على نظام عبد الكريم قاسم في 8 آذار من عام 1959 ؟ +prompt : أجب عن السؤال التالي : من كان قائد ثورة الشواف على نظام عبد الكريم قاسم في 8 آذار من عام 1959 ؟ الجواب هو +pred_answer : العقيد الركن عبد الوهاب الشواف +answer : العقيد عبد الوهاب الشواف + +context : ويهيمن على وادي نهر لغن من بلفاست ، والتي تشمل منطقة العاصمة أكثر من ثلث سكان أيرلندا الشمالية ، مع التحضر والتصنيع الثقيل على طول وادي لغن والشواطئ على حد سواء من خليج بلفاست . +question : ماهى عاصمة أيرلندا الشمالية ؟ +prompt : أجب عن السؤال التالي : ماهى عاصمة أيرلندا الشمالية ؟ الجواب هو +pred_answer : مدينة بلفاست +answer : بلفاست + +context : العمى هي رواية كتبها البرتغالي جوزيه ساراماجو ، وتعتبر من أبرز أعماله الأدبية . [1][2][3] تتحدث الرواية عن وباء غامض يصيب إحدى المدن ، حيث يصاب أهل هده المدينة بالعمى فجأة ، مما يخلق موجة من الذعر والفوضى العارمة التي تؤدي إلى تدخل الجيش من أجل السيطرة على الأوضاع ، ولكن الوضع يزداد مأساوية حين يتخلى الجيش على الحشود العاجزة والواهنة ، ما يؤدي ذلك إلى سيطرة العصابات على ما تبقى من طعام ودواء . يبدأ الناس في الاقتتال فيما بينهم . تلقى القصة الضوء أيضا على الجانب الإنساني المتمثل في الطبيب وزوجته وعائلته الذين بقوا متماسكين حتى اندثار المرض فجأة كما ظهر . تتحدث الرواية عن العمى الفكري حيث قالت زوجة الطبيب في نهاية الرواية " لا أعتقد أننا عمينا بل أعتقد أننا عميان يرون ، بشر عميان يستطيعون أن يروا لكنهم لا يرون " في إشارة أيضا أن الأخلاق البشرية و المبادىء الانسانية هشة أمام العوز البشري . +question : من صاحب رواية العمى ؟ +prompt : أجب عن السؤال التالي : من صاحب رواية العمى ؟ الجواب هو +pred_answer : الروائي التشيكي ميلان كونديرا +answer : جوزيه ساراماجو + +context : Coordinates : منطقة الباحة هي إحدى المناطق الإدارية الثلاث عشرة التي تتكون منها المملكة العربية السعودية . تقع في الجزء الغربي من شبه الجزيرة العربية ، على سلسلة جبال الحجاز ، تأسست كمنطقة إدارية في شهر ذي الحجة عام 1383 ه ، وعاصمتها الإدارية مدينة الباحة احدى قرى شمال غامد وإليها تنسب المنطقة ويتركز بها الثقل الإداري والتجاري وبها توجد إمارة المنطقة وتتجمع فيها الدوائر الحكومية والمراكز التجارية الكبرى إضافة إلى أن بها أسواقا شعبية كثيرة منها : ( سوق الخميس ، سوق السبت ، سوق الاثنين ) وتعتبر من أفضل مناطق المملكة في مجال السياحة جنوب غرب المملكة ، ويحد منطقة الباحة منطقة مكة المكرمة من الشمال والغرب والجنوب ، ومنطقة عسير من الشرق . +question : أين تقع منطقة الباحة ؟ +prompt : أجب عن السؤال التالي : أين تقع منطقة الباحة ؟ الجواب هو +pred_answer : في الجزء الجنوبي الغربي من المملكة العربية السعودية ، وتحديدا في +answer : الجزء الغربي من شبه الجزيرة العربية على سلسلة جبال الحجاز + +context : يعد فيسبوك أكثر مواقع التواصل الاجتماعي شعبية في العديد من الدول الناطقة باللغة الإنجليزية ، ومن بينها كندا[86] والمملكة المتحدة . [87] وعلى الرغم من ذلك ، فإن عدد مستخدمي الموقع في الولايات المتحدة الأمريكية بلغ 36 مليون مستخدم فحسب مقارنة بحوالي 73 مليون مستخدم لموقع ماي سبيس . [88] وقد نال الموقع العديد من الجوائز ، حيث كان واحدا من بين " أفضل 100 موقع كلاسيكي " ، وهي المسابقة التي نظمتها مجلة بي سي عام 2007 ، [89] كما نال جائزة " People ' s Voice Award " ، إحدى جوائز ويبي عام 2008 . [90] وفي دراسة أجرتها مؤسسة ستيودنت مونيتور عام 2006 ، وهي شركة متخصصة في دراسة توجهات الطلبة في الجامعات تتخذ من ولاية نيوجيرسي مقرا لها ، وجد أن فيسبوك يحتل المرتبة الثانية في الشعبية بين طلبة الجامعات مقترنا بشراب البيرة ، وذلك بعد أجهزة آي بود في المرتبة الأولى . [91] +question : ماهو عدد مستخدمي خدمة الفيس بوك في الولايات المتحدة ؟ +prompt : أجب عن السؤال التالي : ماهو عدد مستخدمي خدمة الفيس بوك في الولايات المتحدة ؟ الجواب هو +pred_answer : أكثر من +answer : 36 مليون + +context : الغزو السوفياتي لبولندا هو عملية عسكرية سوفيتية بدأت دون إعلان رسمي في 17 سبتمبر 1939 . في ذلك الصباح ، بعد 16 يوما من غزو ألمانيا النازية بولندا من الغرب ، غزا الاتحاد السوفياتي بولندا من الشرق . استمر الغزو والمعركة لمدة 20 يوما متتالية وانتهى في 6 أكتوبر 1939 مع ضم كامل أراضي الجمهورية البولندية الثانية من قبل كل من ألمانيا والاتحاد السوفياتي . [1] تم الاتفاق سرا على الغزو الألماني السوفياتي المشترك لبولندا في اتفاق مولوتوف - ريبنتروب الموقع في 23 أغسطس 1939 . [2] +question : متى بدأت عملية الغزو السوفيتي لبولندا ؟ +prompt : أجب عن السؤال التالي : متى بدأت عملية الغزو السوفيتي لبولندا ؟ الجواب هو في عام +pred_answer : 1941 ، عندما +answer : 17 سبتمبر 1939 + +context : تعد خاركيف ( بالاوكرانية : , بالروسية ) ثاني أكبر مدينة في أوكرانيا من ناحية المساحة وعدد السكان ، وهي أكبر مركز صناعي وعلمي وثقافي والمركز الإداري لخاركيف أوبلاست ( محافظة خاركوف ) . أسست هذه المدينة في القرن السابع عشر ( 1656 - 1654 م ) وبقيت عاصمة أوكرانيا حتى مطلع الثلاثينات من القرن العشرين . يزيد عدد سكان هذه المدينة على مليون نسمة . يوجد في المدينة حوالي 700 نصب تذكاري ، متاحف ، ومسارح وقاعات عرض . [1] أما أنفاق المترو ( قطارات تحت الأرض ) والتي يعود فن معماريتها إلى أنفاق موسكو ، فهي ابرز ملامح هذه المدينة . ومدينة خاركوف هي أكبر مدينة طلابية ، حيث يوجد فيها أكثر من 40 معهد تعليمي عالي . وتعد من المناطق الباردة نسبيا وقد تتدنى درجات الحرارة إلى الثلاثين تحت الصفر في الشتاء ولكن الجو ممتاز صيفا وهناك جالية عربية كبيرة وخاصة من الأردن والعراق وفلسطين ولبنان وسوريا ودول المغرب العربي والقليل من دول الخليج العربي كما يوجد هناك الكثير من الأنهار والبحيرات والحدائق والكثير من المنتجعات السياحية والغابات الجميلة . +question : أين تقع مدينة خاركيف ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة خاركيف ؟ الجواب هو +pred_answer : في شرق أوكرانيا +answer : أوكرانيا + +context : أبو القاسم عباس بن فرناس بن ورداس التاكرني هو عالم مخترع موسوعي مسلم أندلسي . [1][2] ولد في رندة بإسبانيا ، في زمن الدولة الأموية في الأندلس ، واشتهر بمحاولته الطيران . [3][4] إضافة إلى كونه شاعرا وعالما في الرياضيات والفلك والكيمياء . +question : متى ولد عباس بن فرناس ؟ +prompt : أجب عن السؤال التالي : متى ولد عباس بن فرناس ؟ الجواب هو +pred_answer : في عام 810 � +answer : زمن الدولة الأموية في الأندلس + +context : العامل الرئيسي المساهم في التكامل الاقتصادي في المنطقة مع الدنمارك كان جسر أوريسند . تقريبا 10 ٪ من سكان مالمو يعملون في كوبنهاغن ، الدنمارك . كما جامعة مالمو التي تأسست في عام 1998 وآثار الاندماج في الاتحاد الأوروبي قد أسهمت أيضا في التكامل الاقتصادي . +question : في أي عام تأسست جامعة مالمو ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست جامعة مالمو ؟ الجواب هو في عام +pred_answer : 1909 +answer : 1998 + +context : ولد روزفلت في الثلاثين من يناير عام 1882 ، في هايد بارك في نيويورك . وتلقى أول دروسه على يد مدرسين خصوصيين ، ثم التحق بجامعة هارفارد ( Harvard University ) ، وتخرج فيها عام 1904 . وعقب تخرجه التحق بكلية الحقوق بجامعة كولومبيا ( 1904 - 1907 ) ، ولكنه لم يتخرج فيها ، إذ فشل في اجتياز الامتحان . ينحدر فرانكلين ديلانو روزفلت من أصل هولندي فرنسي . انتخب جده الأكبر ، نيكولاس روزفلت ، عمدة لمدينة نيويورك ( 1698 - 1701 ) . أما والده ، جيمس روزفلت ( 1828 - 1900 ) ، فكان يعمل محاميا وخبيرا ماليا ، ومات إثر إصابته بمرض قلبي ، عندما كان فرانكلين في أولى سنوات دراسته بجامعة هارفارد . أما والدته سارة " سالي " ( 1854 – 1941 ) ، فقد ماتت عن عمر يناهز 87 عاما ، أثناء الفترة الثالثة لتولي ابنها الرئاسة . وورث عنها روزفلت ثروة تقدر بنحو 920 ألف دولار . وكان لفرانكلين أخ واحد من والده ، اسمه جيمس روزفلت الصغير ، وكان يعمل سكرتيرا أولا في سفارة أمريكا في فيينا ، ثم بعد ذلك في لندن . +question : من هو والد فرانكلين ديلانو روزفلت ؟ +prompt : أجب عن السؤال التالي : من هو والد فرانكلين ديلانو روزفلت ؟ الجواب هو +pred_answer : الرئيس الأمريكي الأسبق ، +answer : جيمس روزفلت + +context : محمد علي العابد ( ولد : 1867 في دمشق - الوفاة : 1939 في باريس ) ، سياسي ودبلوماسي عربي سوري ، هو أول رئيس للجمهورية السورية بين 11 يونيو 1932 و 21 ديسمبر 1936 ، وثامن حاكم منذ سقوط سوريا العثمانية ، وأول رئيس لسوريا يتم انتخابه ولايتم تعيينه . كان العابد يمثل عند انتخابه " الأرستقراطية الدمشقية والمتقدمة في العمر ، إذ كان يبلغ عند انتخابه السبعين من عمره " . [1] درس العابد في دمشق التي غادرها طفلا وفي بيروت وإسطنبول وباريس ، وعمل في الخارجية العثمانية وعين سفيرا في الولايات المتحدة ، وبعد الانقلاب على السلطان عبد الحميد الثاني ( 1908 ) لم يعد وعائلته إلى الدولة العثمانية مطلقا بل تنقلت العائلة في أرجاء أوروبا حتى نهاية الحرب العالمية الأولى ، ثم استقر في مصر قبل أن يعود إلى دمشق بعد بدء الانتداب . في سياسته كان العابد محايدا ذا علاقات جيدة مع موالي الانتداب من ناحية ومع الكتلة الوطنية من ناحية ثانية ، وهو ما ساهم في وصوله لمقام الرئاسة في 13 يونيو 1932 ، وكان أول من حمل لقب « رئيس الجمهورية » في سوريا ، إذ إن من سبقوه سموا « رؤساء دولة » لعدم وجود دستور يتبنى النظام الجمهوري . بموجب الدستور فإن ولاية الرئيس تمتد لخمسة سنوات ، إلا أنه استقال عام 1936 بداعي السن وتمهيدا لتدشين حكم الكتلة الوطنية بعد توقيع المعاهدة السورية الفرنسية ؛ وقد تتالى خلال رئاسته أربع حكومات . +question : متى توفي محمد علي العابد ؟ +prompt : أجب عن السؤال التالي : متى توفي محمد علي العابد ؟ الجواب هو في عام +pred_answer : 1860 +answer : 1939 + +context : التوازن الثرموديناميكي أو التوازن الدينامي الحراري في الفيزياء والكيمياء نصف نظام بأنه في حالة توازن ثرموديناميكي عندما يكون في حالة توازن حراري و توازن ميكانيكي ( حركي ) و توازن إشعاعي و توازن كيميائي . وعندما يكون نظام في حالة توازن ثرموديناميكي فلا يحدث فيه انتقال للمادة أو انتقال للطاقة ولا يحدث فيه تطور للمادة ولا تحدث فيه قوى دافعة . فالنظام الذي في حالة توازن ثرموديناميكي لا يعتريه أي تغير عندما يكون معزولا عن الوسط المحيط به . +question : ما هو التوازن الثرموديناميكي ؟ +prompt : أجب عن السؤال التالي : ما هو التوازن الثرموديناميكي ؟ الجواب هو +pred_answer : أن درجة الحرارة التي يحدث عندها التحول من الحالة السائلة إلى الحالة الغازية تساوي صفرا ، أي أنه لا يوجد توازن بين الضغط ودرجة الحرارة في النظام . +answer : نصف نظام بأنه في حالة توازن ثرموديناميكي عندما يكون في حالة توازن حراري و توازن ميكانيكي حركي و توازن إشعاعي و توازن كيميائي + +context : إربد مدينة أردنية ، ومركز محافظة إربد في شمال الأردن وأكبر مدنها . تقع على بعد 71 كيلومترا شمال العاصمة عمان ، كما تبعد حوالي 20 كم إلى الجنوب من الحدود السورية الأردنية . وتعد ثالث أكبر مدن المملكة بعد العاصمة الأردنية والزرقاء بالنسبة لعدد السكان ، حيث يبلغ عدد سكان المدينة وضواحيها أكثر 530 ألف نسمة حسب تعداد السكان لسنة 2017 , وتقدر مساحة المدينة مع ضواحيها بحوالي 30 كيلو متر مربع . تقع المدينة في موقع متوسط بالنسبة لباقي مناطق المحافظة ؛ إذ تقع على دائرة عرض 32 شمالا وخط طول 35 شرقا . تتميز الطبيعة الجغرافية للمدينة بالطبيعة السهلية ، وإن كانت المناطق الغربية منها ذات طبيعة أقرب للطبيعة الجبلية [1] . +question : ما مساحة مدينة إربد ؟ +prompt : أجب عن السؤال التالي : ما مساحة مدينة إربد ؟ الجواب هو +pred_answer : : 1 . 5 +answer : 30 كيلو متر مربع + +context : البطالة الاحتكاكية وتسمى أيضا ببطالة التنقل هي نوع من أنواع البطالة المؤقتة ( لفترة زمنية قصيرة ) . تحدث في الفترة الزمنية من بين التقديم على وظيفة ( من قبل العامل ) والقبول والتوظيف ( من قبل الشركة ) . +question : ما هي البطالة الإحتكاكية ؟ +prompt : أجب عن السؤال التالي : ما هي البطالة الإحتكاكية ؟ الجواب هو +pred_answer : أن هناك نوعين من البطالة +answer : نوع من أنواع البطالة المؤقتة + +context : اصطلاح الفاشية مشتق من الكلمة الإيطالية ، وهي تعني حزمة من الصولجانات كانت تحمل أمام الحكام في روما القديمة دليلا على سلطاتهم . وفي تسعينيات القرن التاسع عشر بدأت كلمة فاشيا " fascia " تستخدم في إيطاليا لتشير إلى جماعة أو رابطة سياسية عادة ما تتكون من اشتراكيين ثوريين . وكان توظيف موسوليني لوصف الجماعة البرلمانية المسلحة التي شكلها في أثناء الحرب العالمية الأولى وبعدها أول موسوليني في زيه الفاشي مؤشرا على أن اصطلاح " fascismo " قد حظي بمعان أيديولوجية واضحة ، وعلى الرغم من ذلك فعادة ما يفتقر توظيف اصطلاحي " الفاشية " " fascismo " و " الفاشي " " fascista " إلى الدقة ، فكثيرا ما تستخدم كاصطلاحات تهدف إلى الإساءة السياسية للخصوم السياسيين والاتهام لهم بالدكتاتورية ومعاداة الديمقراطية . +question : ما معنى اصطلاح اصطلاح الفاشية لغويا ؟ +prompt : أجب عن السؤال التالي : ما معنى اصطلاح اصطلاح الفاشية لغويا ؟ الجواب هو +pred_answer : أن لفظ " فاشية " مشتق من الكلمة اللاتينية Fascismus والتي تعني +answer : حزمة من الصولجانات كانت تحمل أمام الحكام في روما القديمة دليلا على سلطاتهم + +context : الأصولية هي اصطلاح سياسي فكري مستحدث يشير إلى نظرة متكاملة للحياة بكافة جوانبها السياسية والاجتماعية والاقتصادية والثقافية نابعة عن قناعة متأصلة نابعة عن إيمان بفكرة أو منظومة قناعات ، تكون في الغالب تصورا أو عقيدة دينية . أن الكلمة جاءت من عنوان سلسلة نشرات أو كتيبات سميت الأصول أو الأساسيات والتي ظهرت في الولايات المتحدة الأمريكية خلال الفترة 1910 1915 م واستخدم فيها مصطلح الأصول ليعنى عناصر العقيدة التقليدية أي النص كوحي وسلطة ، وألوهية المسيح ومعجزة إنجاب مريم العذراء وغيرها من الثوابت التي يراها الأصوليون المسيحيون اليوم . +question : من هم الأصوليين ؟ +prompt : أجب عن السؤال التالي : من هم الأصوليين ؟ الجواب هو +pred_answer : أنهم مجموعة من المسلمين الذين يؤمنون بأن الإسلام يجب أن يكون دين الدولة الرسمي ، وأن الشريعة الإسلامية هي المصدر الأساسي للتشريع .وإذا كان هذا صحيحا ، فإن ذلك يعني أنه لا يمكن +answer : اصطلاح سياسي فكري مستحدث يشير إلى نظرة متكاملة للحياة بكافة جوانبها السياسية والاجتماعية والاقتصادية والثقافية نابعة عن قناعة متأصلة نابعة عن إيمان بفكرة أو منظومة قناعات تكون في الغالب تصورا أو عقيدة دينية + +context : تصميم الجرافيك أو التصميم الغرافيكي ( فن الاتصالات البصرية ) هو نهج إبداعي يقوم به مصمم أو مجموعة من المصممين بناء على طلب العميل أو الزبون ويتعاون على تنفيذ معطياته المادية مجموعة من المنتجين ( عمال طباعة ، مبرمجين ، مخرجين ، الخ ) من أجل إيصال رسالة معينة ( أو مجموعة رسائل ) للجمهور المستهدف . يشير مصطلح تصميم الجرافيك إلى عدد من التخصصات الفنية والمهنية التي تركز على الاتصالات المرئية وطرق عرضها . وتستخدم أساليب متنوعة لإنشاء والجمع بين الرموز والصور أو الكلمات لخلق تمثيل مرئي للأفكار والرسائل . وقد يستخدم مصمم الجرافيك تقنيات مثل فن الخط ، الفنون البصرية ، تنسيق الصفحات للوصول إلى النتيجة النهائية . هذا وغالبا ما يشير تصميم الجرافيك إلى كل من العملية ( التصميم ) التي من خلالها يتم إنشاء التواصل وكذلك المنتجات ( التصاميم ) . +question : ماهو الجرافيك ديزاين ؟ +prompt : أجب عن السؤال التالي : ماهو الجرافيك ديزاين ؟ الجواب هو +pred_answer : عبارة عن مجموعة من التقنيات التي تستخدم في تصميم المواقع الإلكترونية ، حيث يتم استخدام هذه التقنيات لتصميم مواقع إلكترونية ذات جودة عالية .هناك العديد من أنواع الجرافيك ديزاين والتي تختلف فيما بينها على حسب نوع الموقع الإلكتروني الذي يتم تصميمه ، +answer : نهج إبداعي يقوم به مصمم أو مجموعة من المصممين بناء على طلب العميل أو الزبون ويتعاون على تنفيذ معطياته المادية مجموعة من المنتجين عمال طباعة مبرمجين مخرجين الخ من أجل إيصال رسالة معينة أو مجموعة رسائل للجمهور المستهدف + +context : متلازمة كلاينفلتر هي متلازمة توجد في الذكور الذين يمتلكون صبغ ( خ ) زائد في خلاياهم ، ليصبح العدد 44 + XXY بدلا من 44 + XY . وسميت على اسم الدكتور هاري كلاينفلتر الذي وصفها لأول مرة عام 1942 [1] ، وتحدث نتيجة عدم انتظام في توزيع الصبغيات أثناء عملية الانقسام الميوزي للبويضات في الأنثى حيث في بعض الحالات النادرة جدا يحدث ان تلتصق اصباغ ( X ) ببعضها أثناء الانقسام الميوزي بالتحديد عند الطور الاستوائي حيث بعدها لا تستطيع ازواج الكروموسومات ان تنفصل عن بعضها مما ينتج عنه بويضات تركيبها ( 22 + xx ) ، وأخرى ( 22 + 0 ) فينتج عن اخصاب الأولى بحيوان منوي تركيبه ( 22 + y ) ذكر كلاينفلتر ، اما ان كان تركيب الحيوان المنوي ( 22 + x ) فإن النتاج سيكون انثى عادية لديها حالة تضاعف جنسي . +question : ما هي متلازمة كلاينفيلتر ؟ +prompt : أجب عن السؤال التالي : ما هي متلازمة كلاينفيلتر ؟ الجواب هو +pred_answer : أن هذه المتلازمة عبارة عن مجموعة من الأعراض التي تظهر على المريض +answer : متلازمة توجد في الذكور الذين يمتلكون صبغ خ زائد في خلاياهم + +context : يصل عرض البحر الميت في أقصى حد إلى 17 كم ، بينما يبلغ طوله حوالي 70 كم . وقد بلغت مساحته في عام 2010 حوالي 650 كم 2 إذ تقلصت خلال الأربع عقود الماضية بما يزيد عن 35 % . كما يلعب المناخ الصحراوي للمنطقة الذي يمتاز بشدة الحرارة والجفاف ومعدلات التبخر العالية دورا كبيرا في زيادة تركيز تلك الأملاح فيه . [3] +question : كم مساحة البحرالميت ؟ +prompt : أجب عن السؤال التالي : كم مساحة البحرالميت ؟ الجواب هو +pred_answer : 1 . 5 مليون +answer : 650 كم 2 + +context : جامع الزيتونة أو جامع الزيتونة المعمور أو الجامع الأعظم ، هو المسجد الجامع الرئيسي في مدينة تونس العتيقة في تونس العاصمة في تونس ، وأكبرها وأقدمها ويرجع للسنة على المذهب المالكي . تأسس في 698 ( 79 ه ) بأمر من حسان بن النعمان وأتمه عبيد الله بن الحبحاب في 732 ، ويعتبر ثاني أقدم مسجد في تونس بعد جامع عقبة بن نافع . يقع الجامع على مساحة 000 5 متر مربع ، ولديه تسعة أبواب ، وقاعته الداخلية تتكون من 184 عمود ، آتية أساسا من الموقع الأثري بقرطاج . شغل المنصب لمدة طويلة كموقع دفاع لوجهته على البحر وذلك عبر صومعته . تقود الجامع هيئة تسمى مشيخة الجامع الأعظم . +question : متى تم بناء جامع الزيتونة في تونس ؟ +prompt : أجب عن السؤال التالي : متى تم بناء جامع الزيتونة في تونس ؟ الجواب هو +pred_answer : أن الجامع +answer : 698 + +context : أنطوني جيرارد نيوتن فلو ( 11 فبراير 1923 - 08 أبريل 2010 ) فيلسوف بريطاني ، اشتهر بكتاباته في فلسفة الأديان . كان فلو طوال حياته ملحدا وألف العديد من الكتب التي تدحض فكرة الإله ، غير أنه وفي آخر حياته ألف كتابا نسخ كل كتبه السابقة وقد تجاوزت ثلاثين كتابا تدور حول فكرة الإلحاد ، بعنوان : هنالك إله . [1] وقد تعرض لحملة تشهير ضخمة من المواقع الإلحادية في العالم وذلك لأنه ولخمسين عاما كان يعتبر من أهم منظري الإلحاد في العالم ، تميز فلو بعلميته في الطرح واستشهاده بقوانين الطبيعة لاثبات آرائه ، وقد بدأ يتخلى عن الإلحاد بعد تفحص عميق للأدلة [2] ثم أعلن ما اعتبر صدمة قوية في وسط الفكر الإلحادي في العالم تحوله إلى الفكر الربوبي . [3] +question : من هو الفيلسوف أنطوني فلو ؟ +prompt : أجب عن السؤال التالي : من هو الفيلسوف أنطوني فلو ؟ الجواب هو +pred_answer : أنطوني فلو ( بالإنجليزية : Anthony +answer : فيلسوف بريطاني اشتهر بكتاباته في فلسفة الأديان + +context : الأنصار في التاريخ الإسلامي هم أهل يثرب الذين ناصروا رسول الله في الإسلام محمد بن عبد الله . وهم ينتمون إلى قبائل الأوس والخزرج ابني حارثة بن ثعلبة بن عمرو بن عامر بن حارثة بن امرئ القيس بن ثعلبة بن مازن بن الأسد بن الغوث . هاجروا إلى يثرب بعد سيل العرم الذي أودى بسد مأرب فدخلوها بعد أن حاربوا بها يهود حتى استقر لهم الأمر بها ، وكانت بين الأوس والخزرج حروب طوال قاسية كان آخرها يوم بعاث قبل الهجرة النبوية . [1] +question : من هم الأنصار ؟ +prompt : أجب عن السؤال التالي : من هم الأنصار ؟ الجواب هو +pred_answer : : أنصار رسول الله ( صلى الله عليه وآله وسلم ) هم الذين +answer : أهل يثرب الذين ناصروا رسول الله في الإسلام محمد بن عبد الله + +context : الاتحاد الدولي لكرة القدم ، ويعرف اختصارا باسم الفيفا ، هي الهيئة المنظمة للعبة كرة القدم في العالم ، تأسست في 21 مايو من العام 1904 في باريس ، ويقع مقرها بمدينة زيورخ في سويسرا . ويضم 211 من اتحادات كرة القدم في العالم ، ويرأس الفيفا السويسري جوزيف بلاتر إلى أن استقال في 2 يونيو 2015 ، في 26 فبراير 2016 انتخب جياني إنفانتينو كرئيس للفيفا . +question : متى تاسس الاتحاد الدولي لكرة القدم ؟ +prompt : أجب عن السؤال التالي : متى تاسس الاتحاد الدولي لكرة القدم ؟ الجواب هو في عام +pred_answer : 1904 م . +answer : 21 مايو من العام 1904 + +context : الإسماعيلية إحدى مدن القناة وهي عاصمة محافظة الإسماعيلية . يبلغ تعداد سكان المدينة وضواحيها حوالي نصف مليون نسمة . بنيت المدينة على الضفة الغربية من بحيرة التمساح - والتي تعتبر جزءا من ممر قناة السويس - تقريبا في منتصف المسافة بين بورسعيد شمالا والسويس جنوبا ، لكي تكون مركزا لشركة قناة السويس العالمية للملاحة في عهد الخديوى إسماعيل . +question : اين تقع مدينة الاسماعيلية ؟ +prompt : أجب عن السؤال التالي : اين تقع مدينة الاسماعيلية ؟ الجواب هو +pred_answer : انها تقع في شمال مصر ، وهي عاصمة محافظة +answer : منتصف المسافة بين بورسعيد شمالا والسويس جنوبا + +context : ولد أبو عامر محمد بن أبي حفص عبد الله بن محمد بن عبد الله بن عامر بن أبي عامر محمد بن الوليد بن يزيد بن عبد الملك المعافري . [2] عام 327 ه في الجزيرة الخضراء في بيت من أعيان تلك المدينة . [3] كان أبوه عبد الله من طلاب العلم المعروفين ، وقد مات في رحلة عودته من الحج ودفن في طرابلس . [2] أمه هي بريهة بنت يحيى بن زكرياء التميمي من أهل بيت من أشراف قرطبة يسمون ببني برطال . [4] جده لأمه يحيى بن إسحاق وزير وطبيب الخليفة عبد الرحمن الناصر لدين الله . [5] وجده عبد الملك المعافري كان من الداخلين للأندلس مع طارق بن زياد . [4] +question : أين ولد أبو عامر محمد بن أبي عامر ؟ +prompt : أجب عن السؤال التالي : أين ولد أبو عامر محمد بن أبي عامر ؟ الجواب هو +pred_answer : في الأندلس ، +answer : الجزيرة الخضراء + +context : داود هو اسم علم شخصي عربي من أصل عبري ، ويعتبر من الأسماء المنتشرة في العالم العربي نسبا لأنه اسم داود أحد الأنبياء في الإسلام والمسيحية واليهودية وألذي يعني الحبيب ، ولهذا الاسم أشكال مختلفة في اللغات الأخرى مثل ديفيد وديف ودايفي وداودا . [1] +question : ما معنى اسم داوود ؟ +prompt : أجب عن السؤال التالي : ما معنى اسم داوود ؟ الجواب هو +pred_answer : داود بن +answer : الحبيب + +context : الخفجي هي مدينة و محافظة سعودية تقع في شمال شرق المملكة العربية السعودية على الحدود الكويتية . +question : اين توجد منطقة الخفجي ؟ +prompt : أجب عن السؤال التالي : اين توجد منطقة الخفجي ؟ الجواب هو +pred_answer : انها تقع في المنطقة المحايدة +answer : شمال شرق المملكة العربية السعودية + +context : كرتون نتورك بالعربية قناة تلفزيونية موجهة للأطفال والمراهقين مجانية تابعة للشبكة كرتون نتورك ، التي تبث للجمهور العربي في عموم منطقة الشرق الأوسط وشمال أفريقيا ، وهي الطبعة العربية الرسمية لكرتون نتورك . تعود ملكية هذه القناة لشركة ترنر برودكاستيج سيستم في أوروبا والشرق الأوسط ، التابعة للشركة الأم تايم وارنر . أطلقت القناة في 10 أكتوبر 2010 في دولة الإمارات العربية المتحدة في تمام الساعة 10 : 10 صباحا بتوقيت المملكة العربية السعودية[1][2] ، إذ تزامن إطلاق القناة مع افتتاح مكاتب تيرنر للبث النظام الجديد في مدينة دبي للإعلام ، المملكة العربية السعودية ، مالك القناة المحلية . فرع الشرق الأوسط لشركة تايم وارنر . [3] +question : متى أطلقت قناة كرتون نتورك ؟ +prompt : أجب عن السؤال التالي : متى أطلقت قناة كرتون نتورك ؟ الجواب هو في عام +pred_answer : 1995 ، عندما +answer : 10 أكتوبر 2010 + +context : محمد بن الحسن ( 21 أغسطس 1963 م ) ملك المغرب . هو الملك الثالث والعشرون لسلالة العلويين الهاشميين . وتمت البيعة له ملكا يوم الجمعة 9 ربيع الآخر سنة 1420 ه 23 يوليو 1999 م إثر وفاة والده الملك الحسن الثاني . وبحسب دراسة نشرت في عام 2009 وأشرف عليها باحثون ومختصون دوليون ، فإنه واحد من بين أكثر خمسين شخصية مسلمة تأثيرا في العالم . [1] +question : متى تولى محمد السادس الحكم في المغرب ؟ +prompt : أجب عن السؤال التالي : متى تولى محمد السادس الحكم في المغرب ؟ الجواب هو في عام +pred_answer : 19 ، بعد وفاة والده الحسن الثاني +answer : ربيع الآخر سنة 1420 ه + +context : المسيحيون الأردنيون هم من أقدم المجتمعات المسيحية في العالم . [1] حيث انتشروا في الأردن في بدايات القرن الأول الميلادي . وفقا لبي بي سي تتراوح أعداد مسيحيي الأردن من 174 , 000 إلى 390 , 000 نسمة ، أو 3 - 6 % من عدد سكانها البالغ حوالي 8 . 5 مليون ، [2] مقارنة بحوالي 20 % في عام 1930 . يرجع هذا الإنخفاض إلى حد كبير إلى انخفاض معدلات المواليد المسيحيين مقارنة مع المسلمين ، وإلى تدفق قوي من المهاجرين المسلمين من الدول المجاورة . بالإضافة إلى هجرة المسيحيين العالية مقارنة بالمسلمين ، حيث عزى البعض ذلك إلى التسهيلات المقدمة من بعض السفارات الغربية لبعض مسيحيي الشرق . [3][4] +question : ماهو تعداد المسيحيين الأردنيين ؟ +prompt : أجب عن السؤال التالي : ماهو تعداد المسيحيين الأردنيين ؟ الجواب هو +pred_answer : أن عدد المسيحيين في الأردن يصل إلى ما يقارب +answer : 174 000 إلى 390 000 نسمة + +context : قطيسفون أو قطسيفون , ( باليونانية : ، بالفارسية : تيسفون ، بالآرامية : ) مدينة عراقية كانت عاصمة الساسانيين والفرثيين . [1][2][3] بنيت المدينة على الضفة الشرقية لنهر دجلة قرب بلدة المدائن سلمان باك الحالية ما يقارب ال 35 كم جنوب شرق بغداد . موقع قطيسفون قرب موقع مدينة سلوقية الأثرية التي بناها السلوقيون . من أشهر معالم قطسيفون بناء طاق كسرى أو إيوان كسرى الذي كان مقر الحكم الساساني . +question : أين تقع مدينة قطيسفون ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة قطيسفون ؟ الجواب هو +pred_answer : في جنوب غرب +answer : جنوب شرق بغداد + +context : الذاكرة العرضية هي ذاكرة أحداث السيرة الذاتية ( الأوقات والأماكن ، والعواطف المرتبطة بها ، وغيرها كمعرفة من ، ماذا ، متى ، أين ، لماذا ) . وهي مجموعة من التجارب الشخصية السابقة التي وقعت في وقت معين ومكان معين . على سبيل المثال ، إذا قام أحد بتذكر عيد ميلاده السادس فإن هذا هو الذاكرة العرضية . فهذه الذاكرة هي ما يسمح للفرد أن يعود مجازيا بالوقت المناسب لتذكر الأحداث التي وقعت في ذلك الوقت والمكان المحدد [1] . +question : ما هي الذاكرة العرضية ؟ +prompt : أجب عن السؤال التالي : ما هي الذاكرة العرضية ؟ الجواب هو +pred_answer : أن هناك نوعين من +answer : ذاكرة أحداث السيرة الذاتية + +context : مديرية رغوان إحدى مديريات محافظة مأرب في وسط اليمن . بلغ عدد سكانها 4391 نسمة عام 2004[1] . +question : أين تقع مديرية رغوان ؟ +prompt : أجب عن السؤال التالي : أين تقع مديرية رغوان ؟ الجواب هو +pred_answer : في منطقة +answer : وسط اليمن + +context : هندريك لورنتز ولد في أرنهيم بخيلدرلند بهولندا ، وهو ابن جيريت فردريك لورنتز ( 1822 - 1893 ) , صاحب مشتل , وجيرتيدا فان جنكل ( 1826 - 1861 ) . عام 1862 ، بعد وفاة والدته , تزوج والده من لوبرتا هبكس . في الفترة 1866 - 1869 التحق بمدرسة ثانوية بارنهيم , وفي عام 1870 نجح في اختبارات اللغة المطلوبة للقبول بالجامعة . لورنتز درس الفيزياء والرياضيات في جامعة ليدن , حيث تاثر كثيرا باستاذ علم الفلك فردريك كايزر ; هذا التاثر هو الذي جعله يصبح فيزيائيا . بعد حصوله على شهادة البكالريوس ، عاد إلى ارنهيم عام 1872 ليعمل معلم رياضيات بالمدرسة الثانوية ، لكنه استمر في الدراسة بليدن بجانب عمله . عام 1875 لورنتز حصل على شهادة الدكتوراه تحت اشراف بيتر ريك عن اطروحته ( عن نظرية انعكاس وانكسار الضوء ) , حيث قام بالتعديل على النظرية الكهرومغناطيسية لجيمس كلارك ماكسويل . عام 1881 هندريك تزوج من اليتا كاترينا كايزر ، ابنة أخو فردريك كايزر . وابنة يوهان وليام كايزر ، مدير مدرسة امستردام للطباعة واستاذ الفنون الجميلة , و مصمم أول طابع بريد هولندى ( 1852 ) . بعدها أصبح كايزر مدير للمتحف الوطني بامستردام . ابنة هندريك واليتا الكبيرة كانت فيزيائية أيضا . +question : أين ولد هندريك أنتون لورنتس ؟ +prompt : أجب عن السؤال التالي : أين ولد هندريك أنتون لورنتس ؟ الجواب هو +pred_answer : أنه ولد في قرية صغيرة من قرى ولاية بافاريا +answer : أرنهيم بخيلدرلند بهولندا + +context : تعود براءة اختراع الأطر المطاطية ل جون بويد دنلوب والذي أنشأ سنة 1889 مصنعا لها . +question : من هو مخترع العجلات المطاطية التي تسير عليها السيارات ؟ +prompt : أجب عن السؤال التالي : من هو مخترع العجلات المطاطية التي تسير عليها السيارات ؟ الجواب هو +pred_answer : المخترع الألماني كارل بنز Car +answer : جون بويد دنلوب + +context : البحر الميت هو بحيرة ملحية مغلقة تقع في أخدود وادي الأردن ضمن الشق السوري الأفريقي ، على خط الحدود الفاصل بين الأردن وفلسطين التاريخية ( الضفة الغربية وإسرائيل ) . يشتهر البحر الميت بأنه أخفض نقطة على سطح الكرة الأرضية ، حيث بلغ منسوب شاطئه حوالي 400 متر تحت مستوى سطح البحر حسب سجلات عام 2013 . كما يتميز البحر الميت بشدة ملوحته ، إذ تبلغ نسبة الأملاح فيه حوالي 34 % ، وهي ما تمثل تسعة أضعاف تركيز الأملاح في البحر المتوسط ، وواحدة من أعلى نسب الملوحة بالمسطحات المائية في العالم . وقد نتجت هذه الأملاح لأن البحيرة هي وجهة نهائية للمياه التي تصب فيه ، حيث أنه لا يوجد أي مخرج لها بعده . [1][2] +question : اين يقع البحر الميت ؟ +prompt : أجب عن السؤال التالي : اين يقع البحر الميت ؟ الجواب هو +pred_answer : في الضفة الشرقية لنهر الاردن +answer : أخدود وادي الأردن + +context : فلاد الثالث ، أمير ولاكيا ( 1413 - 1476 ) ، أحد أفراد عائلة دراكوليشتي التي تمثل بدورها فرع من أفرع عائلة باسراب المتشعبة ، والذي اشتهر بلقب دراكولا قبل أن يطلق عليه اسم فلاد المخوزق ( بالرومانية : Vlad epe ؛ نق : فلاد تيبش وبالتركية : Kaz kl Voyvoda ؛ نق : قازيكلي وي ودا ، وبالتركية العثمانية : لاددره قول[2] ) ، جلس على عرش إمارة والاكيا ثلاث مرات ودامت أطول فترات حكمه فيما بين عامي 1456 و 1462 في أوج الحملات العثمانية للسيطرة على البلقان ، وهو واحد من أبناء عدة لفلاد الثاني دراكول العضو البارز في تنظيم التنين ، وهو التنظيم السري الذي أسسه الإمبراطور الروماني المقدس زيغموند بالتعاون مع باقي ملوك وأمراء أوروبا لحماية المسيحية في أوروبا الشرقية من المد العثماني . +question : ما هي أطول فترات حكم فلاد الثالث ؟ +prompt : أجب عن السؤال التالي : ما هي أطول فترات حكم فلاد الثالث ؟ الجواب هو +pred_answer : أن فترة حكمه استمرت من عام 1772 م إلى 1783 ل 3 سنوات فقط +answer : دامت أطول فترات حكمه فيما بين عامي 1456 و 1462 في أوج الحملات العثمانية للسيطرة على البلقان + +context : نانسي ديفيس ريغان ( ولدت آن فرانسيس روبنز في 6 يوليو 1921 - 6 مارس 2016 ) ممثلة سينمائية أمريكية وزوجة رونالد ريغان الرئيس الأربعين للولايات المتحدة الأمريكية ، وسيدة الولايات المتحدة الأولى لمدة ثمان سنوات ، من 1981 وحتى 1989 . +question : من هي نانسي ريغان ؟ +prompt : أجب عن السؤال التالي : من هي نانسي ريغان ؟ الجواب هو +pred_answer : أنها كانت رئيسة الولايات المتحدة في الفترة ما بين عامي 1981 و 1989 ، وهي الفترة التي شهدت الكثير من الأحداث المهمة على مستوى العالم +answer : ممثلة سينمائية أمريكية وزوجة رونالد ريغان الرئيس الأربعين للولايات المتحدة الأمريكية وسيدة الولايات المتحدة الأولى لمدة ثمان سنوات من 1981 وحتى 1989 + +context : بدأ دي بروين مسيرته في جينك ، حيث كان لاعبا عاديا وفاز بلقب دوري المحترفين البلجيكي 2010 – 11 . في عام 2012 ، انضم إلى نادي تشيلسي الإنجليزي ، حيث تم إشراكه في المباريات بشكل نادر ثم تمت إعارته إلى فيردر بريمن . وقع مع فولفسبورج مقابل 18 مليون جنيه استرليني في عام 2014 ، وفي عام 2015 حصل على لقب أفضل لاعب في السنة في ألمانيا . [11] في وقت لاحق من ذلك العام ، انضم إلى مانشستر سيتي مقابل 54 مليون جنيه استرليني . +question : متى انضم اللاعب كيفن دي بروين لمانشستر سيتي الانجليزي ؟ +prompt : أجب عن السؤال التالي : متى انضم اللاعب كيفن دي بروين لمانشستر سيتي الانجليزي ؟ الجواب هو في عام +pred_answer : 2014 ، +answer : 2015 + +context : خليل باشا ولاحقا خليل كوت ، ولد في مدينة القسطنطينية سنة 1882 و توفي في اسطنبول سنة 1957 . هو ضابط في الجيش العثماني وحاكم إقليمي ، هو عم وزير الحرب العثماني خلال الحرب العالمية الأولى . اتخذ لقب الكوت بعد إصدار قانون الألقاب سنة 1934 من قبل مصطفى كمال أتاتورك . +question : من هو خليل كوت ؟ +prompt : أجب عن السؤال التالي : من هو خليل كوت ؟ الجواب هو +pred_answer : أن هذا الرجل الذي ولد في الكويت عام +answer : ضابط في الجيش العثماني وحاكم إقليمي + +context : التايم ( : TIME ) هي مجلة أمريكية أسبوعية . وتوجد منها نسخة أوربية باسم تايم أوروبا ( : TIME Europe ) وتعرف سابقا باسم Time Atlantic . وتغطي مجلة التايم أوروبا الشرق الأوسط وأفريقيا وأمريكا اللاتينية . توجد أيضا نسخة آسيوية ونسخة كندية . صدر العدد الأول من المجلة في 3 مارس 1923 من طرف هنري لوس وبيرتون هادن . +question : متى صدر العدد الأول من المجلة تايم الأمريكية ؟ +prompt : أجب عن السؤال التالي : متى صدر العدد الأول من المجلة تايم الأمريكية ؟ الجواب هو في عام +pred_answer : 1933 � +answer : 3 مارس 1923 + +context : الحنفية أو الأحناف أو المذهب الحنفي أو الفقه الحنفي ينسب هذا المذهب لأبي حنيفة النعمان ( 80 ه - 150 ه ) ، وهو مذهب فقهي من المذاهب الفقهية الأربعة المشهورة عند أهل السنة والجماعة كالمذهب المالكي ، والمذهب الشافعي ، والمذهب الحنبلي . +question : ما هو المذهب الحنفي ؟ +prompt : أجب عن السؤال التالي : ما هو المذهب الحنفي ؟ الجواب هو +pred_answer : : مذهب الإمام الأعظم أبي حنيفة النعمان بن ثابت رضي الله عنه ، وهو أحد المذاهب الأربعة المشهورة عند أهل السنة والجماعة .هو أبو عبد الله محمد بن إدريس بن العباس بن +answer : ينسب هذا المذهب لأبي حنيفة النعمان 80 ه 150 ه وهو مذهب فقهي من المذاهب الفقهية الأربعة المشهورة عند أهل السنة والجماعة كالمذهب المالكي والمذهب الشافعي والمذهب الحنبلي + +context : سيمون خوسيه أنطونيو دي لا سانتيسيما ترينيداد بوليفار إيه بونتي بالاثيوس إي بلانكو ، [1][2] يعرف اختصارا باسم سيمون بوليفار ، عسكري وسياسي فنزويلي في فترة ما قبل الجمهورية القبطانية العامة لفنزويلا ، [3] ولد في كاراكاس عاصمة فنزويلا في 24 يوليو عام 1783 . [4] هو مؤسس ورئيس كولومبيا الكبرى ، [5] وواحد من أبرز الشخصيات التي لعبت دورا هاما في تحرير الكثير من دول أمريكا اللاتينية التي وقعت تحت طائلة الحكم الإسباني منذ القرن السادس عشر مثل كولومبيا وفنزويلا والإكوادور وبيرو وبوليفيا وبنما . [6][7][8] وأطلق عليه . [9][10] +question : من هو سيمون بوليفار ؟ +prompt : أجب عن السؤال التالي : من هو سيمون بوليفار ؟ الجواب هو +pred_answer : لا أحد . لكن ما هي +answer : عسكري وسياسي فنزويلي + +context : رواية فروسية هي جنس أدبي من الروايات المكتوبة بالنثر والتي ظهرت في إسبانيا والبرتغال في القرن السادس عشر ولاقت نجاحا كبيرا وشعبية واسعة . [1] وتلقي رواية الفروسية الضوء على مغامرات ومآثر الفروسية لفارس ما . وتبرز رواية دون كيخوطي دي لا مانتشا للكاتب الإسباني الشهير ميجيل دي ثيربانتس بوصفها مثالا جليا على الروايات الفروسية . +question : ماهى الرواية الفروسية ؟ +prompt : أجب عن السؤال التالي : ماهى الرواية الفروسية ؟ الجواب هو +pred_answer : رواية " دون كيشوت " للكاتب الإسباني ميغيل دي ثيربانتس ( 1447 1516 م +answer : جنس أدبي من الروايات المكتوبة بالنثر والتي ظهرت في إسبانيا والبرتغال في القرن السادس عشر ولاقت نجاحا كبيرا وشعبية واسعة + +context : أبو عبد الله جعفر بن محمد الصادق ، ( ولد يوم 17 ربيع الأول 80 ه في المدينة المنورة وتوفي فيها في مساء 25 شوال من سنة 148 ه ) ، إمام من أئمة المسلمين وعالم جليل وعابد فاضل من ذرية الحسين بن علي بن أبي طالب وله مكانة جليلة عظيمة لدى جميع المسلمين . +question : متى توفي الإمام جعفر الصادق ؟ +prompt : أجب عن السؤال التالي : متى توفي الإمام جعفر الصادق ؟ الجواب هو +pred_answer : : سنة 148 ه ، في المدينة المنورة +answer : مساء 25 شوال من سنة 148 ه + +context : مملكة بوتان ( بالهندية : ) هي بلد غير ساحلي في جنوب آسيا وتقع في الطرف الشرقي من جبال الهيمالايا . يحدها من الجنوب والشرق والغرب جمهورية الهند وإلى الشمال جمهورية الصين الشعبية . يفصل بوتان عن دولة نيبال المجاورة في الغرب ولاية سيكيم الهندية ، بينما يفصلها عن بنغلاديش في الجنوب ولاية البنغال الغربية . ويطلق البوتانيون على بلدهم اسم دروك يول والتي تعني " أرض التنين " . +question : أين تقع مملكة بوتان ؟ +prompt : أجب عن السؤال التالي : أين تقع مملكة بوتان ؟ الجواب هو +pred_answer : في جبال +answer : جنوب آسيا + +context : تبدأ أول سن دائمة بالبزوغ في عمر السادسة ، وتبزغ كل الأسنان الدائمة حتى عمر الثانية عشرة ما عدا الارحاء الثالثة ( أضراس العقل ) والتي تتأخر حتى سن الثامنة عشرة . وقد لا تبزغ أبدا لدى البعض إما لقصور في نمو وحركة البرعم السني أو لغيابه أصلا . يمتلك الفرد البالغ 32 سنا ويحتوي كل نصف فك على : +question : كم عدد الأسنان في الإنسان ؟ +prompt : أجب عن السؤال التالي : كم عدد الأسنان في الإنسان ؟ الجواب هو +pred_answer : : +answer : 32 + +context : ' ' ' معاهدة عدم انتشار الأسلحة النووية ' ' ' ( NPT أو NNPT ) ( و تسمى أيضا معاهدة الحد من انتشار الأسلحة النووية ) هي معاهدة دولية ، بدأ التوقيع عليها في 1 يوليو 1968 للحد من انتشار الأسلحة النووية التي تهدد السلام العالمي ومستقبل البشرية . حتى الآن وقع على الاتفاقية 189 دولة . مع ذلك ما زال خارج الاتفاقية دولتين نوويتين أكيدتين ( تملكان تجارب نووية مصرح بها ) هما الهند وباكستان ودولة نووية محتملة هي إسرائيل ( لم تصرح إسرائيل حتى الآن عن امتلاكها للسلاح النووي رغم الكثير من المؤشرات التي تؤكد ذلك ) . إحدى الأطراف التي يحتمل امتلاكها لقوة نووية هي كوريا الشمالية أيضا ما زالت خارج الاتفاقية . تم اقتراح الاتفاقية من قبل إيرلندا وكانت فنلندة أول من وقع عليها . +question : متى تم إنشاء معاهدة الحد من انتشار الأسلحة النووية ؟ +prompt : أجب عن السؤال التالي : متى تم إنشاء معاهدة الحد من انتشار الأسلحة النووية ؟ الجواب هو في عام +pred_answer : 1968 ، عندما +answer : 1 يوليو 1968 + +context : تعد أقدم الأشكال الهندسية في الفن الإسلامي تلك الأشكال الثمانية والمعينات التي بداخلها مربعات في جامع عقبة بن نافع في تونس ، التي ترجع إلى سنة 221 ه 836 م ، ومنذ ذلك الحين انتشرت في جميع أنحاء العالم الإسلامي . [23] بدأت المرحلة التالية من تطوير الزخارف الهندسية الإسلامية بانتشار النجوم السداسية والثمانية بعد ظهورها في سنة 265 ه 879 م في جامع أحمد بن طولون في القاهرة ، فاستخدمت على نطاق واسع في العالم الإسلامي ، وظهرت في أبراج خراقان في بلاد فارس 459 ه 1067 م ، وفي مسجد الجيوشي في مصر سنة 477 ه 1085 م . وفي سنة 478 ه 1086 م ، ظهرت زخارف الجيرة السباعية والعشارية في المسجد الجامع في أصفهان ، وانتشرت بعد ذلك الجيرة العشارية في العالم الإسلامي ما عدا الأندلس . ثم ظهرت الجيرة ذات التسع والأحد عشر والثلاث عشر ضلع في أصفهان أيضا سنة 490 ه 1098 م ؛ ولكنها لم تستخدم خارج بلاد فارس وآسيا الوسطى إلا نادرا . وفي سنة 617 ه 1220 م ، ظهرت الزخارف ذات الثمان والإثنا عشر ضلع في مسجد علاء الدين في قونية ، كما استخدمت في القصور العباسية في بغداد بعد ذلك بعشر سنوات ، وانتشرت بعد ذلك . [23] ثم ظهرت الزخارف ذات الست عشرة ضلع في مسجد حسن صدقة بالقاهرة في سنة 715 ه 1321 م ، وفي مسجد السلطان حسن سنة 764 ه 1363 م ، وفي قصر الحمراء في الأندلس في القرن الثامن الهجري . وأخيرا ، ظهرت الزخارف ذات الأربعة عشر ضلع في المسجد الجامع في فاتحبور سيكري في الهند في نهاية القرن السادس عشر الميلادي . [23][lower - alpha 5] +question : متى بدأت الزخارف الإسلامية ؟ +prompt : أجب عن السؤال التالي : متى بدأت الزخارف الإسلامية ؟ الجواب هو +pred_answer : : عندما +answer : 836 + +context : كانت وفاة الثوري في شعبان 161 ه في البصرة ، [2][3][15] وهو متخف في دار بشر بن منصور السليمي . [16] فأخرجت جنازته على أهل البصرة فجأة ، فشهدها جمع كبير من الناس ، وصلى عليه عبد الرحمن بن عبد الملك بن أبجر بحسب وصية الثوري . [4][17] لم يعقب سفيان الثوري ولدا ، حيث كان له ابن ، مات قبله ، [18] فجعل كل شيء له لأخته وولدها ، ولم يورث أخاه المبارك شيئا . [13][19] وكان للثوري من الكتب « الجامع الكبير » و « الجامع الصغير » و « الفرائض » ، إضافة إلى رسالة تناقلها طلابه كان قد وجهها إلى عباد بن عباد الأرسوقي . [20] +question : أين توفي أبو عبد الله سفيان بن سعيد بن مسروق ؟ +prompt : أجب عن السؤال التالي : أين توفي أبو عبد الله سفيان بن سعيد بن مسروق ؟ الجواب هو +pred_answer : : مات +answer : البصرة + +context : ولد في مارس 1892 م بالمدية[1] ، سافر إلى الجزائر العاصمة ونزل بمقصورة الجامع الكبير حيث نسخ ثلاثة نسخ من صحيح البخاري وصحيح مسلم . اشتهر بحبه لمطالعة الشعر ، الحكمة والفروسية ، كان الجود والكرم والاستقامة من مكارم أخلاقه ، زار مصطفى فخار شيخ جامع الزيتونة " الطاهر بن عاشور " الذي منحه إجازة في الحديث والفقه والتفسير وشهادة في العلم سنة 1936 وقد قام بتلقين الصحيحين لمئات الطلبة والأئمة على مدار ستين سنة ، كان صوفيا ومفتي المذهب المالكي بالمدية ، ويعقد يوميا حلقة للذكر بعد صلاة العصر حيث تتعالى التكبيرات والتسابيح ، +question : متى ولد مصطفى فخار بن حميدو بن علال ؟ +prompt : أجب عن السؤال التالي : متى ولد مصطفى فخار بن حميدو بن علال ؟ الجواب هو في عام +pred_answer : 1889 +answer : مارس 1892 + +context : عبد الفتاح سعيد حسين خليل السيسي ( 19 نوفمبر 1954 ) ، هو الرئيس السادس والحالي لجمهورية مصر العربية ، [1] والقائد الأعلى للقوات المسلحة المصرية ، تم انتخابه سنة 2014 لمدة 4 سنوات بعد نجاحه في الانتخابات الرئاسية 2014 ، [2] ذلك بعد إطاحته بالرئيس محمد مرسي في 3 يوليو 2013 ( أول رئيس مدني منتخب بعد ثورة 25 يناير ) بعد سنة من توليه مقاليد الحكم عقب مظاهرات طالبت برحيله ، وأعلن عن إجراءات صاحبت ذلك عرفت بخارطة الطريق ، [3][4] عارضها مؤيدو الرئيس محمد مرسي وقتها واعتبروها - ومعهم جزء من المجتمع الدولي والعربي - انقلابا عسكريا[5][6][7] بينما أيدها المتظاهرون والمعارضون للرئيس محمد مرسي وقتها واعتبروها ثورة وتأييدا لمطالب شعبية . [8][9][10][11][12] +question : في أي عام تولى عبد الفتاح السيسي الحكم في مصر ؟ +prompt : أجب عن السؤال التالي : في أي عام تولى عبد الفتاح السيسي الحكم في مصر ؟ الجواب هو في عام +pred_answer : 2014 ، +answer : 2014 + +context : البحر الميت هو بحيرة ملحية مغلقة تقع في أخدود وادي الأردن ضمن الشق السوري الأفريقي ، على خط الحدود الفاصل بين الأردن وفلسطين التاريخية ( الضفة الغربية وإسرائيل ) . يشتهر البحر الميت بأنه أخفض نقطة على سطح الكرة الأرضية ، حيث بلغ منسوب شاطئه حوالي 400 متر تحت مستوى سطح البحر حسب سجلات عام 2013 . كما يتميز البحر الميت بشدة ملوحته ، إذ تبلغ نسبة الأملاح فيه حوالي 34 % ، وهي ما تمثل تسعة أضعاف تركيز الأملاح في البحر المتوسط ، وواحدة من أعلى نسب الملوحة بالمسطحات المائية في العالم . وقد نتجت هذه الأملاح لأن البحيرة هي وجهة نهائية للمياه التي تصب فيه ، حيث أنه لا يوجد أي مخرج لها بعده . [1][2] +question : ما هي نسبة ملوحة البحر الميت ؟ +prompt : أجب عن السؤال التالي : ما هي نسبة ملوحة البحر الميت ؟ الجواب هو +pred_answer : أن +answer : 34 + +context : جامعة تورنتو هي جامعة توجد في تورنتو بكندا ، يدرس بها أكثر من 47 ألف طالب . [1][2][3] وهي واحدة من أكبر عشرين جامعة في العالم كما أنها عضو في رابطة الجامعات الأمريكية . تأسست جامعة تورنتو في 15 مارس 1827 . +question : في أي عام تأسست جامعة تورنتو ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست جامعة تورنتو ؟ الجواب هو في عام +pred_answer : 1891 ، عندما +answer : 15 مارس 1827 + +context : الثورة التونسية ( والتي تعرف أيضا بثورة الحرية والكرامة أو ثورة 17 ديسمبر أو ثورة 14 جانفي ) ، هي ثورة شعبية اندلعت أحداثها في 17 ديسمبر 2010 تضامنا مع الشاب محمد البوعزيزي الذي قام بإضرام النار في جسده في نفس اليوم تعبيرا عن غضبه على بطالته ومصادرة العربة التي يبيع عليها من قبل الشرطية فادية حمدي ( وقد توفي البوعزيزي يوم الثلاثاء الموافق 4 يناير 2011 في مستشفى بن عروس بسبب حروقه البالغة[1] ) . أدى ذلك إلى اندلاع شرارة المظاهرات في يوم 18 ديسمبر 2010 وخروج آلاف التونسيين الرافضين لما اعتبروه أوضاع البطالة وعدم وجود العدالة الاجتماعية وتفاقم الفساد داخل النظام الحاكم . كما أدى ذلك إلى اندلاع مواجهات بين مئات من الشبان في منطقة سيدي بوزيد وولاية القصرين مع قوات الأمن لتنتقل الحركة الاحتجاجية من مركز الولاية إلى البلدات والمدن المجاورة كالمكناسي والرقاب وسيدي علي بن عون ومنزل بوزيانو القصرين وفريانة ونتج عن هذه المظاهرات التي شملت مدن عديدة في تونس عن سقوط العديد من القتلى والجرحى من المتظاهرين نتيجة تصادمهم مع قوات الأمن ، وأجبرت الرئيس زين العابدين بن علي على إقالة عدد من الوزراء بينهم وزير الداخلية وتقديم وعود لمعالجة المشاكل التي نادى بحلها المتظاهرون ، كما أعلن عزمه على عدم الترشح لانتخابات الرئاسة عام 2014 . [2] كما تم بعد خطابه فتح المواقع المحجوبة في تونس كاليوتيوب بعد 5 سنوات من الحجب ، بالإضافة إلى تخفيض أسعار بعض المنتجات الغذائية تخفيضا طفيفا . لكن الاحتجاجات توسعت وازدادت شدتها حتى وصلت إلى المباني الحكومية مما أجبر الرئيس بن علي على التنحي عن السلطة ومغادرة البلاد بشكل مفاجئ بحماية أمنية ليبية إلى السعودية يوم الجمعة 14 يناير 2011 . [3] فأعلن الوزير الأول محمد الغنوشي في نفس اليوم عن توليه رئاسة الجمهورية بصفة مؤقتة وذلك بسبب تعثر أداء الرئيس لمهامه وذلك حسب الفصل 56 من الدستور ، مع إعلان حالة الطوارئ وحظر التجول . لكن المجلس الدستوري قرر بعد ذلك بيوم اللجوء للفصل 57 من الدستور وإعلان شغور منصب الرئيس ، وبناء على ذلك أعلن في يوم السبت 15 يناير 2011 عن تولي رئيس مجلس النواب فؤاد المبزع منصب رئيس الجمهورية بشكل مؤقت إلى حين إجراء انتخابات رئاسية مبكرة خلال فترة من 45 إلى 60 يوما . وشكلت الثورة التونسية المفجر الرئيسي لسلسلة من الاحتجاجات والثورات في عدد من الدول العربية . +question : أين إندلعت الثورة التونسية ؟ +prompt : أجب عن السؤال التالي : أين إندلعت الثورة التونسية ؟ الجواب هو +pred_answer : في سيدي بوزيد ، المدينة التي شهدت +answer : سيدي بوزيد وولاية القصرين + +context : أقيم نهائي كأس العالم لكرة القدم 1998 على ملعب فرنسا والذي شهد حضور 75 ألف متفرج ، [6] بين فاز بالكأس البلد المنظم المنتخب الفرنسي والمنتخب البرازيلي . [7] واستطاع المنتخب الكرواتي حصد المركز الثالث للمرة الأولى في تاريخه ، كما استطاعت فرنسا الفوز بنتيجة عريضة قوامها 3 - 0 ، محققة بذلك أول بطولة كأس عالم في تاريخها ، بعد مستوى مميز من اللاعب زين الدين زيدان . [8] +question : من القريق الفائز بكاس العالم 1998 ؟ +prompt : أجب عن السؤال التالي : من القريق الفائز بكاس العالم 1998 ؟ الجواب هو +pred_answer : فرنسا . +answer : فرنسا + +context : تقنية الجزيئات متناهية الصغر[1] أو تقنية الصغائر أو تقنية النانو هي العلم الذي يهتم بدراسة معالجة المادة على المقياس الذري والجزيئي . [2][3][4] تهتم تقنية النانو بابتكار تقنيات ووسائل جديدة تقاس أبعادها بالنانومتر وهو جزء من الألف من الميكرومتر أي جزء من المليون من الميليمتر . عادة تتعامل تقنية النانو مع قياسات بين 1 إلى 100 نانومتر أي تتعامل مع تجمعات ذرية تتراوح بين خمس ذرات إلى ألف ذرة . وهي أبعاد أقل كثيرا من أبعاد البكتيريا والخلية الحية . حتى الآن لا تختص هذه التقنية بعلم الأحياء بل تهتم بخواص المواد ، وتتنوع مجالاتها بشكل واسع من أشباه الموصلات إلى طرق حديثة تماما معتمدة على التجميع الذاتي الجزيئي . هذا التحديد بالقياس يقابله اتساع في طبيعة المواد المستخدمة ، فتقنية النانو تتعامل مع أي ظواهر أو بنايات على مستوى النانوالصغير . مثل هذه الظواهر النانوية يمكن أن تتضمن تقييد كمي التي تؤدي إلى ظواهر كهرومغناطيسية وبصرية جديدة للمادة التي يبلغ حجمها بين حجم الجزيء وحجم المادة الصلبة المرئي . تتضمن الظواهر النانوية أيضا تأثير جيبس - تومسون - وهو انخفاض درجة انصهار مادة ما عندما يصبح قياسها نانويا ، اما عن بنايات النانو فأهمها أنابيب النانوالكربونية . +question : ما هي تقنية النانو ؟ +prompt : أجب عن السؤال التالي : ما هي تقنية النانو ؟ الجواب هو +pred_answer : أن تقنية النانو ( Nanotechnologies ) هي عبارة عن +answer : العلم الذي يهتم بدراسة معالجة المادة على المقياس الذري والجزيئي + +context : يرجع نسب السيدة بلافاتسكي من ناحية الام إلى سلالة روسية عريقة إلى الأمير سيرنغوف إلى روريك المؤسس النورسي للدولة الروسية في نوفجورد Novgorod . ولدت مدام بلافاتسكي في إقليم أيكانزينسلاف سنة 1831 ، وكان والدها ، وهو ألماني في خدمة القيصر ، حاكما لأحد الأحياء ، من الطبقات النبيلة ، أما من ناحية الأم فقد كانت حفيدة الأميرة هيلين دواجروكي التي كان أجدادها يرتبطون بروابط وثيقة بالعائلة الحاكمة . +question : أين ولدت هيلينا بتروفنا بلافاتسكي ؟ +prompt : أجب عن السؤال التالي : أين ولدت هيلينا بتروفنا بلافاتسكي ؟ الجواب هو +pred_answer : أنها ولدت في موسكو ، حيث كان والدها +answer : إقليم أيكانزينسلاف + +context : تصغير | صورة فضائية تظهر دلتا النيل المصرية دلتا النيل هي دلتا تكونت في شمال مصر ( الوجه البحري ) حيث يتفرع النيل إلى فرعين يصبان في البحر المتوسط . فرع دمياط في الشرق وينتهي بمدينة دمياط وفرع رشيد في الغرب وينتهي عند مدينة رشيد . وهي واحدة من أكبر الدلتا في العالم - تمتد من بورسعيد في الشرق حتى الإسكندرية في الغرب وسميت بالدلتا لانها تشبة المثلث . وهي تشغل مسافة مساحة 240 كيلومتر على ساحل البحر المتوسط . وتتميز الدلتا بالأراضي الزراعية الخصبة الصالحة للزراعة في أي وقت . يبلغ طول الدلتا من الشمال للجنوب حوالي 160 كم . وتبدأ الدلتا من الجنوب بالقرب من مدينة القاهرة عند القناطر الخيرية . +question : ما هي دلتا النيل ؟ +prompt : أجب عن السؤال التالي : ما هي دلتا النيل ؟ الجواب هو +pred_answer : أن دلتا النيل +answer : شمال مصر + +context : الجهاز التنفسي أو جهاز التنفس يزود خلايا جسم الإنسان بالأكسجين الضروري لأنشطتها ، ويخلصها من ثاني أكسيد الكربون ( نتاج عملية الأكسدة فيها ) . يمر هواء الشهيق عبر الرغامى والقصبتين ( شعبتيه الأضيق اللتين تتفرعان منه قبل الدخول للرئتين ) إلى الرئتين . وتشمل كل رئة كثيرا من القصيبات , والتي تتفرع إلى شعيبات تنتهي بعدد كبير من الحويصلات الهوائية ( أو الاسناخ ) المبطنة بأغشية رقيقة جدا يجري عبرها تبادل الغازات بينها وبين الشعيرات الدموية التي تحيط بالأسناخ . وتعمل العضلات الوربية ( بين الضلوع ) والحجاب الحاجز ( تحت الرئتين ) على تشغيل الرئتين كالكير ( منفاخ الحداد ) ، تسحب الهواء إليهما ثم تدفعه خارجهما في فترات منتظمة . +question : أي عضو في الجسم مسؤول على نقل الأوكسيجين ؟ +prompt : أجب عن السؤال التالي : أي عضو في الجسم مسؤول على نقل الأوكسيجين ؟ الجواب هو +pred_answer : القلب . +answer : جهاز التنفس + +context : محافظة بوكيت أو فوكيت ( بالتايلاندية : ) و ( بالإنكليزية : Phuket ) هي جزيرة ومحافظة تقع في جنوب تايلاند تجاورها محافظات فانغ نغا وكرابي . 20 % من تعداد سكانها من المسلمين . +question : اين توجد جزيرة بوكيت ؟ +prompt : أجب عن السؤال التالي : اين توجد جزيرة بوكيت ؟ الجواب هو +pred_answer : في جنوب +answer : جنوب تايلاند + +context : اللغة المجرية ( magyar nyelv ) هي اللغة الرسمية ولغة أكثر سكان المجر . [1][2] تنتمي المجرية إلى مجموعة اللغات الأوغرية ، وهذه المجموعة تنتمي إلى عائلة اللغات الأورالية . وتضم عائلة اللغات الأورالية اللغات الفنلندية والإستونية وهي لغات قريبة من اللغة المجرية . +question : ما أصل اللغة المجرية ؟ +prompt : أجب عن السؤال التالي : ما أصل اللغة المجرية ؟ الجواب هو +pred_answer : أنها لغة هندوأوروبية ، وهي إحدى اللغات السلافية الشمالية الغربية . +answer : تنتمي المجرية إلى مجموعة اللغات الأوغرية وهذه المجموعة تنتمي إلى عائلة اللغات الأورالية + +context : الغدة التناسلية هي العضو الذي ينتج الأمشاج . فالغدد التناسلية في الذكور هي الخصيتان بينما الغدد التناسلية في الإناث هي المبيضان . وينتج عن تلك الغدة التناسلية الأمشاج ، وهي الخلايا الأريمية الفردانية . [1] على سبيل المثال ، خلايا الحيوان المنوي والبيضة هي الأمشاج . +question : ماذا تسمى الغدة التناسلية الأنثوية ؟ +prompt : أجب عن السؤال التالي : ماذا تسمى الغدة التناسلية الأنثوية ؟ الجواب هو +pred_answer : المبيضين . +answer : المبيضان + +context : العليق المقدس ( الاسم العلمي Rubus sanctus ) شجيرة معمرة شائكة من فصيلة الوردية ، كثيفة الأوراق ، أثيثة الفروع ، منابتها المرتفعات الباردة فوق ثمائل المسقوي من الحقول الزراعية ، وحول ينابيع المياه ، وبين الأحراش الندية ، وعلى فوهات الآبار ، وربما تكون منها على امتداد الأودية أجمات كثيفة واسعة ، يستحيل على الإنسان وكثير من الحيوان اختراقها ، وذلك على علو 1700 - 2500 م . +question : ما هو العليق المقدس ؟ +prompt : أجب عن السؤال التالي : ما هو العليق المقدس ؟ الجواب هو +pred_answer : أنه نبات من فصيلة الخيميات ، ينمو +answer : شجيرة معمرة شائكة من فصيلة الوردية + +context : كان آخر اجتماع عمومي لراجيف غاندي في سريبرمبودر في 21 مايو 1991 ، في قرية تبعد تقريبا 30 ميل عن مدراس ، تاميل نادو ، حيث اغتيل هناك أثناء حملته كمرشح لكونغرس سريبرمبودر لوك سابها . [7] تم تنفيذ الاغتيال من قبل قنبلة انتحارية لمتطوعة تسمى لثينموزي راجاراتنام معروفة أيضا باسم جياتري ودانو تابعة لنمور التاميل لتحرير ايلام ( LTTE ) +question : كيف توفي راجيف راتنا غاندي ؟ +prompt : أجب عن السؤال التالي : كيف توفي راجيف راتنا غاندي ؟ الجواب هو +pred_answer : أنه مات +answer : اغتيل + +context : فرانثيسكو فرانكو ( 4 ديسمبر 1892 - 20 نوفمبر 1975 ) ، قائد عسكري تولى رئاسة إسبانيا من أكتوبر 1936 وحتى وفاته في سنة 1975 ، وصل إلى السلطة بعد الحرب الأهلية الإسبانية ( 1936 - 1939 ) . +question : من هو الملك فرانكو الأول ؟ +prompt : أجب عن السؤال التالي : من هو الملك فرانكو الأول ؟ الجواب هو +pred_answer : ملك إسبانيا الحالي خوان كارلوس ، الذي حكم البلاد منذ العام 1975 وحتى وفاته في العام 2011 .ومنذ ذلك الحين +answer : قائد عسكري تولى رئاسة إسبانيا من أكتوبر 1936 وحتى وفاته في سنة 1975 وصل إلى السلطة بعد الحرب الأهلية الإسبانية 1936 1939 + +context : من أشهر خريجي الجامعة سبع رؤساء للولايات المتحدة الأمريكية تخرجوا من جامعة هارفارد وهم : +question : كم عدد الرؤساء الأميركيين الذين تخرجوا من جامعة هارفارد ؟ +prompt : أجب عن السؤال التالي : كم عدد الرؤساء الأميركيين الذين تخرجوا من جامعة هارفارد ؟ الجواب هو +pred_answer : أكثر من +answer : سبع + +context : أميري بركة ( ولد في 7 أكتوبر 1934 باسم إفريت ليروي جونز ، نيووارك ، نيو جرزي - توفي في 9 يناير 2014 نفس المدينة ) . له العديد من المؤلفات في المسرح والشعر والدراما ، والرواية ، وعدد واسع من المقالات . قام بالتدريس في عدد من الجامعات ، من بينها جامعة نيويورك في بوفالو . +question : من هو أميري بركة ؟ +prompt : أجب عن السؤال التالي : من هو أميري بركة ؟ الجواب هو +pred_answer : أن أمير بركة ولد في مدينة يافا عام 1882 ، وكان والده +answer : له العديد من المؤلفات في المسرح والشعر والدراما والرواية وعدد واسع من المقالات + +context : خورخه رافائيل فيديلا ، التهجئات الأخرى : خورخي فيديلا أو بيديلا أو جورج فيديلا ( 2 أغسطس 1925 ، مرسيدس ، محافظة بوينوس آيريس ، الأرجنتين – 17 مايو 2013 ، ماركوس باس ، ، محافظة بوينوس آيريس ) كان الحاكم العسكري المطلق للأرجنتين من 1976 إلى 1981 وصل إلى السلطة نتيجة انقلاب عسكري أطاح برئيسة الجمهورية إيزابيل بيرون ( 1931 - 1976 ) بعد عودة النظام الديمقراطي البرلماني تم وضع فيديلا تحت الإقامة الجبرية في منزله . عاشت الأرجنتين في سنوات حكمه فترة اعتبرت بالسوداء من قبل منظمات حقوق الإنسان حيث سجن وقتل وشرد مايقارب 30 , 000 من المعارضين له[1] وبالإضافة إلى الاضطرابات الداخلية شهدت علاقة الأرجنتين في عهده توترا مع شيلي , برزت المعارضة العالمية لطريقة حكمه بوضوح أثناء كأس العالم لكرة القدم 1978 حيث امتزجت السياسة بالرياضة ، وكانت هناك تهديدات بالمقاطعة بسبب انتهاكات حقوق الإنسان ، وكان النجم الهولندي يوهان كرويف من بين أكبر هؤلاء المعارضين للنظام الحاكم في الأرجنتين الذي كان يترأسه خورخه فيديلا ، ورفض السفر إلى هناك بسبب الموقف السياسي هناك . [2] +question : من هو خورخه فيديلا ؟ +prompt : أجب عن السؤال التالي : من هو خورخه فيديلا ؟ الجواب هو +pred_answer : : بابلو نيرودا ، وهو شاعر تشيلي الكبير . +answer : الحاكم العسكري المطلق للأرجنتين من 1976 إلى 1981 + +context : قوندر[1] أو غندار[2] ( بال ) مدينة إثيوبية ، وعاصمة الحبشة قديما ، وبها عدة قلاع عتيقة وقصور ملكية . +question : أين تقع مدينة قوندر ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة قوندر ؟ الجواب هو +pred_answer : في ولاية كير +answer : إثيوبية + +context : كأس دبي العالمي لسباق الخيل انطلق لأول مرة عام 1996 في ميدان ند الشبا لسباقات الخيل في دبي . ويعد أغنى سباق في العالم كون جائزته الكبرى تبلغ 10 $ ملايين دولار أمركي . [1] وقد فاز الحصان سيجار ملك ألن بولسن في السباق الأول . أسس هذا السباق الشيخ محمد بن راشد آل مكتوم . +question : ما هي اكبر جائزة في مسابقة الخيول ؟ +prompt : أجب عن السؤال التالي : ما هي اكبر جائزة في مسابقة الخيول ؟ الجواب هو +pred_answer : الجائزة الكبرى وهي +answer : كأس دبي العالمي + +context : شارل ديغول ( 1890 - 1970 ) جنرال ورجل سياسة فرنسي ولد في مدينة ليل الفرنسية ، تخرج من المدرسة العسكرية سان سير عام 1912 من سلاح المشاة . ألف عدة كتب حول موضوع الإستراتيجية والتصورالسياسي والعسكري . عين جنرال فرقة ، ونائبا لكاتب الدولة للدفاع الوطني في يناير 1940 قاد مقاومة بلاده في الحرب العالمية الثانية وترأس حكومة فرنسا الحرة في لندن في 18 يناير . وفي سنة 1943 ترأس اللجنة الفرنسية للتحرير الوطني والتي أصبحت في حزيران ( جوان ) 1944 تسمى بالحكومة المؤقتة للجمهورية الفرنسية . أول رئيس للجمهورية الفرنسية الخامسة ، عرف بمناوراته الاستعمارية تجاه الجزائر ، منها مشروع قسنطينة ، القوة الثالثة ، الجزائر جزائرية ، مشروع فصل الصحراء الجزائرية سلم الشجعان . توفي في كولمبي لدو إغليز عام 1970 . لم يشفع التاريخ المشرف للرئيس الأسبق والأب الروحي شارل ديجول لدى الشعب الفرنسي الذي خرج في مظاهرات مناوئة له عام 1968 ، واستجابة لمطالب المتظاهرين الذين شكل الطلاب والعمال الغالبية بينهم قرر ديجول أن يجري استفتاء حول تطبيق المزيد من اللامركزية في فرنسا ، وتعهد قبل إجراء الاستفتاء بالتنحي عن منصبه في حال لم توافق نسبة كبيرة من الفرنسيين على تطبيق اللامركزية في البلاد . وفي مساء يوم 28 أبريل عام 1969 أعلن ديجول تنحيه عن منصبه بعد أن حققت الموافقة على تطبيق اللامركزية نسبة أقل قليلا من النسبة التي حددها سلفا . +question : متى ولد شارل ديغول ؟ +prompt : أجب عن السؤال التالي : متى ولد شارل ديغول ؟ الجواب هو في عام +pred_answer : 1890 +answer : 1890 + +context : بدر الدين الزركشي أبو عبد الله ، بدر الدين ، محمد بن بهادر بن عبد الله الزركشي المصري ، فقيه شافعي ، أصولي ومحدث ، له مؤلفات في علوم كثيرة . ولد في القاهرة سنة 745 ه ، وتوفي سنة 794 ه ، رحل إلى حلب وأخذ عن الشيخ شهاب الدين الاذرعي وأخذ عن علماء حلب وسافر إلى دمشق وسمع الحديث من شيوخها . +question : متى ولد بدر الدين الزركشي ؟ +prompt : أجب عن السؤال التالي : متى ولد بدر الدين الزركشي ؟ الجواب هو +pred_answer : : في سنة +answer : 745 ه + +context : الدواء هو أية مادة تستعمل في تشخيص أو معالجة الأمراض التي تصيب الإنسان أو الحيوان ، أو التي تفيد في تخفيف وطأتها أو الوقاية منها . [1][2][3] يعمل الدواء غالبا على زيادة أو إنقاص وظيفة ما في الجسم ، ولا ينشئ وظيفة جديدة . ورسميا هو كل عقار مرخص الاستخدام قانونيا بعد التاكد من خلوه ( نسبيا " ) من أي أضرار جسدية أو نفسية على الشخص المتعاطي له . +question : ماهى الأدوية ؟ +prompt : أجب عن السؤال التالي : ماهى الأدوية ؟ الجواب هو +pred_answer : أن هناك العديد من الأدوية التى تساعد على التخلص من الوزن الزائد ، ولكن يجب استشارة الطبيب أولا قبل تناول أى دواء حتى لا +answer : أية مادة تستعمل في تشخيص أو معالجة الأمراض التي تصيب الإنسان أو الحيوان أو التي تفيد في تخفيف وطأتها أو الوقاية منها + +context : الحبيلين هي مدينة يمنية تتبع محافظة لحج ، بلغ تعداد سكانها 9653 نسمة حسب الإحصاء الذي أجري عام 2004 . +question : اين توجد مدينة الحبيلين ؟ +prompt : أجب عن السؤال التالي : اين توجد مدينة الحبيلين ؟ الجواب هو +pred_answer : في محافظة لحج +answer : محافظة لحج + +context : السرطانة المشيمائية هي ورم خبيث أرومي غاذي[1] ينشأ عادة في المشيمة . يعد نوعا من أورام الخلايا الجرثومية ، وقد ينشأ في المبيض أو الخصية . +question : ما هي السرطانة المشيمائية ؟ +prompt : أجب عن السؤال التالي : ما هي السرطانة المشيمائية ؟ الجواب هو +pred_answer : أن الخلايا السرطانية تنمو وتتكاثر بسرعة كبيرة جدا ، مما يؤدي +answer : ورم خبيث أرومي غاذي 1 ينشأ عادة في المشيمة + +context : عادة ما يعود تاريخ المسرح اليديشي الاحترافي إلى سنة 1876 , على الرغم من وجود بعض الدلائل المتفرقة عن محاولات سابقة . +question : متى تأسس المسرح اليديشي ؟ +prompt : أجب عن السؤال التالي : متى تأسس المسرح اليديشي ؟ الجواب هو في عام +pred_answer : 1897 +answer : 1876 + +context : بيشاور ( بشتوية , ور , أردو , شاور ) هي مدينة باكستانية وعاصمة اقليم بيشاور أو اقليم خ بر بختونخوا . تقع المدينة قرب الحدود مع أفغانستان . يقدر عدد سكانها بثلاثة ملايين و 242 الف نسمة عام 2006 م . ترتفع المدينة 347 متر عن سطح البحر . يشكل البشتو غالبية سكان المدينة . تقع قرب المدينة بوابة خيبر الحدودية بين باكستان وأفغانستان . +question : اين توجد مدينة بيشاور ؟ +prompt : أجب عن السؤال التالي : اين توجد مدينة بيشاور ؟ الجواب هو +pred_answer : في شمال غرب باكستان . +answer : خ بر بختونخوا + +context : معركة دوروستولون أو حصار دوروستولون هي معركة نشبت عام 971 بين الإمبراطورية البيزنطية وروس الكييفية ، وانتهت بانتصار الإمبراطورية البيزنطية بقيادة يوحنا الأول زيمسكي . +question : متى نشبت معركة دوروستولون ؟ +prompt : أجب عن السؤال التالي : متى نشبت معركة دوروستولون ؟ الجواب هو +pred_answer : : في +answer : 971 + +context : عبد الحميد الثاني ( بالتركية العثمانية : ؛ وبالتركية الحديثة : Sultan Abd lhamid II أو II . Abd lhamid ) . هو خليفة المسلمين الثاني بعد المائة والسلطان الرابع والثلاثون من سلاطين الدولة العثمانية ، والسادس والعشرون من سلاطين آل عثمان الذين جمعوا بين الخلافة والسلطنة ، وآخر من امتلك سلطة فعلية منهم ، تقسم فترة حكمه إلى قسمين : الدور الأول وقد دام مدة سنة ونصف ولم تكن له سلطة فعلية ، والدور الثاني وحكم خلاله حكما فرديا ، يسميه معارضوه " دور الاستبداد " وقد دام مدة ثلاثين سنة . تولى السلطان عبد الحميد الحكم في ( 10 شعبان 1293 ه - 31 أغسطس 1876 ) ، وخلع بانقلاب في ( 6 ربيع الآخر 1327 ه - 27 أبريل 1909 ) ، فوضع رهن الإقامة الجبرية حتى وفاته في 10 فبراير 1918 م . [1] وخلفه أخوه السلطان محمد الخامس . أطلقت عليه عدة ألقاب منها " السلطان المظلوم " ، بينما أطلق عليه معارضوه لقب " السلطان الأحمر " ، ويضاف إلى اسمه أحيانا لقب " غازي " . وهو شقيق كل من : السلطان مراد الخامس والسلطان محمد الخامس والسلطان محمد السادس . +question : كم استمر حكم السلطان عبد الحميد الثاني ؟ +prompt : أجب عن السؤال التالي : كم استمر حكم السلطان عبد الحميد الثاني ؟ الجواب هو +pred_answer : أن مدة حكمه كانت +answer : ثلاثين سنة + +context : مملكة كوش اطلق اسم كوش من قديم الزمان على المنطقة جنوب الشلال الأول والواوات على شماله في بلاد النوبة العليا والسفلى حيث قامت حضارة وادي النيل النوبية الكوشية وكانت لها ثلاث عواصم كل واحده منها امتداد للاخرى ؛ و هي كرمة و نبتة و مروي . إن أقدم ذكر لاسم كوش ورد في لوح الملك سنوسرت الأول ( 1971 - 1928 ق . م ) و هو ثاني ملوك الفراعنه من الاسره الثانيه عشر ؛ هذا اللوح المعروف بلوح فلورنسا 2450 و فيه يصور الفرعون سنوسرت الأول وهو يقدم عشرة من الأسرى المقيدين و كل أسير يمثل مدينة أو منطقة من مناطق بلاد النوبة إلى الاله مونتو و يخاطبه قائلا : ( لقد أحضرت إليك كل البلاد التي في " تا خنتي " ( ارض خنتي ) و أضعها تحت رجليك أيها الإله الطيب ) ، ثم تأتي أسماء المناطق التي ينتمي اليها الاسرى من النوبة العليا ( السودان حاليا ) ، و هي في الاصل عشره ولكن اثنتين منهم زالت معالمها وكان على رأسها اسم كاش ( كوش ) [3] +question : أين كانت منطقة مملكة كوش ؟ +prompt : أجب عن السؤال التالي : أين كانت منطقة مملكة كوش ؟ الجواب هو +pred_answer : أنها لم تكن موجودة في أي وقت من الأوقات ، ولم يكن لها وجود على الإطلاق +answer : جنوب الشلال الأول والواوات على شماله في بلاد النوبة العليا والسفلى + +context : موساد اختصار ل إستخبارات ومهمات خاصة هي وكالة استخبارات إسرائيلية ، تأسست في 13 ديسمبر 1949 . يكلف جهاز الموساد للاستخبارات والمهام الخاصة من قبل دولة إسرائيل بجمع المعلومات بالدراسة الاستخباراتية ، وبتنفيذ العمليات السرية خارج . [1][2][3] يعمل الموساد بصفته مؤسسة رسمية بتوجيهات من قادة ، وفقا للمقتضيات الاستخباراتية والعملية المتغيرة ، مع مراعاة الكتمان والسرية في أداء عمله ، وتندرج بين المجالات المتنوعة التي يعمل فيها الموساد إقامة علاقات سرية كعقد معاهدتي السلام مع مصر والأردن وفي قضايا الأسرى والمفقودين بالإضافة إلى مجال التقنيات والأبحاث . [4] +question : متى تاسس جهاز المخابرات الاسرائيلي " الموساد " ؟ +prompt : أجب عن السؤال التالي : متى تاسس جهاز المخابرات الاسرائيلي " الموساد " ؟ الجواب هو في عام +pred_answer : 1953 ، عندما +answer : 13 ديسمبر 1949 + +context : البطريرك ( ج بطاركة أو بطارقة ) كلمة يونانية مكونة من شطرين ، ترجمتها الحرفية " الأب الرئيس " ؛ ومن حيث المعنى فهي تشير إلى من يمارس السلطة بوصفه الأب ، على امتداد الأسرة ، ولذلك فإن النظام المعتمد على سلطة الأب ، يدعى " النظام البطريركي " . أما في المسيحية ، فتتخذ الكلمة معنى رئيس الأساقفة في الكنائس الأرثوذكسية والكاثوليكية ؛ ويدعى مكتب البطريرك البطريركية . أما المؤرخون العرب فقد اصطلحوا على الكلمة لفظ " بطريق " . +question : ما هي الترجمة اليونانية لكلمة البطريرك ؟ +prompt : أجب عن السؤال التالي : ما هي الترجمة اليونانية لكلمة البطريرك ؟ الجواب هو +pred_answer : أن كلمة بطريرك +answer : الأب الرئيس + +context : سرا ، دون مراتب الشرف التي كان تحق له باعتباره الرئيس السابق وجنرال في الجيش ، تم دفن بقايا المتعرف عليها من الرئيس ألفارو ومساعديه في مقبرة عامة في كيتو . تم تسجيل شهادة الوفاة وسبب الوفاة " قتله الشعب " . هذا السجل لا يتم تسجيل الخبرة الطبية ، ومع المراعاة ووفقا لجانجوتينا ، في نفس المحرقة تم حرق ألفارو ولوتشيانو كورال حتى لا يمكن التعرف عليه ، ليس من المؤكد أن تمكن من تحديد بقاياه بشكل صحيح ، خلافا لغيرها من الشهداء الذين لم تحترق جثثهم تماما بسبب عدم كفاية الوقود . في ال 40 عاما من القرن العشرين انتقل الذي يعتقد أن الرماد توجه إلى غواياكيل ، في هذة المقبرة الجنرال ارتفع ضريح ، مع تمثال نصفي برونزي . أثناء رئاسة رافائيل كوريا ديلغادو في عام 2008 ، إزالة جزء من رماد المفترض للمحارب القديم ونقل مع مرتبة الشرف العسكري للمدينة المعقدة ما يسمى ألفارو ، في سكان مانابى مونتيكريستى ، وطنه ، الذي يضم أيضا الجمعية التأسيسية لعام 2008 . الضريح ، مزين بالجداريات ، يحتوى على ما يفترض الرماد ألفارو في وعاء . زنزانة بينال غارسيا مورينو حيث قتل لم تكن احتلت . حاليا يوجد تمثال نصفي ألفارو فيها . في المدن الإكوادورية الرئيسية يوجد شوارع وسبل تكريما ألفارو . شارع إيلوي ألفارو[19] واحدا من الشوارع الرئيسية في كيتو . العاصمة يقف أيضا مسلة الذي يشير إلى موقع جدا قريبة من الحقيقية ، في الخث الذي أحرق أحشاء الرئيس ألفارو ومساعديه ، ربما في الموقع جانجوتينا وقال بيرا رقم واحد . المسلة ، باللون الأحمر ، توج بشعلة في وسط الحديقة الإيخيدو . المسلة هو الذي يقرأ لوحة " تمجيد الشهادة والفارو ، 28 يناير 1912 " . أمام المسلة ، رفع رئيس بلدية باكو مونكايو تمثال ألفارو . كل 5 يونيه ، الذكرى السنوية للثورة ، المدارس العامة في كيتو إجلالا له بوضع اكاليل الزهور . كما انها تؤدي حفل في ذكراه المحافل الماسونية في العاصمة . في غواياكيل أقام نصب تذكاري كبير في منتصف القرن العشرين ذكرى للجنرال ألفارو[20] ، ويظهره قيادة الثورة الليبرالية . +question : أين دفن إلوي ألفارو ؟ +prompt : أجب عن السؤال التالي : أين دفن إلوي ألفارو ؟ الجواب هو +pred_answer : في مكان غير معروف حتى الآن +answer : مقبرة عامة في كيتو + +context : إن البداية التي انطلقت منها الجامعة تعود إلى عام 1369 ه حين أسست كلية الشريعة كأول صرح في التعليم العالي بمفهومه الحديث في المملكة العربية السعودية وفي عام 1372 ه تم إنشاء معهد عال للمعلمين باسم كلية المعلمين استمرت إلى عام 1379 ه ثم أسندت مهمة إعداد المعلمين لكلية الشريعة عام 1381 ه وسميت كلية الشريعة والتربية ، وفي عام 1382 ه أنشئت كلية التربية بمكة مستقلة عن كلية الشريعة . +question : متى إفتتحت جامعة أم القرى ؟ +prompt : أجب عن السؤال التالي : متى إفتتحت جامعة أم القرى ؟ الجواب هو في عام +pred_answer : 1377 ه +answer : 1369 ه + +context : نادي مانشستر يونايتد لكرة القدم ويعرف رسميا باسم مانشستر يونايتد هو نادي كرة قدم إنجليزي يعد من أعرق أندية العالم وأميزها وواحدا من أنجح الفرق الإنجليزية والعالمية على مر التاريخ ، ملعبه هو أولد ترافورد مسرح الأحلام بمدينة مانشستر إنجلترا . فاز بالعديد من الكؤوس في الكرة الإنجليزية وهذا يشمل الرقم القياسي لعدد ألقاب الدوري الإنجليزي وهو 20 لقبا و 12 لقبا من كأس الإتحاد الإنجليزي و 5 ألقاب من كأس رابطة الأندية الإنجليزية المحترفة وكذلك 21 لقبا بدرع الاتحاد الإنجليزي . فاز النادي أيضا ب 3 ألقاب من دوري أبطال أوروبا و 1 من كل من هذه الكؤوس : الدوري الأوروبي ، كأس أبطال الكؤوس الأوروبي ، كأس السوبر الأوروبي ، كأس الإنتركونتيننتال وكأس العالم للأندية ، مالكه الحالي هو مالكوم جليزر . +question : كم دوري أنجليزي تحصل عليه نادي مانشستر يونايتد لكرة القدم ؟ +prompt : أجب عن السؤال التالي : كم دوري أنجليزي تحصل عليه نادي مانشستر يونايتد لكرة القدم ؟ الجواب هو +pred_answer : ( +answer : 20 + +context : ويهيمن على وادي نهر لغن من بلفاست ، والتي تشمل منطقة العاصمة أكثر من ثلث سكان أيرلندا الشمالية ، مع التحضر والتصنيع الثقيل على طول وادي لغن والشواطئ على حد سواء من خليج بلفاست . +question : ماهى عاصمة آيرلندا الشمالية ؟ +prompt : أجب عن السؤال التالي : ماهى عاصمة آيرلندا الشمالية ؟ الجواب هو +pred_answer : مدينة بلفاست +answer : بلفاست + +context : ريو دي لا بلاتا بمعنى نهر الفضة هو خور تكون نتيجة الاقتران بين نهر باراغواي ونهر بارانا على الحدود بين الأرجنتين والأوروغواي . +question : ما معنى اسم نهر ريو دي لا بلاتا ؟ +prompt : أجب عن السؤال التالي : ما معنى اسم نهر ريو دي لا بلاتا ؟ الجواب هو +pred_answer : أن هذا النهر +answer : نهر الفضة + +context : مروي أو مرواه بالعربية[1][2] أو ميدوي أو بيدوي باللغة المروية وبالاغريقية ( ) جميعها أسماء لمدينة مروي هي مدينة أثرية في شمال السودان تقع علي الضفة الشرقية لنهر النيل ، تبعد حوالي حوالي 6 كيلومترات الي إتجاه الشمال الشرقي من محطة كبوشية بالقرب من مدينة شندي ، كما تبعد حوالي 200 كيلو متر من العاصمة السودانية الخرطوم . ويوجد بالقرب من الموقع مجموعة من القري تسمي البجراوية . كانت هذه المدينة عاصمة للملكة الكوشية لعدة قرون ، وقد أطلق الكوشيون هذا الاسم لكل الجزيرة أو شبه الجزيرة الواقعة بين نهر عطبرة في الشمال والنيل الأزرق في الجنوب ونهر النيل في الشرق ويطلق علي هذه المنطقة جغرافيا اسم أقليم البطانة . +question : أين تقع مدينة مروي ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة مروي ؟ الجواب هو +pred_answer : في شمال السودان +answer : شمال السودان + +context : أبو عبد الله سفيان بن سعيد بن مسروق الثوري ( 97 ه - 161 ه ) فقيه كوفي ، وأحد أعلام الزهد عند المسلمين ، وإمام من أئمة ، وواحد من تابعي التابعين ، وصاحب واحد من المذاهب الإسلامية المندثرة ، والذي ظل مذهبه متداولا حتى القرن السابع الهجري ، والذي قال عنه الذهبي : ، كما قال عنه بشر الحافي : . +question : متى عاش أبو عبد الله سفيان بن سعيد بن مسروق ؟ +prompt : أجب عن السؤال التالي : متى عاش أبو عبد الله سفيان بن سعيد بن مسروق ؟ الجواب هو +pred_answer : : ولد +answer : 97 ه + +context : مجموعة بلدربيرغ أو مؤتمر بلدربيرغ أو نادي بلدربيرغ ، هو مؤتمر سنوي غير رسمي يحضره قرابة 100 إلى 150 من المدعوين ، معظمهم من أكبر رجالات السياسة والأعمال والبنوك نفوذا في العالم . ويتم الحديث في المؤتمر خلف جدار من السرية الشديدة حول العديد من المواضيع العالمية والاقتصادية والعسكرية والسياسية . +question : ما هي مجموعة بلدربيرغ ؟ +prompt : أجب عن السؤال التالي : ما هي مجموعة بلدربيرغ ؟ الجواب هو +pred_answer : أن هذه المجموعة تتكون من أشخاص شغلوا مناصب مهمة في حكومات دول أخرى أمثال جورج سوروس ، بيل غيتس ، وك +answer : مؤتمر سنوي غير رسمي يحضره قرابة 100 إلى 150 من المدعوين معظمهم من أكبر رجالات السياسة والأعمال والبنوك نفوذا في العالم + +context : الجودو أو الجيدو وتعني حرفيا « الطريقة اللينة » اسم يطلق على نوع من أنواع الفنون القتالية اليابانية ، أنشأها جيغورو كانو في 1882 . [1][2][3] طور كانو هذه الرياضة انطلاقا من الفن القتالي جيو جتسو بعد أن حذف منه العديد من التقنيات الخطيرة وجعله بهذه الطريقة ملائمة أكثر للممارسة الرياضية . مما فتح الباب أمام هذه الرياضة بالدخول إلى الألعاب الأولمبية . ترتكز روعة هذه اللعبة عند محبيها بأن السيطرة على الخصم وشل حركته تكون في أوقات كثيرة أفضل من ايذائه . سنة 1882 ميلادية قام كانو بتأسيس مدرسته لتعليم الجودو والمسمات كودوكان في طوكيو وتعني كلمة كودوكان مكان تعليم الطريق . ومن الناحية الفلسفية أو الأخلاقية التي يقوم عليها الجودو فهو يقوم على مبدئين اثنين : +question : ما هو بلد المنشأ لرياضة الجودو ؟ +prompt : أجب عن السؤال التالي : ما هو بلد المنشأ لرياضة الجودو ؟ الجواب هو +pred_answer : اليابان +answer : اليابان + +context : اليوم العالمي لحقوق الطفل هو يوم عالمي يوافق تاريخ التوقيع على الاتفاقية الدولية لحقوق الطفل في 20 نوفمبر 1989 من قبل 191 دولة . صادقت عليها جميع الدول ما عدا الولايات المتحدة والصومال اللتان وقعتا عليها دون تصديق . [1] +question : متى يوافق اليوم العالمي لحقوق الطفل ؟ +prompt : أجب عن السؤال التالي : متى يوافق اليوم العالمي لحقوق الطفل ؟ الجواب هو +pred_answer : : في +answer : 20 نوفمبر + +context : الخيل العربية من سلالات الخيول الخفيفة في العالم وهي تابعة لمنطقة الشرق الأوسط ، والخيول العربية تتميز برأسها المميز وذيلها المرتفع وتعد بذلك واحدة من الأنواع التي من السهل التعرف عليها عبر العالم ، وهي واحدة من أقدم سلالات الخيول ، فالأدلة الأثرية ترجع أصول الخيول العربية إلى 4 , 500 سنة ، [1] فعلى مر العصور ، بدأت الخيول العربية من الجزيرة العربية وانتشرت في باقي بلدان العالم ، إما عن طريق التجارة أو الحروب ، كما تستخدم للتناسل مع السلالات الأخرى لتحسين قدرات تلك السلالات على الصبر والدقة والسرعة ، وتمتلك عظاما قوية ودما عربيا أصيلا ، لذلك تعد الخيول العربية الأكثر حضورا حاليا في سباقات ركوب الخيل . +question : ما هو الجواد الاصيل ؟ +prompt : أجب عن السؤال التالي : ما هو الجواد الاصيل ؟ الجواب هو +pred_answer : الحصان او الفرس الاصيلة .فالحصان العربي الاصيل +answer : من سلالات الخيول الخفيفة في العالم وهي تابعة لمنطقة الشرق الأوسط + +context : الجزء الأول متكون من 8 حلقات تبلغ مدة كل حلقة ساعة واحدة تقريبا ، أصدر في 15 يوليو ، 2016 بجودة 4K و HD [3] بينما الجزء الثاني متكون من تسعة حلقات وصدر في 27 أكتوبر ، 2017 . [4] +question : متى صدر المسلسل الامريكي " سترينجر ثينقز " ؟ +prompt : أجب عن السؤال التالي : متى صدر المسلسل الامريكي " سترينجر ثينقز " ؟ الجواب هو في عام +pred_answer : 1995 .في +answer : 15 يوليو 2016 + +context : دانييل بارينبويم ( ولد في 15 نوفمبر ، 1942 ) هو عازف بيانو ، وقائد أوركسترا . يعيش دانييل بارينبويم في برلين ، ويحمل جنسيات كلا من الأرجنتين ، وإسرائيل ، وإسبانيا ، كما يحمل جواز سفر مستصدر من السلطة الفلسطينية . ولد بارينبويم في بيونس آيرس في الأرجنتين . قام والداه وكانا عازفين مرموقين للبيانو بإعطائه دروسا في البيانو وهو في الخامسة ثم رحلت أسرته إلى فلسطين المحتلة عام 1952 م ضمن حملات تهجير اليهود إلى فلسطين . وظهر لأول مرة كعازف للبيانو في بيونس آيرس وهو في التاسعة كما قاد أول فرقة موسيقية في حيفا بفلسطين المحتلة عام 1957 . واختير لقيادة حفلة رأس السنة الموسيقية في فيينا مرتين الاولى في عام 2009 والثانية عام 2014 . [1] أسس بارينبويم أوركيسترا الديوان الغربي الشرقي باللإشتراك مع الكاتب الفلسطيني الأصل أمريكي الجنسية إدوارد سعيد . [2] و عين سنة 2007 رسول السلام التابع للأمم المتحدة . +question : من هو دانييل بارينبويم ؟ +prompt : أجب عن السؤال التالي : من هو دانييل بارينبويم ؟ الجواب هو +pred_answer : دانيال بارنبويم ، عازف البيانو +answer : عازف بيانو وقائد أوركسترا + +context : القائمة الحمراء للأنواع المهددة بالانقراض هي لائحة تصنف وتدرس حالة حفظ الأنواع النباتية والحيوانية . أنشئت في عام 1963 ، يصدرها اتحاد الحماية العالمي ، السلطة الرسمية القائمة على حفظ الأنواع في العالم[1] . يهدف اتحاد الحماية العالمي إلى إعادة تقييم كل فئة من الأنواع كل 5 سنوات إذا أمكن ، أو كل عشر سنوات على الأقل . +question : في أي عام أنشئت القائمة الحمراء للأنواع المهددة بالانقراض ؟ +prompt : أجب عن السؤال التالي : في أي عام أنشئت القائمة الحمراء للأنواع المهددة بالانقراض ؟ الجواب هو في عام +pred_answer : 1992 ، +answer : 1963 + +context : ألفرد نوبل ( 21 أكتوبر 1833 - 10 ديسمبر 1896 ) ، مهندس ومخترع وكيميائي سويدي ، اخترع الديناميت في سنة 1867 ومن ثم أوصى بمعظم ثروته التي جناها من الاختراع إلى جائزة نوبل التي سميت بإسمه . +question : من هو مخترع الديناميت ؟ +prompt : أجب عن السؤال التالي : من هو مخترع الديناميت ؟ الجواب هو +pred_answer : العالم الألماني هنريك +answer : ألفرد نوبل + +context : العدلة[1] أو الخلايا الحبيبية المتعادلة [2][3] ، عادة يشار إليها بالخلايا المتعادلة هي أكثر أنواع كريات الدم البيضاء غزارة لدى الإنسان حيث تشكل ما نسبته 60 - 70 % من كريات الدم البيضاء و تكون نواتها متعددة الفصوص وتحتوي النواة عند الإناث على الكروموسوم X الذي يكون على شكل زائدة تشبه عصا الطبل التى يضرب بها الطبال عندما يستخدم الطبلة وهي تحتوي على حبيبات متناثرة لذلك فهي تصنف على أنها من خلايا الدم البيضاء ذات الحبيبات ( المحببة ) وهذه الخلايا تنشأ خارج النسيج الضام ثم تأتي إليه وتبقى فيه لفترة قصيرة وهي تنصبغ بشكل متغير وتشكل قسما رئيسيا من الجهاز المناعي ولها دور في عملية البلعمة . أتت التسمية من صفات تصبغها - أخذها للون - جراء عملية التحضير النسيجي والخلوي وذلك باستخدام الهيماتوكسيلين والإيوسين . حيث أن المكونات الخلوية المحبة للقواعد تأخذ اللون الأزرق الغامق ، والمكونات المحبة للحمض تأخذ اللون الأحمر ، أما المكونات المتعادلة تأخذ اللون الزهري . هذه الخلايا البالعة تتواجد في الحالات الطبيعية في مجرى الدم ، وعند حدوث التهاب حاد وتحديدا نتيجة الإصابة بعدوى جرثومية تغادر الخلايا المتعادلة جهاز الدوران وتهاجر باتجاه موضع الالتهاب في عملية تدعى الجذب الكيميائي . تكون الخلايا المتعادلة غزيرة وسائدة في القيح مما يفسر لونه الأبيض المصفر . تعمل العدلات خلال ساعة من الأذية النسيجية وتعد العلامة المحددة والواسمة للالتهاب الحاد . [4] +question : ما هي الخلايا الحبيبية المتعادلة ؟ +prompt : أجب عن السؤال التالي : ما هي الخلايا الحبيبية المتعادلة ؟ الجواب هو +pred_answer : أن هذه الخلايا تحتوي على حبيبات +answer : أكثر أنواع كريات الدم البيضاء + +context : مهرجان كان السينمائي ( بالفرنسية : Festival de Cannes ) , هو أحد أهم المهرجانات السينمائية عبر العالم . يرجع تأسيسه إلى سنة 1946 . وهو يقام كل عام عادة في شهر مايو ، في مدينة كان في جنوب فرنسا . يوزع المهرجان عدة جوائز أهمها جائزة السعفة الذهبية لأفضل فيلم . مركز إقامته قصر المهرجانات في شارع لاكروازييت الشهير على سواحل خليج كان اللازوردية . +question : متى تأسس مهرجان كان السينمائي ؟ +prompt : أجب عن السؤال التالي : متى تأسس مهرجان كان السينمائي ؟ الجواب هو في عام +pred_answer : 1946 . +answer : 1946 + +context : باولا جولي عبدول ( مواليد 19 يونيو ، 1962 ) فنانة أمريكية يهودية مشهورة لوالد يهودي سوري من حلب . [1][2][3] معروفة كمغنية وكمصممة رقص كبيرة في هوليوود و سابقا كأحد أعضاء لجنة التحكيم في برنامج السوبر ستار الأميريكي " أميريكان آيدول " . +question : من هي باولا عبدول ؟ +prompt : أجب عن السؤال التالي : من هي باولا عبدول ؟ الجواب هو +pred_answer : : ملكة جمال الولايات المتحدة الأمريكية السابقة ، التي فازت +answer : فنانة أمريكية يهودية مشهورة لوالد يهودي سوري من حلب + +context : البنائية في علم النفس هي مدرسة أسسها العالم النفسي فيلهلم فونت ( 1875 - 1930 ) ، والتي تعرف علم النفس بأن وظيفته هو تحليل الخبرة الشعورية أو الوعي إلى عناصره الأساسية من أجل معرفة العلاقة بين هذه العناصر المختلفة ، أي أن طريقة البحث هذه نفس الطريقة التي يستعملهل الكيميائي أو الفيزيائي في فحص ماهية طبيعة مكونات الخبرة الشعورية مثل الأحاسيس والمشاعر والخيالات . وهكذا ركزت المدرسة البنائية على دراسة موضوع الحس والإدراك في مجالات البصر والحس ، ومن أجل ذلك استعملوا طريقة في البحث وهي الاستبطان والتي تعني التأصل الملاحظة الذاتية لخبرة الفرد الذاتية . [1][2][3] و من الانتقادات الموجهة : 1 . الإنسان وهو منفعل لا يستطيع أن يصف الخبرة الشعورية بصورة علمية . 2 . الطلاب الذين أجريت عليهم التجارب كانوا يتدربون على هذه التجارب قبل أن تجري عليهم التجارب ، مثلا كانوا يتعرضون لمثيرات سمعية ( بأن نسمعهم نغمات مختلفة ) +question : من هو رائد المدرسة البنائية في علم النفس ؟ +prompt : أجب عن السؤال التالي : من هو رائد المدرسة البنائية في علم النفس ؟ الجواب هو +pred_answer : عالم النفس السويسري فردريك +answer : فيلهلم فونت + +context : الثورة التونسية ( والتي تعرف أيضا بثورة الحرية والكرامة أو ثورة 17 ديسمبر أو ثورة 14 جانفي ) ، هي ثورة شعبية اندلعت أحداثها في 17 ديسمبر 2010 تضامنا مع الشاب محمد البوعزيزي الذي قام بإضرام النار في جسده في نفس اليوم تعبيرا عن غضبه على بطالته ومصادرة العربة التي يبيع عليها من قبل الشرطية فادية حمدي ( وقد توفي البوعزيزي يوم الثلاثاء الموافق 4 يناير 2011 في مستشفى بن عروس بسبب حروقه البالغة[1] ) . أدى ذلك إلى اندلاع شرارة المظاهرات في يوم 18 ديسمبر 2010 وخروج آلاف التونسيين الرافضين لما اعتبروه أوضاع البطالة وعدم وجود العدالة الاجتماعية وتفاقم الفساد داخل النظام الحاكم . كما أدى ذلك إلى اندلاع مواجهات بين مئات من الشبان في منطقة سيدي بوزيد وولاية القصرين مع قوات الأمن لتنتقل الحركة الاحتجاجية من مركز الولاية إلى البلدات والمدن المجاورة كالمكناسي والرقاب وسيدي علي بن عون ومنزل بوزيانو القصرين وفريانة ونتج عن هذه المظاهرات التي شملت مدن عديدة في تونس عن سقوط العديد من القتلى والجرحى من المتظاهرين نتيجة تصادمهم مع قوات الأمن ، وأجبرت الرئيس زين العابدين بن علي على إقالة عدد من الوزراء بينهم وزير الداخلية وتقديم وعود لمعالجة المشاكل التي نادى بحلها المتظاهرون ، كما أعلن عزمه على عدم الترشح لانتخابات الرئاسة عام 2014 . [2] كما تم بعد خطابه فتح المواقع المحجوبة في تونس كاليوتيوب بعد 5 سنوات من الحجب ، بالإضافة إلى تخفيض أسعار بعض المنتجات الغذائية تخفيضا طفيفا . لكن الاحتجاجات توسعت وازدادت شدتها حتى وصلت إلى المباني الحكومية مما أجبر الرئيس بن علي على التنحي عن السلطة ومغادرة البلاد بشكل مفاجئ بحماية أمنية ليبية إلى السعودية يوم الجمعة 14 يناير 2011 . [3] فأعلن الوزير الأول محمد الغنوشي في نفس اليوم عن توليه رئاسة الجمهورية بصفة مؤقتة وذلك بسبب تعثر أداء الرئيس لمهامه وذلك حسب الفصل 56 من الدستور ، مع إعلان حالة الطوارئ وحظر التجول . لكن المجلس الدستوري قرر بعد ذلك بيوم اللجوء للفصل 57 من الدستور وإعلان شغور منصب الرئيس ، وبناء على ذلك أعلن في يوم السبت 15 يناير 2011 عن تولي رئيس مجلس النواب فؤاد المبزع منصب رئيس الجمهورية بشكل مؤقت إلى حين إجراء انتخابات رئاسية مبكرة خلال فترة من 45 إلى 60 يوما . وشكلت الثورة التونسية المفجر الرئيسي لسلسلة من الاحتجاجات والثورات في عدد من الدول العربية . +question : متى إندلعت الثورة التونسية ؟ +prompt : أجب عن السؤال التالي : متى إندلعت الثورة التونسية ؟ الجواب هو في عام +pred_answer : 2010 � +answer : 17 ديسمبر 2010 + +context : دنقلا العجوز هي بلدة سودانية تقع على الضفة الشرقية لنهر النيل ، في الولاية الشمالية بالسودان ، وكانت مركزا هاما في بلاد النوبة في العصور الوسطى حيث كانت عاصمة مملكة المقرة النوبية . وهي مدينة مهمة في التاريخ الإسلامي في السودان ويسميها بعض العلماء من المسلمين بعروس القرآن ويعتبر المسجد المقام بها من أقدم المساجد في أفريقيا . [1] +question : أين تقع مدينة دنقلا العجوز ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة دنقلا العجوز ؟ الجواب هو +pred_answer : في شمال السودان ، +answer : الولاية الشمالية بالسودان + +context : معركة كورسك تعتبر من المعارك التي حددت مسار ونتائج الحرب العالمية الثانية جرت مابين 5 يوليو 1943 و 23 أغسطس بين القوات الألمانية والسوفياتية قرب مدينة كورسك ( 450 كلم جنوب غرب موسكو ) ، وشهدت وقوع أكبر معركة دبابات في التاريخ وهي معركة بروخوروفكا . +question : متى وقعت معركة كورسك ؟ +prompt : أجب عن السؤال التالي : متى وقعت معركة كورسك ؟ الجواب هو في عام +pred_answer : 1942 ، عندما كانت الحرب العالمية الثانية +answer : مابين 5 يوليو 1943 و 23 أغسطس + +context : المقدمة هو كتاب ألفه ابن خلدون سنة 1377 م كمقدمة لمؤلفه الضخم الموسوم كتاب العبر ( الاسم الكامل للكتاب هو كتاب العبر ، وديوان المبتدأ والخبر في أيام العرب والعجم والبربر ، ومن عاصرهم من ذوي السلطان الأكبر ) . وقد اعتبرت المقدمة لاحقا مؤلفا منفصلا ذي طابع موسوعي إذ يتناول فيه جميع ميادين المعرفة من الشريعة والتاريخ والجغرافيا والاقتصاد والعمران والاجتماع والسياسة والطب . وقد تناول فيه أحوال البشر واختلافات طبائعهم والبيئة وأثرها في الإنسان . كما تناول بالدراسة تطور الأمم والشعوب ونشوء الدولة وأسباب انهيارها مركزا في تفسير ذلك على مفهوم العصبية . بهذا الكتاب سبق ابن خلدون غيره من المفكرين إلى العديد من الآراء والأفكار حتى اعتبر مؤسسا لعلم الاجتماع ، سابقا بذلك الفيلسوف الفرنسي أوغست كونت . +question : من كاتب كتاب المقدمة ؟ +prompt : أجب عن السؤال التالي : من كاتب كتاب المقدمة ؟ الجواب هو +pred_answer : ابن خلدون +answer : ابن خلدون + +context : يظهر هذا المرض على الأغلب بين عمر 45 و 55 عام ، ولكن مرحلة الاصابة الفيروسية المسببة لهذا السرطان تكون قد بدأت على الأغلب بعمر بين عمر 20 حتى 30 عام . العمر الوسطي لاكتشاف المرض سريريا هو 52 عام . كما يمكن لهذا المرض الظهور خلال فترة الحمل . وتتراوح هذه النسبة حوالي 1 . 2 امرأة من كل 10 . 000 . +question : ما هو العمرالوسطي للإصابة بمرض سرطان عنق الرحم ؟ +prompt : أجب عن السؤال التالي : ما هو العمرالوسطي للإصابة بمرض سرطان عنق الرحم ؟ الجواب هو +pred_answer : أنه كلما زاد عمر +answer : 20 حتى 30 عام + +context : اسم التفضيل : اسم مشتق يدل على شيئين اشتركا في صفة واحدة وزاد أحدهما على الآخر في هذه الصفة[1] . +question : ما هو اسم التفضيل ؟ +prompt : أجب عن السؤال التالي : ما هو اسم التفضيل ؟ الجواب هو +pred_answer : : أفعل التفضيل ، وهو الاسم الذي يدل على أن شيئين اشتركا في صفة وزاد +answer : اسم مشتق يدل على شيئين اشتركا في صفة واحدة وزاد أحدهما على الآخر في هذه الصفة + +context : الأميرة اولغا هي أميرة روسيا الكييفية . بدأت تحكم في سنة 945 بعد موت زوجها إيغور . +question : من هي الأميرة اولغا ؟ +prompt : أجب عن السؤال التالي : من هي الأميرة اولغا ؟ الجواب هو +pred_answer : : أولغا أميرة روسية +answer : أميرة روسيا الكييفية + +context : المهدية مدينة ساحلية تونسية ومقر لولاية المهدية . المهدية ( مهدية ) هي مدينة ساحلية تقع 205 كلم جنوب تونس العاصمة . و هي أيضا عاصمة ولاية المهدية . +question : أين تقع مدينة المهدية ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة المهدية ؟ الجواب هو +pred_answer : أنها تقع +answer : تونس + +context : أكاديمية اللغة الفرنسية ( بالفرنسية : Acad mie Fran aise ) هي أكادمية تم تأسيسها سنة 1635 في عهد الملك لويس الثالث عشر من قبل الكاردينال ريشيليو ، وهي من أقدم الهيئات في فرنسا . [1][2][3] مهمتها هي تقعيد وتطوير اللغة الفرنسية . +question : متى تم تأسيس أكاديمية اللغة الفرنسية ؟ +prompt : أجب عن السؤال التالي : متى تم تأسيس أكاديمية اللغة الفرنسية ؟ الجواب هو في عام +pred_answer : 1848 +answer : 1635 + +context : داماد محمود جلال الدين باشا ( ولد في إسطنبول 1853 م - وتوفي في بروكسل 17 ديسمبر 1903 م ) هو رجل دولة عثماني ، وشاعر وكاتب . +question : متى توفي محمود شوكت باشا ؟ +prompt : أجب عن السؤال التالي : متى توفي محمود شوكت باشا ؟ الجواب هو في عام +pred_answer : 1909 � +answer : 17 ديسمبر 1903 + +context : الكاشوف أو الرادار ( بالإنجليزية : Radar ) هو نظام يستخدم موجات كهرومغناطيسية للتعرف على بعد وارتفاع واتجاه وسرعة الأجسام الثابتة والمتحركة كالطائرات ، والسفن ، والعربات ، وحالة الطقس ، وشكل التضاريس . يبعث جهاز الإرسال موجات لاسلكية تنعكس بواسطة الهدف فيتعرف عليها جهاز الاستقبال . وتكون الموجات المرتدة إلى المستقبل ضعيفة ، فيعمل جهاز الاستقبال على تضخيم تلك الموجات مما يسهل على الكاشوف أن يميز الموجات المرسلة عن طريقه من الموجات الأخرى كالموجات الصوتية وموجات الضوء . يستخدم الكاشوف في مجالات عديدة كالأرصاد الجوية لمعرفة موعد هطول الأمطار ، والمراقبة الجوية ، ومن قبل الشرطة لكشف السرعة الزائدة ، وأخيرا والأهم استخدامه بالمجال العسكري . سمي الرادار بهذا الاسم اختصارا لعبارة RA < b > dio D < b > etection A < b > nd R < b > anging ( English pronunciation : re dio d te k n n ( d ) re n i ) . [1][2][3][4] +question : ما هو الرادار ؟ +prompt : أجب عن السؤال التالي : ما هو الرادار ؟ الجواب هو +pred_answer : جهاز إلكتروني يرسل موجات كهرومغناطيسية ذات تردد معين إلى الهدف المراد مراقبته ، حيث +answer : نظام يستخدم موجات كهرومغناطيسية للتعرف على بعد وارتفاع واتجاه وسرعة الأجسام الثابتة والمتحركة + +context : تقع غدتا كوبر على جانبي الجزء الغشائي من الخلف من الإحليل أو مجرى البول أسفل القضيب ، وذلك بين طبقتي اللفافة البولية التناسلية في الجيبة العجانية العميقة ، ويحيط بهما الألياف العرضية لعضلة المصرة للإحليل الغشائي . وتكون غدة كوبر العدد 2 بحجم عادة تكونان حبة البازيلاء ، تقعان على جانبي البروستاتا الأماميين . وظيفتها الأساسية إفراز بضع قطرات قاعدية إلى داخل قناة البول لشطفها من الحوامض وذلك مباشرة بعد حدوث الانتصاب لدى الذكر وقبل القذف . هذه المادة المفرزة ترطب الحشفة ( رأس القضيب ) لتسهيل عملية الجماع . +question : أين تقع الغدد البصلية الإحليلية ؟ +prompt : أجب عن السؤال التالي : أين تقع الغدد البصلية الإحليلية ؟ الجواب هو +pred_answer : الغدة النخامية ( Pituitary gland ) ، وهي غ +answer : جانبي الجزء الغشائي من الخلف من الإحليل أو مجرى البول أسفل القضيب + +context : الاضطراب الاكتئابي مصطلح يستخدم لوصف خليط من الحالات المرضية أو غير المرضية في الإنسان والتي يغلب عليها طابع الحزن . هناك أنواع متعددة من الاكتئاب قسمت حسب طول فترة الحزن وعما إذا كان الحزن قد أثر على الحياة الاجتماعية والمهنية للفرد وعما إذا كان الحزن مصحوبا بنوبات من الابتهاج إضافة إلى نوبات الكآبة . لا يعتبر الإنسان المخلوق الوحيد الذي يمكن أن يصاب بالاكتئاب ، حيث يصاب فصيلة الثدييات قاطبة بالكآبة ، وقد تم الاستدلال على هذه الحقيقة من خلال إجراء تجارب مختبرية على الفأر والقرد . في الإنسان ، يصاب عادة 20 % من الإناث و 12 % من الذكور بنوبة من الكآبة في حياتهم على أقل تقدير ، وهناك نسبة تكاد تكون ثابتة في مختلف المجاميع البشرية مفاده أنه % 5 إلى 10 % من الأناث و 3 % من الذكور مصابون بما يسمى نوبة الأكتئاب الكبرى وهذه نسبة عالية جدا مما يجعل نوبة الاكتئاب الكبرى من أكثر الاضطرابات النفسية شيوعا . +question : ما هو الاضطراب الاكتئابي ؟ +prompt : أجب عن السؤال التالي : ما هو الاضطراب الاكتئابي ؟ الجواب هو +pred_answer : أن الشخص الذي يعاني من اضطراب اكتئابي يكون لديه مشاعر سلبية تجاه نفسه وتجاه الآخرين ، +answer : مصطلح يستخدم لوصف خليط من الحالات المرضية أو غير المرضية في الإنسان والتي يغلب عليها طابع الحزن + +context : توفيت نبوية موسى في 30 إبريل 1951 تاركة سجلا حافلا بالذكريات واستحقت عن جدارة لقب رائدة تعليم الفتيات المصريات . [1] شاركت موسى في تأسيس الاتحاد النسائي المصري والعديد من الجمعيات النسوية . [5] +question : متى توفيت نبوية موسى محمد بدوية ؟ +prompt : أجب عن السؤال التالي : متى توفيت نبوية موسى محمد بدوية ؟ الجواب هو في عام +pred_answer : 1917 � +answer : 30 إبريل 1951 + +context : منظمة الصحة العالمية ( يرمز لها اختصارا WHO ) هي واحدة من عدة وكالات تابعة للأمم المتحدة متخصصة في مجال الصحة . وقد أنشئت في 7 أبريل 1948 . ومقرها الحالي في جنيف ، سويسرا ، وتدير السيدة مارغريت تشان المنظمة . +question : في أي عام تأسست منظمة الصحة العالمية ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست منظمة الصحة العالمية ؟ الجواب هو في عام +pred_answer : 1948 � +answer : 7 أبريل 1948 + +context : محمود أحمدي نجاد هو أستاذ جامعي وسياسي إيراني ، أصبح عمدة لبلدية طهران ثم رئيسا لجمهورية إيران الإسلامية ، وهو الرئيس السادس للجمهورية الإيرانية . تولى مهام رئاسة الجمهورية منذ 3 أغسطس 2005 بعد تغلبه على منافسه هاشمي رفسنجاني في الدور الثاني من الانتخابات الرئاسية ، وأعيد انتخابه في 12 يونيو 2009 على حساب منافسه مير حسين موسوي ، وظل رئيسا حتى 15 يونيو 2013 بعد عقد الانتخابات الجديدة . +question : ما مهنة محمود أحمدي نجاد قبل الرئاسة ؟ +prompt : أجب عن السؤال التالي : ما مهنة محمود أحمدي نجاد قبل الرئاسة ؟ الجواب هو +pred_answer : أنه كان يعمل +answer : عمدة لبلدية طهران + +context : المحكمة الجنائية الدولية تأسست سنة 2002 كأول محكمة قادرة على محاكمة الأفراد المتهمين بجرائم الإبادة الجماعية والجرائم ضد الإنسانية وجرائم الحرب وجرائم الاعتداء . تعمل هذه المحكمة على إتمام الأجهزة القضائية الموجودة ، فهي لا تستطيع أن تقوم بدورها القضائي ما لم تبد المحاكم الوطنية رغبتها أو كانت غير قادرة على التحقيق أو الادعاء ضد تلك القضايا ، فهي بذلك تمثل المآل الأخير . فالمسؤولية الأولية تتجه إلى الدول نفسها ، كما تقتصر قدرة المحكمة على النظر في الجرائم المرتكبة بعد 1 يوليو تموز 2002 ، تاريخ إنشائها ، عندما دخل قانون روما للمحكمة الجنائية الدولية حيز التنفيذ . +question : متى تأسست المحكمة الجنائية الدولية ؟ +prompt : أجب عن السؤال التالي : متى تأسست المحكمة الجنائية الدولية ؟ الجواب هو في عام +pred_answer : 2002 ، +answer : 2002 + +context : في شبكات تبديل الرزم ، بروتوكول التوجيه أو بروتوكول التسيير هو اسم لعائلة من بروتوكولات الشبكة التي تحدد مجموعة القواعد الضابطة لكيفية تواصل تجهيزات الشبكة ، كالموجهات أو العقد مع بعضها البعض ، وكيفية توزيع المعلومات المرتبطة بطوبولوجيا الشبكة وكيفية اختيار أفضل مسار يصل نحو أي وجهة أو عقدة فيها ، وآلية تعديل جداول التوجيه بشكل آلي عند حصول تغير في الطولوبوجيا . أي أن بروتوكول التوجيه يلعب دورا جوهريا في إنجاز عملية التوجيه بشكل سليم . [1] +question : ما هو بروتوكول التوجيه في شبكات تبديل الرزم ؟ +prompt : أجب عن السؤال التالي : ما هو بروتوكول التوجيه في شبكات تبديل الرزم ؟ الجواب هو +pred_answer : أنه عبارة عن مجموعة من +answer : اسم لعائلة من بروتوكولات الشبكة + +context : حديث الكساء عبارة عن حديث نبوي ، تحدث به رسول الإسلام محمد في فضل أهل بيته والمقصودين بهذا الحديث هم : ابنته فاطمة وابن عمه علي بن أبي طالب ، واثنين من أحفاده الحسن والحسين . وقد أدلى النبي محمد بهذا الحديث حينما جمع أهل بيته تحت الكساء ، ولهذا السبب سمي هذا الحديث بحديث الكساء . +question : ما هو حديث الكساء ؟ +prompt : أجب عن السؤال التالي : ما هو حديث الكساء ؟ الجواب هو +pred_answer : : روى مسلم في صحيحه عن أم سلمة رضي الله عنها أن النبي +answer : حديث نبوي تحدث به رسول الإسلام محمد في فضل أهل بيته + +context : يقع مقر استديوهات والت ديزني للرسوم المتحركة في بربانك ، كاليفورنيا ( المعروف سابقا باسم والت ديزني للرسوم المتحركة ، ووالت ديزني للإنتاج ، واستديو الاخوة ديزني للرسوم المتحركة ) ، وهو استوديو للرسوم المتحركة الأمريكية يصنع أفلام الرسوم المتحركة الروائية ، الأفلام القصيرة ، والبرامج التلفزيونية الخاصة بشركة والت ديزني . [1][2][3] انشئ في 16 أكتوبر من عام 1923 ، وهو وحدة لإستديوهات والت ديزني . وقد أنتج الاستوديو 53 فيلما روائيا ، بدء بسنو وايت والأقزام السبعة ( فيلم 1937 ) ، إلى آخر إصداراته ملكة الثلج ( فيلم 2013 ) . +question : متى أنشأت استديوهات والت ديزني للرسوم المتحركة ؟ +prompt : أجب عن السؤال التالي : متى أنشأت استديوهات والت ديزني للرسوم المتحركة ؟ الجواب هو في عام +pred_answer : 1923 ، عندما كانت استوديوهات +answer : 16 أكتوبر من عام 1923 + +context : رئيس وزراء المملكة المتحدة هو رئيس حكومة المملكة المتحدة ويرأس اجتماعات مجلس الوزراء . ليس هناك تاريخ محدد عندما ظهر مكتب رئيس الوزراء لأول مرة ، حيث لم يتم إنشاء الدور ولكن تطور على مدى فترة من الزمن . [1] وقد استخدم هذا المصطلح في مجلس العموم في عام 1805 , [2] وكان بالتأكيد في الاستخدام البرلماني بحلول عام 1880 , [3] وفي عام 1905 اعترف رسميا بمنصب رئيس الوزراء في ترتيب الأسبقية . [4] يعد المؤرخون الحديثون عموما السير روبرت والبول ، الذي قاد حكومة بريطانيا العظمى لمدة 21 عاما في 1721 - 42 , [5][6] كأول رئيس وزراء يخدم ، والبول هو أيضا أطول رئيس وزراء بريطاني . [7] ومع ذلك ، كان السير هنري كامبل - بانرمان أول رئيس وزراء موقر ومارغريت تاتشر رئيس الوزراء الذي يخدم على المدى الطويل ليشار إليها رسميا على هذا النحو . +question : من كان أول رئيس وزراء بريطانيا ؟ +prompt : أجب عن السؤال التالي : من كان أول رئيس وزراء بريطانيا ؟ الجواب هو +pred_answer : وينستون تشرشل ، +answer : السير روبرت والبول + +context : الأميرة مونونوكي ( باليابانية : , مونونوكي هيمي ) فيلم رسوم متحركة ياباني من إخراج هاياو ميازاكي ومن إنتاج إستديوهات جيبلي صدر بتاريخ 12 يوليو , 1997 في اليابان وبتاريخ 29 أكتوبر , 1999 في الولايات المتحدة . [1][2][3] +question : من هو مخرج فيلم الانمي " الاميرة مونونوكي " ؟ +prompt : أجب عن السؤال التالي : من هو مخرج فيلم الانمي " الاميرة مونونوكي " ؟ الجواب هو +pred_answer : المخرج الياباني هاياو مي +answer : هاياو ميازاكي + +context : تصغير | سد الرمادي الرمادي مدينة عراقية تبعد غرب بغداد حوالي 108 كيلومتر ، وهي مركز محافظة الأنبار . وتقع المدينة في جنوب غرب ما يسمى بالمثلث السني العراقي . حسب تقديرات عام 2011 يبلغ عدد سكانها 900 الف نسمة حسب احصائية عام 2015[1] ، وينتمي أغلب سكان المدينة إلى عشائر الدليم البوفهد والبوعلوان والبوذياب والبوعساف والبومرعي والبو خليفة والبوريشة والبو عبيد . +question : في اي محافظة عراقية توجد مدينة الرمادي ؟ +prompt : أجب عن السؤال التالي : في اي محافظة عراقية توجد مدينة الرمادي ؟ الجواب هو +pred_answer : انها تقع في +answer : محافظة الأنبار + +context : بروكتر وغامبل ، شركة أمريكية تعد أكبر شركة لصناعة المواد الاستهلاكية في العالم . لمدة طويلة ، ركزت الشركة على صناعة الصابون أكثر من صناعة الشموع . في الوقت الحاضر ، تصنع بروكتر وغامبل المنتوجات المتنوعة وتطور منتوجات جديدة باستمرار . +question : ما هي أكبر شركة لصناعة المواد الاستهلاكية في العالم ؟ +prompt : أجب عن السؤال التالي : ما هي أكبر شركة لصناعة المواد الاستهلاكية في العالم ؟ الجواب هو +pred_answer : شركة " بيبسي كولا " +answer : بروكتر وغامبل + +context : أحمد مازن أحمد أسعد الشقيري ( 19 يوليو 1973 م ، جدة ) إعلامي سعودي من أصول فلسطينية[1][معلومة 1] بدأ بتقديم برامج فكرية اجتماعية ومضيف السلسلة التليفزيونية خواطر والمضيف السابق لبرنامج يلا شباب ، ألف برامج تلفازية حول مساعدة الشباب على النضج في أفكارهم والبذل في خدمة إيمانهم وتطوير مهاراتهم واكتشاف معرفتهم بالعالم وبدورهم في جعله مكانا أفضل . [2] اشتهر الشقيري في السعودية والوطن العربي بعد سلسلة برنامج خواطر التي حققت نجاحا واسعا نتيجة بساطة أسلوبها ومعالجتها لقضايا الشباب والأمة والتي كانت دائما تبدأ بمقولته : +question : من مقدم برنامج خواطر ؟ +prompt : أجب عن السؤال التالي : من مقدم برنامج خواطر ؟ الجواب هو +pred_answer : الشيخ أحمد الشقيري ، وهو +answer : أحمد مازن أحمد أسعد الشقيري + +context : تصغير | قارب في منطقة غابات الموصل والمطلة على نهر دجلة مدينة الموصل هي مركز محافظة نينوى وثاني أكبر مدينة في العراق من حيث السكان بعد بغداد ، حيث يبلغ تعداد سكانها حوالي 2 ونصف مليون نسمة . تبعد الموصل عن بغداد بمسافة تقارب حوالي 465 كلم . [1] تشتهر بالتجارة مع الدول القريبة مثل سوريا وتركيا . يتحدث سكان الموصل اللهجة الموصلية ( أو المصلاوية ) التي تتشابه بعض الشيء مع اللهجات السورية الشمالية ، ولهذه اللهجة الموصلية الدور الأكبر في الحفاظ على هوية المدينة . أغلبية سكان الموصل عرب مسلمون من طائفة السنة وينحدرون من ست قبائل رئيسية وهي شمر والجبور البوحمدان والدليم وطيء والسادة الحياليين ، وتتواجد فيها فروع بني هلال التي جاءت من مناطق جبال ماردين وطور عابدين في الإقليم المحلمي في جنوب شرق تركيا ، وفيها طوائف متعددة من المسيحيين الذين ينتمون إلى كنائس عدة ، وأقلية من الأكراد والتركمان والشبك لا يشكلون سوى 20 % من مجموع سكان الموصل ، أنشئ أكبر سد في العراق في الموصل ( سد الموصل ) . +question : كم تبعد الموصل عن بغداد ؟ +prompt : أجب عن السؤال التالي : كم تبعد الموصل عن بغداد ؟ الجواب هو +pred_answer : أن المسافة بين +answer : 465 كلم + +context : جمعية العربية الفتاة هي جمعية سياسية قومية عربية سرية أنشأها مجموعة من الطلاب العرب في مدينة باريس عام 1911 م . ولقد أثرت هذه الجمعية على الفكر القومي العربي ومهدت للمؤتمر العربي في باريس عام 1913 . واسهمت في التمهيد للثورة العربية التي انطلقت في الحجاز عام 1916 م . +question : في أي عام تأسست جمعية العربية الفتاة ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست جمعية العربية الفتاة ؟ الجواب هو في عام +pred_answer : 1911 +answer : 1911 + +context : سكان العراق هم السكان المقيمين داخل جمهورية العراق ويبلغ عددهم ما يقارب 37 , 5 مليون نسمة تقريبا ، 59 % منهم تتراوح اعمارهم من 16 - 64 وحوالي 38 % منهم تحت عمر 15 سنة و 3 % ممن تجاوزوا 64 عاما ، ويسكن معظمهم في وسط البلاد . أكبر مدن العراق حسب تقديرات عام 2002 م و 2005 م هي بغداد ( 4 إلى 6 ملايين ) ثم الموصل ثم البصرة ثم أربيل[1][2][3] أما من ناحية عدد سكان المحافظات وحسب مصدر يدعي استناده على إحصاء وزارة التجارة والتخطيط العراقية وحكومة إقليم كردستان العراق لعام 2003 , فمحافظة بغداد تضم أكبر عدد من السكان تليها محافظة نينوى بعدها محافظة البصرة ثم محافظة ذي قار ثم محافظة بابل ثم محافظة السليمانية ثم محافظة أربيل . [4] +question : كم بلغ التعداد السكاني للعراق في 2014 ؟ +prompt : أجب عن السؤال التالي : كم بلغ التعداد السكاني للعراق في 2014 ؟ الجواب هو +pred_answer : أن عدد سكان العراق +answer : 37 5 مليون نسمة + +context : الطب النووي ( بالإنجليزية : Nuclear medicine ) هو فرع من الطب يستعمل المواد المشعة في التصوير الطبي أو التشخيص المرضي . +question : ما هو الطب النووي ؟ +prompt : أجب عن السؤال التالي : ما هو الطب النووي ؟ الجواب هو +pred_answer : أن الطب النووي هو أحد فروع الطب الحديث ، وهو عبارة عن +answer : فرع من الطب يستعمل المواد المشعة في التصوير الطبي أو التشخيص المرضي + +context : بدأ المهرجان متواضعا ، وقامت جامعة اليرموك برعايته . ثم تطور إلى مهرجان رسمي ترعاه وزارة الثقافة . كان المهرجان يعقد في جرش ، في يوليو من كل عام ، ويستخدم المدينة الأثرية كموقع لفعالياته الفنية والثقافية . ويمتاز المهرجان بالعروض الفولكلورية الراقصة التي تؤديها فرق محلية وعالمية ، ورقصات الباليه والأمسيات الموسيقية والشعرية ، والمسرحيات وعروض الأوبرا ، وأمسيات غنائية لمغنيين أردنيين وعرب ، كما يقام على هامشه معرضا لبيع المصنوعات اليدوية التقليدية . +question : متى يقام مهرجان مدينة جرش ؟ +prompt : أجب عن السؤال التالي : متى يقام مهرجان مدينة جرش ؟ الجواب هو +pred_answer : في شهر تموز من كل +answer : يوليو من كل عام + +context : وتبلغ مساحة الإمارة 1165 كم مربعا وهي تعادل 1 , 5 % من مساحة دولة الإمارات العربية المتحدة بدون الجزر وتتكون أساسا من سلسلة من الجبال الوعرة التي تحصر بينها وبين بحر عمان سهل الباطنة وهو من أخصب مناطق الدولة والذي يتسع لمسافة قد تصل إلى 32 كم وبها العديد من الوديان ، أشهرها وادي سيجى ووادي حام [2] +question : ما هي مساحة إمارة الفجيرة ؟ +prompt : أجب عن السؤال التالي : ما هي مساحة إمارة الفجيرة ؟ الجواب هو +pred_answer : أن الإمارة تبلغ مساحتها +answer : 1165 كم مربعا + +context : تشي كونغ أو ( تشي غونغ ، تشي جونغ وتعني حرفيا : " ثقافة طاقة الحياة " ) هي رياضة تقوم على نظام شامل لتنسيق الجسم بالحركة والتنفس والتأمل كوسيلة فعالة للحفاظ على الصحة أوالروحانيات أوالتدريب على فنون القتال . [1] ولكونها رياضة متجدرة في الطب والفلسفة وفنون الدفاع عن النفس الصينية ، فإن تشي كونغ تعتبر ممارسة تقليدية تسمح بالنمو والتوازن وتعني ترجمت ( تشي ) على أنها " الطاقة الداخلية الكامنة " . [2] +question : ما هي رياضة تشي كونغ ؟ +prompt : أجب عن السؤال التالي : ما هي رياضة تشي كونغ ؟ الجواب هو +pred_answer : أن هذه الرياضة تقوم على مبدأ التنفس العميق الذي يساعد الجسم على التخلص من السموم المتراكمة فيه ، كما أنها تساعد على تقوية جهاز المناعة . +answer : تقوم على نظام شامل لتنسيق الجسم بالحركة والتنفس والتأمل كوسيلة فعالة للحفاظ على الصحة أوالروحانيات أوالتدريب على فنون القتال + +context : الاتحاد الدولي لكرة القدم ، ويعرف اختصارا باسم الفيفا ، هي الهيئة المنظمة للعبة كرة القدم في العالم ، تأسست في 21 مايو من العام 1904 في باريس ، ويقع مقرها بمدينة زيورخ في سويسرا . ويضم 211 من اتحادات كرة القدم في العالم ، ويرأس الفيفا السويسري جوزيف بلاتر إلى أن استقال في 2 يونيو 2015 ، في 26 فبراير 2016 انتخب جياني إنفانتينو كرئيس للفيفا . +question : أين يقع إتحاد كرة القدم لكرة القدم ؟ +prompt : أجب عن السؤال التالي : أين يقع إتحاد كرة القدم لكرة القدم ؟ الجواب هو +pred_answer : في مكان +answer : باريس + +context : بحر إيجة ( باليونانية : ، Aigaio Pelagos , [e eo pela os] ، بالتركية : Ege Denizi ) ، هو أحد أفرع البحر المتوسط طوله 643 . 5 كم وعرضه 322 كم ، يقع بين شبه الجزيرة اليونانية والأناضول ، يتصل ببحر مرمرة عن طريق مضيق الدردنيل ، وتطل عليه تركيا واليونان . +question : أين يقع بحر إيجة ؟ +prompt : أجب عن السؤال التالي : أين يقع بحر إيجة ؟ الجواب هو +pred_answer : في شمال غرب تركيا ، وتحديدا +answer : أحد أفرع البحر المتوسط + +context : دخل الإنترنت إلى سوريا متأخر ، وحتى عام 1999 لم يكن يسمح للمواطنين السوريين بالاشتراك بالإنترنت . غير أن بعض مؤسسات الدولة كان لها اتصال بالإنترنت منذ عام 1997 . +question : متى بدأ استخدام الإنترنت في سوريا ؟ +prompt : أجب عن السؤال التالي : متى بدأ استخدام الإنترنت في سوريا ؟ الجواب هو في عام +pred_answer : 2001 ، +answer : 1997 + +context : أمل جراح ( 1945[1] - 6 فبراير 2004 ) شاعرة وروائية سورية . +question : من هي مؤلفة الرواية الملعونة ؟ +prompt : أجب عن السؤال التالي : من هي مؤلفة الرواية الملعونة ؟ الجواب هو +pred_answer : لا أحد +answer : أمل جراح + +context : قام هتلر بتعيين الماريشال الميداني إريش فون مانشتاين لقيادة مجموعة جيوش الدون[27] التي أسست حديثا للدفاع عن خط الجبهة الواقع بين مجموعتي الجيوش « أ » و « ب » [28] . وشملت كل من الجيش الرابع بانزر ، الجيش السادس المحصار ، إضافة إلى ما تبقى من الجيشين الرومانيين الثالث والرابع . +question : من هو أول قائد للجيش الرابع بانزر ؟ +prompt : أجب عن السؤال التالي : من هو أول قائد للجيش الرابع بانزر ؟ الجواب هو +pred_answer : الفيلد مارشال روم� +answer : إريش فون مانشتاين + +context : الحوزة العلمية { { # وسم : ref | } } { { # وسم : ref | } } وهو لفظ اصطلاحي للمدرسة الفقهية التابعة للمذهب الجعفري وتنقسم هذة الحوزة العلمية إلى مدرستين أساسيتين ( في العصر الحالي ) هما : +question : ما هي الحوزة العلمية ؟ +prompt : أجب عن السؤال التالي : ما هي الحوزة العلمية ؟ الجواب هو +pred_answer : : إن الحوزة العلمية في النجف الأشرف تأسست على يد +answer : لفظ اصطلاحي للمدرسة الفقهية التابعة للمذهب الجعفري + +context : أبو حفص عمر بن عبد العزيز بن مروان بن الحكم الأموي القرشي ( 61 ه \ 681 م - 101 ه \ 720 م ) ، هو ثامن الخلفاء الأمويين ، عمر الثاني[1] . ولد سنة 61 ه في المدينة المنورة ، ونشأ فيها عند أخواله من آل عمر بن الخطاب ، فتأثر بهم وبمجتمع الصحابة في المدينة ، وكان شديد الإقبال على طلب العلم . وفي سنة 87 ه ، ولاه الخليفة الوليد بن عبد الملك على إمارة المدينة المنورة ، ثم ضم إليه ولاية الطائف سنة 91 ه ، فصار واليا على الحجاز كلها ، ثم عزل عنها وانتقل إلى دمشق . فلما تولى سليمان بن عبد الملك الخلافة قربه وجعله وزيرا ومستشارا له ، ثم جعله ولي عهده ، فلما مات سليمان سنة 99 ه تولى عمر الخلافة . +question : بماذا عرف عمر بن عبد العزيز بن مروان بن الحكم الأموي القرشي ؟ +prompt : أجب عن السؤال التالي : بماذا عرف عمر بن عبد العزيز بن مروان بن الحكم الأموي القرشي ؟ الجواب هو +pred_answer : : أن +answer : عمر الثاني + +context : جامعة لا سابينزا ( بالإيطالية : Roma Sapienza ) وتسمى أيضا جامعة روما هي أكبر جامعة في أوروبا وأقدم جامعة في مدينة روما ، تأسست عام 1303 ، بلغ عدد طلابها عام 2006 حوالي 147 , 000 طالب وطالبة ، وهي من الجامعات الأعضاء بشبكة سانتاندير . +question : ما هي أقدم جامعة في مدينة روما ؟ +prompt : أجب عن السؤال التالي : ما هي أقدم جامعة في مدينة روما ؟ الجواب هو +pred_answer : جامعة روما +answer : روما + +context : جامعة ليلند ستانفورد جونيور ، اشتهرت بجامعة ستانفورد هي جامعة أمريكية بحثية خاصة تأسست الجامعة في عام 1885 على يد ليلاند ستانفورد ، وافتتحت في 1 أكتوبر 1891 ، وقد بدأ وادي السيلكون منها بالستينات من القرن الماضي . تقع في جنوب شرق سان فرانسيسكو بحوالي 37 ميلا وشمال غرب سان خوسيه بحوالي 20 ميلا في ولاية كاليفورنيا بالقرب من مدينة بالو ألتو . +question : متى تأسست جامعة ستانفورد في الولايات المتحدة ؟ +prompt : أجب عن السؤال التالي : متى تأسست جامعة ستانفورد في الولايات المتحدة ؟ الجواب هو في عام +pred_answer : 1891 +answer : 1885 + +context : نزف داخلي أو نزيف داخلي هو نزيف يحدث داخل الجسم . يمكن أن يكون حالة طبية طارئة وجدية حسب المكان الذي تحدث فيه مثل ( دماغ ، معدة ، رئتين ) ويمكن أن يسبب الموت فعلا أو السكتة القلبية إذا لم يتم معالجة النزيف بما يستلزمه بأسرع وقت ممكن . +question : ما هو النزيف الداخلي ؟ +prompt : أجب عن السؤال التالي : ما هو النزيف الداخلي ؟ الجواب هو +pred_answer : أن هناك نوعين من النزيف +answer : نزيف يحدث داخل الجسم + +context : أخذت الشورى في عهد الملك عبد العزيز عدة أشكال ، بدايتها المجالس الأهلية والهيئات الاستشارية ، والمستشارون لجلالته واللجان المتخصصة وأهل العلم والأعيان ورؤساء العشائر ، والقبائل ثم تلا ذلك أول تنظيم رسمي لمجلس الشورى في عهد الملك عبدالعزيز عام 1345 ه باسم المجلس الاستشاري الذي يتكون من أعضاء غير متفرغين . ومع اتساع رقعة [[المملكة العربية السعودية | الدولة الأعباء والمهمات ، صدر الأمر الملكي الكريم رقم 37 في 9 \ 1 \ 1346 ه 1927 م بتشكيل أول مجلس للشورى يضم أعضاء متفرغين برئاسة النائب العام للملك وثمانية أعضاء آخرين . +question : متى تأسس مجلس الشورى السعودي ؟ +prompt : أجب عن السؤال التالي : متى تأسس مجلس الشورى السعودي ؟ الجواب هو في عام +pred_answer : 1344 +answer : 1927 + +context : تعود براءة اختراع الأطر المطاطية ل جون بويد دنلوب والذي أنشأ سنة 1889 مصنعا لها . +question : من هو مخترع الإطار المطاط ؟ +prompt : أجب عن السؤال التالي : من هو مخترع الإطار المطاط ؟ الجواب هو +pred_answer : السير هنري فورد ، مؤسس شركة +answer : جون بويد دنلوب + +context : أزمة الدين الحكومي اليوناني هي أزمة مالية عصفت بالاقتصاد اليوناني في أبريل 2010 حينما طلبت الحكومة اليونانية من الاتحاد الأوروبي وصندوق النقد الدولي تفعيل خطة إنقاذ تتضمن قروضا لمساعدة اليونان على تجنب خطر الإفلاس والتخلف عن السداد وكانت معدلات الفائدة على السندات اليونانية قد ارتفعت إلى معدلات عالية نتيجة مخاوف بين المستثمرين من عدم قدرة اليونان على الوفاء بديونها لاسيما مع ارتفاع معدل عجز الموازنة وتصاعد حجم الدين العام . هددت الأزمة اليونانية استقرار منطقة اليورو وطرحت فكرة خروج اليونان من المنطقة الاقتصادية إلا أن أوروبا قررت تقديم المساعدة إلى اليونان مقابل تنفيذها لإصلاحات اقتصادية واجراءات تقشف تهدف إلى خفض العجز بالموازنة العامة . [1] +question : متى بدأت الأزمة الإقتصادية باليونان ؟ +prompt : أجب عن السؤال التالي : متى بدأت الأزمة الإقتصادية باليونان ؟ الجواب هو في عام +pred_answer : 2010 ، عندما +answer : أبريل 2010 + +context : نظرية التشغيل الذاتي أو نظرية الآلات ذاتية التشغيل أو نظرية الآلات المجردة ( الإنجليزية : Automata Theory ) هي نظرية تهتم بتعريف ودراسة خواص الآلات الحاسوبية المجردة . [1][2][3] تاريخيا درست قضايا هذه النظرية كتصور للحساب الإلكتروني قبل ظهور الحواسيب الحديثة لكنها أثبتت قدرتها على تمثيل العديد من العمليات الحاسوبية في وقتنا الحالي ، وتستخدم بكثرة كأداة للبرهان الرياضي الحاسوبي ، لذلك فهي تعتبر من أهم ركائز علوم الحاسوب النظرية والأنظمة المنهجية . +question : ما هي نظرية التشغيل الذاتي ؟ +prompt : أجب عن السؤال التالي : ما هي نظرية التشغيل الذاتي ؟ الجواب هو +pred_answer : أن هذه النظرية تقوم على مبدأين أساسيين هما +answer : نظرية تهتم بتعريف ودراسة خواص الآلات الحاسوبية المجردة + +context : بافيا مدينة شمال إيطاليا في إقليم لومبارديا ، عاصمة مقاطعة بافيا ، تقع على نهر تيتشينو ، شمال التقاءه مع نهر بو ، 35 كم جنوب ميلانو ، يعود تاريخ تأسيسها إلى عهد الرومان تحت باسم Ticinum ، كانت عاصمة مملكة اللومبارديين ، في العصور الوسطى كانت مقر لواحدة من أعرق جامعات إيطاليا ، بقيت المدينة محصنة حتى عام 1872 عندما تم تحويل الحصون إلى شوارع وحدائق عامة ، ولكن الجزء الأكبر من الأسوار بقي حى عام 1901 عندما هدم لبناء شوارع التفافية ، تضم العديد من الرموز السياحية والثقافية ، وتشتهر بالزراعة لخصوبة الأراضي وخاصة العنب والأرز والحبوب وإنتاج الألبان والصناعات بها قليلة ، عدد السكان 71 . 486 نسمة . +question : أين تقع مدينة بافيا ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة بافيا ؟ الجواب هو +pred_answer : في شمال إيطاليا على الحدود مع فرنسا . +answer : شمال إيطاليا في إقليم لومبارديا + +context : عيد الميلاد يعتبر ثاني أهم الأعياد المسيحية على الإطلاق بعد عيد القيامة ، ويمثل تذكار ميلاد يسوع المسيح وذلك بدءا من ليلة 24 ديسمبر ونهار 25 ديسمبر في التقويمين الغريغوري واليولياني غير أنه وبنتيجة اختلاف التقويمين ثلاث عشر يوما يقع العيد لدى الكنائس التي تتبع التقويم اليولياني عشية 6 يناير ونهار 7 يناير . [1] ورغم أن الكتاب المقدس لا يذكر تاريخ أو موعد ميلاد يسوع فإن آباء الكنيسة قد حددوا ومنذ مجمع نيقية عام 325 الموعد بهذا التاريخ ، كذلك فقد درج التقليد الكنسي على اعتباره في منتصف الليل ، وقد ذكر إنجيل الطفولة ليعقوب المنحول في القرن الثالث الحدث على أنه قد تم في منتصف الليل ، على أن البابا بيوس الحادي عشر في الكنيسة الكاثوليكية قد ثبت عام 1921 الحدث على أنه في منتصف الليل رسميا ؛ يذكر أيضا ، أنه قبل المسيحية كان يوم 25 ديسمبر عيدا وثنيا لتكريم الشمس ، ومع عدم التمكن من تحديد موعد دقيق لمولد يسوع حدد آباء الكنيسة عيد الشمس كموعد الذكرى ، رمزا لكون المسيح " شمس العهد الجديد " و " نور العالم " . [1][2] ويعد عيد الميلاد جزءا وذروة " زمن الميلاد " الذي تستذكر فيه الكنائس المسيحية الأحداث اللاحقة والسابقة لعيد الميلاد كبشارة مريم وميلاد يوحنا المعمدان وختان يسوع ، ويتنوع تاريخ حلول الزمن المذكور بتنوع الثقافات المسيحية غير أنه ينتهي عادة في 6 يناير بعيد الغطاس ، وهو تذكار معمودية يسوع . [3] +question : متى يحتفل المسيحيين بعيد رأس السنة ؟ +prompt : أجب عن السؤال التالي : متى يحتفل المسيحيين بعيد رأس السنة ؟ الجواب هو +pred_answer : في الأول من كانون الثاني . +answer : 24 ديسمبر ونهار 25 ديسمبر + +context : كانت شركة سوني قد أطلقت أول إصدار من جهازها للألعاب بلاي ستيشن في 3 ديسمبر عام 1994 في اليابان ، ونجح الجهاز في تحقيق مبيعات تزيد عن 100 مليون وحدة ، وذلك بعد 9 سنوات و 6 أشهر من إطلاقه رسميا صدر عام 1994 +question : متى صدر اول جهاز العاب فيدبو من شركة سوني ؟ +prompt : أجب عن السؤال التالي : متى صدر اول جهاز العاب فيدبو من شركة سوني ؟ الجواب هو في عام +pred_answer : 1994 ، اي قبل +answer : 3 ديسمبر عام 1994 + +context : ألبرت أينشتاين ( 14 مارس 1879 – 18 أبريل 1955 ) عالم فيزياء ألماني المولد ، [1] ( حيث تخلى عن الجنسية الألمانية لاحقا ) [2] سويسري وأمريكي الجنسية ، [3] من أبوين يهوديين ، [4] وهو يشتهر بأب النسبية كونه واضع النسبية الخاصة والنسبية العامة الشهيرتين اللتين كانتا اللبنة الأولى للفيزياء النظرية الحديثة ، [5][6] ولقد حاز في عام 1921 على جائزة نوبل في الفيزياء عن ورقة بحثية عن التأثير الكهروضوئي ، [7] ضمن ثلاثمائة ورقة علمية أخرى له في تكافؤ المادة والطاقة وميكانيكا الكم وغيرها ، [8] وأدت استنتاجاته المبرهنة إلى تفسير العديد من الظواهر العلمية التي فشلت الفيزياء الكلاسيكية في إثباتها . بدأ أينشتاين " بالنسبية الخاصة " التي خالفت نظرية نيوتن في الزمان والمكان لتحل بشكل خاص مشاكل النظرية القديمة فيما يتعلق بالأمواج الكهرومغناطيسية عامة ، والضوء خاصة ، وذلك ما بين ( 1902 - 1909 ) في سويسرا . [9][10] أما " النسبية العامة " فقد طرحها عام 1915[11] حيث ناقش فيها الجاذبية ، وتمثل الوصف الحالي للجاذبية في الفيزياء الحديثة . تعمم النسبية العامة كل من النسبية الخاصة وقانون الجذب العام لنيوتن ، بتقديمها لوصف موحد للجاذبية على أنها خاصية هندسية للزمان والمكان ، أو الزمكان . [12][13] +question : متى ولد ألبرت أينشتاين ؟ +prompt : أجب عن السؤال التالي : متى ولد ألبرت أينشتاين ؟ الجواب هو في عام +pred_answer : 1879 � +answer : 14 مارس 1879 + +context : قناة المستقلة قناة فضائية تونسية يملكها ويديرها المعارض التونسي السابق والمرشح لرئاسة تونس محمد الهاشمي الحامدي . [1] بدأ بثها في 1999 وتأسست قبلها في 1996 تبث برامجها عبر القمر الصناعي أطلانطيك بيرد في نفس مدار نايل سات . كانت القناة وحتى العام 2012 تبث عبر القمرين الصناعيين عرب سات ، هوت بيرد . قناة المستقلة لها قناة تبث تماثليا على نفس موجة بثها تدعى قناة الديمقراطية وقد تأسست عام 2005 . +question : من أين تبث قناة المستقلة ؟ +prompt : أجب عن السؤال التالي : من أين تبث قناة المستقلة ؟ الجواب هو +pred_answer : أنها تبث من لندن ، وتحديدا من مكاتبها في العاصمة البريطانية .هذا يعني أن هذه القناة ليست مستقلة بالمعنى الحرفي للكلمة +answer : أطلانطيك بيرد في نفس مدار نايل سات كانت القناة وحتى العام 2012 تبث عبر القمرين الصناعيين عرب سات هوت بيرد + +context : حرب الخنادق هو شكل من أشكال الحرب يأخذ المقاتلون مواقع محصنة وتكون خطوط القتال جامدة وممتده كالخنادق لذلك سميت بحرب الخنادق . يعود سبب ظهور حرب الخنادق لعدم مواكبة تقنيات المناورة مع ثورة في تقنية الأسلحة النارية . في معظم الأوقات تشير حرب الخنادق إلى حرب استنزاف . قد تكون الحرب العالمية الأولى إحدى أشهر الأمثلة لحرب الخنادق . قتال الخنادق هو القتال الذي يحدث في خنادق ممتدة وطويلة ، حيث القوات مؤمنة من الأسلحة النارية الخفيفة المعادية ومحمية من قذائف المدفعية ، وأصبح قتال الخنادق أو حرب الخنادق نموذج لحرب الاستنزاف . +question : ما هي حرب الخنادق ؟ +prompt : أجب عن السؤال التالي : ما هي حرب الخنادق ؟ الجواب هو +pred_answer : أن هذه الحرب كانت موجودة منذ القدم ، وهي من أقدم الحروب التي خاضتها البشرية .ومنذ ذلك الحين +answer : شكل من أشكال الحرب يأخذ المقاتلون مواقع محصنة وتكون خطوط القتال جامدة وممتده كالخنادق لذلك سميت بحرب الخنادق + +context : يقال إن الأصول غير الملموسة هي أحد العوامل المساهمة في تحديد التفاوت بين قيمة الشركة حسب السجلات المحاسبية الخاصة بها وقيمة الشركة حسب قيمتها السوقية . [1] ومع أخذ ذلك الجدال في الاعتبار ، من الضروري أن نفهم الماهية الحقيقية للأصول غير الملموسة من وجهة نظر المحاسب . وقد تم عمل مجموعة من المحاولات لتعريف الأصول غير الملموسة : +question : ما هي الأصول غير الملموسة ؟ +prompt : أجب عن السؤال التالي : ما هي الأصول غير الملموسة ؟ الجواب هو +pred_answer : أن هذه الأصول يمكن أن تكون مادية أو معنوية .فالأصول المادية هي تلك التي لها قيمة اقتصادية +answer : أحد العوامل المساهمة في تحديد التفاوت بين قيمة الشركة حسب السجلات المحاسبية الخاصة بها وقيمة الشركة حسب قيمتها السوقية + +context : الانتداب الفرنسي على سورية أو الاستعمار الفرنسي ، ، هو الحالة التي شكلت النظام الأعلى للسياسة والمجتمع في سورية منذ أن هزمت قوات المملكة السورية العربية الضعيفة التسليح والعدد في معركة ميسلون في 24 تموز عام 1920 ، وحتى تمام جلاء القوات الفرنسية عن كامل التراب السوري يوم 17 نيسان عام 1946 ، والذي غدا اليوم الوطني السوري ، وقد أقرت عصبة الأمم الانتداب رسميا عام 1922 . +question : متى تم إحتلال سوريا من قبل فرنسا ؟ +prompt : أجب عن السؤال التالي : متى تم إحتلال سوريا من قبل فرنسا ؟ الجواب هو في عام +pred_answer : 1920 . +answer : 1922 + +context : تمرد الإخوان أو ثورة الإخوان هو تمرد مسلح قاده بعض قادة قبائل الإخوان ضد ملك مملكة الحجاز ونجد وملحقاتها عبد العزيز آل سعود . بدأت أولى مقدمات التمرد سنة 1926 بعد انتهاء الحرب النجدية الحجازية ( 1924 - 1925 ) التي قضت على مملكة الحجاز حيث أراد الإخوان شن الغارات على بادية العراق والكويت تحديا لأوامر الملك عبد العزيز بوقف الهجمات حيث أن السلطنة النجدية ملتزمة بمنع الغزو بين قبائل نجد والعراق وفقا لمعاهدة بحرة الموقعة عام 1925 . لكن الملك عبد العزيز لم يكن قادرا على منع الإخوان من الغزو حتى حلول شتاء عام 1929 حينما اعتدت قوات ابن بجاد على تجار الجمال النجديين من القصيم وعلى شمر نجد وسبب هذا الهجوم أستياء كبيرا في نجد الأمر الذي دعى الملك عبد العزيز إلى حشد قواته في الزلفي في 5 مارس وألتحق به أغلب حاضرة نجد وقبائل شمر وحرب وقحطان ، فيما تجمعت قوات الدويش وابن بجاد في جراب بشمال الزلفي . أرسل الملك عبد العزيز أحد كبار مشايخ الدين إلى ابن بجاد لاقناعه برفع الخلاف المتعلق المذابح التي ارتكبتها قواته ضد تجار الجمال والمسلوبات التي نهبت إلى محكمة دينية لتفصل فيه إلا أن ابن بجاد رفض العرض بحجة أن ذلك ما هو إلا مؤامرة ضده وأن نهايته معروفة مسبقا حيث رأى أن رجال الدين هم أصدقاء لابن سعود وسوف يصدرون عليه حكما بالأعدام . وحينما أصر الإخوان على موقفهم أمر الملك عبد العزيز قواته بهاجمة الإخوان في 29 مارس 1929[1] وأصيب الدويش بجروح بالغة ووعهد الملك بالإبقاء على حياته شرط أن يخضعوا لحكم الشرع وسمح له بالعودة إلى الأرطاوية وأن يعالج على أن يسلم نفسه للرياض بعد شفاءه [2] في حين استسلم ابن بجاد في شقراء وسجن في الرياض . +question : متى تمرد الإخوان ضد ملك مملكة الحجاز ؟ +prompt : أجب عن السؤال التالي : متى تمرد الإخوان ضد ملك مملكة الحجاز ؟ الجواب هو في عام +pred_answer : 1344 +answer : 1926 + +context : مجمع الكرادلة ، هو الهيئة الجامعة لكافة الكرادلة الناخبين - أي أقل من ثمانين عام - في الكنيسة الكاثوليكية . ويشكل أعلى هيئة استشارية في الكرسي الرسولي . ويشغل أعضاؤه أي الكرادلة ، مناصب إدارة مجامع الكوريا الرومانية ، أو رئاسة الأسقفيات الكبرى أو بطاركة . حسب القواعد الحديثة التي أقرها البابا بولس السادس والبابا يوحنا بولس الثاني ، فيجب على أعضاء المجمع ألا يتجاوزوا عدد 120 كاردينالا ناخبا . +question : ما هو مجمع الكرادلة ؟ +prompt : أجب عن السؤال التالي : ما هو مجمع الكرادلة ؟ الجواب هو +pred_answer : المجمع الذي انتخب البابا يوحنا بولس الثاني ( ح .1981 - 2005 ) ، والذي كان من بين أعضائه الكاردينال +answer : الهيئة الجامعة لكافة الكرادلة الناخبين أي أقل من ثمانين عام في الكنيسة الكاثوليكية ويشكل أعلى هيئة استشارية في الكرسي الرسولي + +context : محمد جواد ظريف ( 1960 ) وزير الشؤون الخارجية والممثل الدائم السابق لجمهورية إيران الإسلامية لدى الأمم المتحدة . [1] اختاره حسن روحاني رئيس جمهورية إيران الإسلامية وزيرا للخارجية في 15 أغسطس 2013 . +question : متى تولى محمد جواد ظر ف وزارة الخارجية الايرانية ؟ +prompt : أجب عن السؤال التالي : متى تولى محمد جواد ظر ف وزارة الخارجية الايرانية ؟ الجواب هو في عام +pred_answer : 1979 � +answer : 15 أغسطس 2013 + +context : Coordinates : مضيق باب المندب ممر مائي يصل البحر الأحمر بخليج عدن وبحر العرب . +question : اين يقغ مضيق باب المندب ؟ +prompt : أجب عن السؤال التالي : اين يقغ مضيق باب المندب ؟ الجواب هو +pred_answer : في خليج عدن .مضيق باب المندب ، +answer : يصل البحر الأحمر بخليج عدن وبحر العرب + +context : الفتاة بائعة الكبريت قصة قصيرة من تأليف الشاعر والأديب الدنماركي هانس كريستيان أندرسن . [1][2][3] تروي القصة حكاية فتاة ماتت وهي غارقة في هذيانها . وقد كان إصدار القصة لأول مرة في عام 1845 . وقد اقتبست عنها افلام ورسوم متحركة وموسيقى تلفزيونية . +question : من هو كاتب قصة ( بائعة الكبريت ) ؟ +prompt : أجب عن السؤال التالي : من هو كاتب قصة ( بائعة الكبريت ) ؟ الجواب هو +pred_answer : الكاتب الفرنسي فيكتور هيغو +answer : هانس كريستيان أندرسن + +context : شركة بوينغ هي شركة أمريكية متعددة الجنسيات لصناعة الطائرات ، يقع مقرها في مدينة شيكاغو ، بينما توجد مصانعها بالقرب من مدينة سياتل . تأسست الشركة في 15 يوليو 1916 على يد وليام بوينغ . تعد شركة بوينغ في الوقت الحاضر من أكبر الشركات العملاقة في العالم خصوصا بعد اندماجها مع شركة تصنيع الطائرات ماكدونال دوغلاس عام 1997 . أنتجت بوينغ عدد من الطائرات منها المدنية مثل بوينغ 747 ومنها العسكرية مثل بي 52 ، ولا يجرؤ على منافستها في سوق الطيران المدني والعسكري إلا شركة إيرباص المملوكة للمجموعة الأوروبية . تحظى شركة بوينغ بدعم لا محدود من قبل الحكومة الأمريكية ، وكان مقر الشركة وقاعة الإنتاج الضخمة التي فيها هي المكان الذي اختاره الرئيس الأمريكي جورج دبليو بوش لإلقاء خطابه الشهير حول الطيران عام 2003 بمناسبة مرور 100 عام على أول طيران نفذه الأخوان رايت والذي تعهد فيه ببقاء الولايات المتحدة الدولة التي سوف تقود العالم في حقل الطيران خلال المائة العام القادمة ، كما كان عليه الحال في القرن العشرين . +question : متى تأسست شركة الطائرات الأمريكية بوينغ ؟ +prompt : أجب عن السؤال التالي : متى تأسست شركة الطائرات الأمريكية بوينغ ؟ الجواب هو في عام +pred_answer : 1903 ، +answer : 15 يوليو 1916 + +context : إذا كان تشارلز فريدريك وورث هو أصل عرض الأزياء ، فإن المصممة لوسي دف جوردن هي من قامت بتمثيل دور عارضة الأزياء . أول عرض لها كان عنوانه فساتين العاطفة . في 1911 ، لوسي دف جوردن فتحت متجرها في باريس واستدعت عارضي الأزياء لأخذ وضعيات درامية . السنوات 1920 جلبت معها مصادر جذب للأداء ات الفنية للعرض ، خاصة مع إدماج الرقص ، والموسيقى والديكور . في 1923 ، المصممة جين باكين قامت بعرض عارضي أزيائها في مسرح « بلاس دو لوندر » . الراقصة الأمريكية إيران كاستل أسست لفائدة كوكو شانيل مرحلة عائلية للعروض « الوركين إلى الأمام ، تدلي الكتفين ، يد في الجيب ، وأخرى تتحرك » . إلسا شياباريلي عقدت التطبيق العملي للعرض بإختراعها لمواضيع مختلفة لعروضها ، من بينهم موضوع السيرك الذي لاقى أثر وطني . منذ السنوات 1960 ، الموسيقى أخذت مكانها عند بدأها في لحظة النطق بأرقام العروض . أندريه كوراج ، باكو رابان ، أو كذلك بيير كاردان ، خلقوا مراحل أكثر مفاهيمية . بداية فيلم المخرج ويليام كلاين « من أنت بولي ماغو » ( 1966 ) ، يوضح تماما جو العرض . في 1980 ، مع « المخترعين الشباب » للموضة ، كان لعرض الأزياء سيناريو حقيقي ، وأصبح « عرض - أزياء » بالنسبة لتياري موغلر ، المصمم . في السنوات 1950 ، كان عرض أزياء الهوت كوتور يبقى لمدة ساعة ونصف ، ثم بعد عشرة سنوات أصبحت مدته خمسة وأربعون دقيقة أي النصف ، وأربعين سنة بعد ذلك أصبحت المدة عشرين دقيقة ، وفي أيامنا هذه لا تتعدى مدة عرض أزياء الهوت كوتور بين ستة أو أحد عشر دقيقة . +question : متى تم تأسيس أول دور عرض أزياء حول العالم ؟ +prompt : أجب عن السؤال التالي : متى تم تأسيس أول دور عرض أزياء حول العالم ؟ الجواب هو في عام +pred_answer : 1896 +answer : 1911 + +context : خليج غينيا هو خليج موجود في الساحل جنوب الغربي لأفريقيا في المحيط الأطلسي . [1][2][3] تشكل بواسطة الالتواء الكبير في الساحل الغربي الأوسط من القارة . يتضمن أيضا خليجين هما خليج بنين وخليج بيافرا في شمال هذا الخليج تقع منطقة غينيا العليا ، وفي شرقه غينيا السفلى التاريخية . الأنهار التي تصب مياهها في الخليج هي : نهر النيجر ، ونهر فولتا ، ونهر الكونغو . يمتد النهر من غرب ساحل العاج إلى مصب نهر الغابون . ويحده من الجنوب خط الاستواء . من الجزر الموجودة في الخليج : بيوكو وساو توميه وبرينسيب . +question : أين يقع خليج غينيا ؟ +prompt : أجب عن السؤال التالي : أين يقع خليج غينيا ؟ الجواب هو +pred_answer : في غرب أفريقيا ، وتحديدا في جمهورية الكونغو الديمقراطية +answer : الساحل جنوب الغربي لأفريقيا في المحيط الأطلسي + +context : جامع الزيتونة أو جامع الزيتونة المعمور أو الجامع الأعظم ، هو المسجد الجامع الرئيسي في مدينة تونس العتيقة في تونس العاصمة في تونس ، وأكبرها وأقدمها ويرجع للسنة على المذهب المالكي . تأسس في 698 ( 79 ه ) بأمر من حسان بن النعمان وأتمه عبيد الله بن الحبحاب في 732 ، ويعتبر ثاني أقدم مسجد في تونس بعد جامع عقبة بن نافع . يقع الجامع على مساحة 000 5 متر مربع ، ولديه تسعة أبواب ، وقاعته الداخلية تتكون من 184 عمود ، آتية أساسا من الموقع الأثري بقرطاج . شغل المنصب لمدة طويلة كموقع دفاع لوجهته على البحر وذلك عبر صومعته . تقود الجامع هيئة تسمى مشيخة الجامع الأعظم . +question : متى بني جامع الزيتونة ؟ +prompt : أجب عن السؤال التالي : متى بني جامع الزيتونة ؟ الجواب هو +pred_answer : أن بناء +answer : 698 + +context : منغوليا أو رسميا جمهورية منغوليا ( بالمنغولية : Mongol Uls ) هي دولة غير ساحلية في آسيا الوسطى . تحدها روسيا شمالا والصين جنوبا ، شرقا وغربا . عاصمتها هي أولان باتور وهي أكبر مدينة أيضا ، وهي موطن ل حوالي 45 ٪ من السكان . النظام السياسي في منغوليا هو جمهورية برلمانية . +question : ماهي عاصمة منغوليا ؟ +prompt : أجب عن السؤال التالي : ماهي عاصمة منغوليا ؟ الجواب هو +pred_answer : مدينة أولان بات +answer : أولان باتور + +context : علم صربيا هو علم ثلاثي أفقي , متكون من ثلاث ألوان , وهم الأحمر في الثلث الأعلى للعلم , ثم الأزرق , يتوسط العلم ثم اللون الأبيض في الأسفل . وتأخذ عدة دول سلافية هذه الألوان الثلاثية التي ترمز في الأعلام إلى القومية السلافية , مثل روسيا , سلوفانيا وسلوفاكيا . [1][2][3] يضاف إلى العلم شعار صربيا ، ليصبح علم الدولة الصربية الرسمي . +question : ما هي الوان علم صربيا ؟ +prompt : أجب عن السؤال التالي : ما هي الوان علم صربيا ؟ الجواب هو +pred_answer : الاحمر والاسود والابيض والاحمر الغامق ( لون البحر ) والاصفر +answer : الأحمر في الثلث الأعلى للعلم ثم الأزرق يتوسط العلم ثم اللون الأبيض في الأسفل + +context : Coordinates : هضبة المقطم أو جبل المقطم اسم يطلق على حافة وادى الشرقية كلها ويقصد به على وجه التحديد ما يصف الناحية الشرقية الفسطاط والقاهرة . [1][2][3] ويشغل هذا الجبل المناطق التي تقع شرق قلعة صلاح الدين الأيوبي ويعتبر من الجبال التي لعبت دورا هاما في أعمال التشييد خلال العصرين القبطي والإسلامي . وهو المكان الذي دفن فيه الصحابي عمرو بن العاص . +question : أين يقع جبل المقطم ؟ +prompt : أجب عن السؤال التالي : أين يقع جبل المقطم ؟ الجواب هو +pred_answer : في مصر ، وتحديدا في محافظة أسيوط +answer : الناحية الشرقية الفسطاط والقاهرة + +context : منتخب آيسلندا لكرة القدم هو الممثل الرسمي لآيسلندا ، ويتم إدارته من قبل اتحاد آيسلندا لكرة القدم . [1][2][3] يعيش حاليا أبهى عصوره ؛ فقد تأهل للمرحلة النهائية لكأس العالم بالبرازيل 2014 ولكن خسر في زغرب 5 - 0 بينما تعادل إيجابيا 2 - 2 إيابا ، على أرضه ، و بين جماهيره ، و في مناخه المعتاد المثلج ، و وسط عهدة إطمئنانه بفضل مدافعه الدولى المعتزل ميخائيل غونزيليتيو مناخيروغوفل بضربة جزاء . كما تأهل إلى يورو 2016 لأول مرة في تاريخه . +question : متى شاركت آيسلندا في كأس أوروبا لكرة القدم لأول مرة ؟ +prompt : أجب عن السؤال التالي : متى شاركت آيسلندا في كأس أوروبا لكرة القدم لأول مرة ؟ الجواب هو في عام +pred_answer : 1992 ، +answer : 2016 + +context : تفاعلات أكسدة - اختزال أو الأكسدة - الإرجاع[1] هي تفاعلات كيميائية يحدث فيها تغير في عدد أكسدة ذرات المواد المتفاعلة نتيجة انتقال الإلكترونات فيما بينها . +question : ما هي تفاعلات الأكسدة ؟ +prompt : أجب عن السؤال التالي : ما هي تفاعلات الأكسدة ؟ الجواب هو +pred_answer : تفاعل أكسدة - اختزال . [1][2][3] يحدث هذا التفاعل عندما يتفاعل الأكسجين مع +answer : تفاعلات كيميائية يحدث فيها تغير في عدد أكسدة ذرات المواد المتفاعلة نتيجة انتقال الإلكترونات فيما بينها + +context : بيتر إليتش تشايكوفسكي ( 7 مايو 1840 – 6 نوفمبر 1893 ) ، مؤلف موسيقي روسي ويعد بطل تطور الموسيقى الروسية الحديثة . +question : ماهي جنسية المؤلف الموسيقي تشايكوفسكي ؟ +prompt : أجب عن السؤال التالي : ماهي جنسية المؤلف الموسيقي تشايكوفسكي ؟ الجواب هو +pred_answer : أنه من +answer : روسي + +context : أقر دستور الإمارات الاتحادي بشكل مبدئي مساء يوم 1 ديسمبر عام 1971 م . وفي صباح اليوم التالي الخميس 15 شوال 1391 ه[6] 2 ديسمبر 1971 م اجتمع حكام سبع إمارات في قصر الضيافة في دبي . ووافق أربعة من حكام الإمارات مشاركة إمارتي أبوظبي ودبي في هذا الاتحاد في حين لم يوافق حاكم رأس الخيمة في حينها . ووقع حكام أبوظبي ودبي والشارقة والفجيرة وأم القيوين وعجمان على الدستور مانحين الشرعية لقيام الاتحاد بينهم والاستقلال عن بريطانيا . [7] +question : متى حصلت دولة الإمارات على استقلالها ؟ +prompt : أجب عن السؤال التالي : متى حصلت دولة الإمارات على استقلالها ؟ الجواب هو في عام +pred_answer : 1971 � +answer : 2 ديسمبر 1971 + +context : الكائن اللاهوائي هو الكائن الذي لا يستخدم الأوكسجين للنمو . وهناك ثلاث أنواع : - +question : ما هو الكائن اللاهوائي وكم نوع له ؟ +prompt : أجب عن السؤال التالي : ما هو الكائن اللاهوائي وكم نوع له ؟ الجواب هو +pred_answer : أنه لا يوجد كائن لاهوائي +answer : الكائن الذي لا يستخدم الأوكسجين للنمو + +context : أوما حاليا اسمها تل جوخة حاليا هي مدينة عراقية قديمة تعود إلى العصر السومري ، سكنها السومريين و . +question : أين تقع مدينة تل جوخة ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة تل جوخة ؟ الجواب هو +pred_answer : في محافظة +answer : مدينة عراقية + +context : حق الفيتو أو حق النقض هو حق الاعتراض على أي قرار يقدم لمجلس الأمن دون إبداء أسباب ، ويمنح للأعضاء الخمس دائمي العضوية في مجلس الأمن ، وهم : +question : ما هو الفيتو ؟ +prompt : أجب عن السؤال التالي : ما هو الفيتو ؟ الجواب هو +pred_answer : أن الدول الخمس الدائمة العضوية في مجلس الأمن ( الولايات المتحدة ، روسيا ، الصين ، فرنسا ، بريطانيا ) تملك +answer : حق الاعتراض على أي قرار يقدم لمجلس الأمن دون إبداء أسباب ويمنح للأعضاء الخمس دائمي العضوية في مجلس الأمن + +context : المشيمة أو الخلاص أو السخد ( بالإنجليزية : Placenta ) هي عضو دائري مسطح الشكل يتصل بالجنين عن طريق الحبل السري في الرحم ، وتخرج المشيمة من رحم الأم بعد المرحلة الثالثة من الولادة . [1] +question : ما هي المشيمة أو الخلاص أو السخد ؟ +prompt : أجب عن السؤال التالي : ما هي المشيمة أو الخلاص أو السخد ؟ الجواب هو +pred_answer : أن المشيمة عبارة عن كيس يحتوي على سائل يحيط بالجنين في رحم الأم ، أما الخلاص والسخد فهما عضوان من +answer : عضو دائري مسطح الشكل يتصل بالجنين عن طريق الحبل السري في الرحم وتخرج المشيمة من رحم الأم بعد المرحلة الثالثة من الولادة + +context : تصريح 28 فبراير 1922 هو تصريح اعلنته بريطانيا من طرف واحد في لندن والقاهرة في هذا التاريخ . [1][2] اعلنت فيه انهاء الحماية البريطانية على مصر ، وأن مصر " دوله مستقله ذات سياده " ، لكن احتفظت بريطانيا بحق تأمين مواصلات امبراطوريتها في مصر ، وحقها في الدفاع عنها ضد أي اعتداء أو تدخل أجنبى ، وحماية المصالح الأجنبيه والأقليات فيها ، وابقاء الوضع في السودان على ما هو عليه . وتحولت السلطنة المصرية بناء عليه إلى المملكة المصرية . +question : ما هو تصريح 28 فبراير 1922 ؟ +prompt : أجب عن السؤال التالي : ما هو تصريح 28 فبراير 1922 ؟ الجواب هو +pred_answer : التصريح الذي أصدره الملك عبد العزيز آل سعود في 28 فبراير عام 1922 م +answer : تصريح اعلنته بريطانيا من طرف واحد في لندن والقاهرة في هذا التاريخ + +context : المؤسسة هي استقرار وقيمة وانماط متكرره من السلوك كهياكل أو الات النظام الاجتماعي فهي تتحكم في سلوك مجموعة من الافراد داخل مجتمع معين " يتم تحديد المستويات التي لديها غرض اجتماعي والتي تتجاوز الأفراد والنوايا الي تتوسط القواعد الي تحكم سلوك حي . [1][2][3] +question : ما هو تعريف المؤسسة ؟ +prompt : أجب عن السؤال التالي : ما هو تعريف المؤسسة ؟ الجواب هو +pred_answer : أن المؤسسة هي مجموعة من الأفراد الذين يعملون معا لتحقيق هدف مشترك ، وهذه الأهداف قد تكون اقتصادية أو اجتماعية أو ثقافية أو دينية أو غير ذلك . +answer : استقرار وقيمة وانماط متكرره من السلوك كهياكل أو الات النظام الاجتماعي فهي تتحكم في سلوك مجموعة من الافراد داخل مجتمع معين + +context : القديس سيبريان أو سان سيبريان ( اسمه الكامل : تاسكيوس كايسيليوس سيبريانوس Thascius Caecilius Cyprianus ) كان أسقف قرطاج ( منذ عام 249 م ) وأبا وكاتبا مسيحيا ، ولد حوالي عام 200 م بشمال أفريقيا ( ربما بقرطاج ) وتوفي في 14 سبتمبر 258 م بقرطاج ، ويرجح أنه من أصل أمازيغي كتابة المشهور ( وحدة الكنيسة unity of the church ) والذي يتكلم فية عن إذا تعذر عليك امر في الفهم فعليك ان تتبع تعاليم الاسقف وانتقد الافكار الغريبة التي تدخل الكنيسة وخصوصا تعاليم Novation من اعماله أيضا خدمة وتضحيته للفقراء في قرطاجة وتمسكة بالعقيدة المسيحية حتى تم إعدامه عام 258 ميلادي . +question : من هو قبريانوس القرطاجي ؟ +prompt : أجب عن السؤال التالي : من هو قبريانوس القرطاجي ؟ الجواب هو +pred_answer : أنه كان قائدا عسكريا محنكا ، حارب الرومان وانتصر عليهم في +answer : كان أسقف قرطاج منذ عام 249 م وأبا وكاتبا مسيحيا + +context : الورم الأرومي الدبقي متعدد الأشكال هو أكثر أورام المخ شيوعا والأكثر عدوانية مقارنة بباقي أورام المخ التي تصيب الإنسان [1] ، و يمثل هذا الورم 52 ٪ من جميع الأورام التي تصيب نسيج المخ و 20 ٪ من جميع الأورام التي تتكون داخل الجمجمة . على الرغم من ذلك يعتبر هذا النوع من الأورام بالعموم نادر الحدوث بمعدل 2 - 3 حالات لكل 100000 شخص في أوروبا وأمريكا الشمالية . +question : ماهى الأورام الدبقية ؟ +prompt : أجب عن السؤال التالي : ماهى الأورام الدبقية ؟ الجواب هو +pred_answer : أن الورم الدبقي عبارة عن نمو غير طبيعي للخلايا الدبقية في الدماغ +answer : أكثر أورام المخ شيوعا والأكثر عدوانية مقارنة بباقي أورام المخ التي تصيب الإنسان + +context : أطلقت محطة الفضاء الدولية للمرة الأولى في 20 نوفمبر 1998 ، وبذلك يكون قد مرة 20 عاما على إطلاقها في عام 2018 . +question : متى تاسست محطة الفضاء الدولية ؟ +prompt : أجب عن السؤال التالي : متى تاسست محطة الفضاء الدولية ؟ الجواب هو في عام +pred_answer : 1957 � +answer : 20 نوفمبر 1998 + +context : كرينولين ( بالفرنسية : Crinoline ) هو هيكل قاس يلبس تحت التنورة ليعطيها شكل منتفخ ، وكان دارج الاستعمال في أوروبا منذ القرن السادس عشر إلى منتصف القرن التاسع عشر . +question : ما هو الكرينولين ؟ +prompt : أجب عن السؤال التالي : ما هو الكرينولين ؟ الجواب هو +pred_answer : مركب عضوي له الصيغة الكيميائية Cr2O3 ، ويكون على شكل سائل عديم اللون . [1][2][3]يستخدم +answer : هيكل قاس يلبس تحت التنورة ليعطيها شكل منتفخ وكان دارج الاستعمال في أوروبا منذ القرن السادس عشر إلى منتصف القرن التاسع عشر + +context : السفسطة أو السفسطائية هي مذهب فكري فلسفي نشأ في اليونان إبان نهاية القرن السادس وبداية القرن الخامس ق . م في بلاد الإغريق ، بعد انحسار حكم الأقلية الأوليغارشية وظهور طبقة حاكمة جديدة ديمقراطية تمثل الشعب ، وقد ظهر السفسطائيون كممثلين للشعب وحاملين لفكره وحرية منطقه ومذهبه العقلي والتوجه المذكور هذا هو الذي كلفهم كل ما تعرضوا له من هجوم حتى ليصدق القول بأن السفسطائيين كانوا من أوائل المذاهب الفكرية التي تعرضت للتنكيل والنفي والقتل لمجرد كونها تخدم مصلحة الضعفاء والمساكين ، فقتل أغلب قادتهم وشرد الباقون ، كمثل ما حصل مع هيبياسي ، الذي كان من أشهر قادة الديمقراطيين ، والذي تعرض فيما بعد للإعدام . وكذلك بروتاجوراس الذي أوكلت إليه مهمة وضع دستور للبلاد الإغريقية إبان الحكم الديمقراطي الجديد ، حيث أحرقت كتبه ونفي من أثينا . وغير ذلك " بروديقوس " الذي عذب وحوكم بالإعدام ، فشرب السم . [1] +question : ما هي السفسطة أو السفسطائية ؟ +prompt : أجب عن السؤال التالي : ما هي السفسطة أو السفسطائية ؟ الجواب هو +pred_answer : : إن السفس +answer : مذهب فكري فلسفي + +context : النظام التماثلي هي طريقه مستخدمه لنقل المعلومات ، حيث تكون فيها المعلومات عبارة عن كميات مادية متماثلة ومتتالية ومستمرة ويمكن لقيمتها أن تتغير ، و يسمح أن تكون الإشارة كاملة القيمة أو تساوي صفر أو أية قيمة بين هذه وتلك . +question : ما هو النظام التماثلي ؟ +prompt : أجب عن السؤال التالي : ما هو النظام التماثلي ؟ الجواب هو +pred_answer : أن كل نظام تماثلي يتكون من ثلاثة عناصر أساسية هي : ( 1 ) العنصر الفيزيائي ( 2 ) العنصر المادي ( 3 ) +answer : طريقه مستخدمه لنقل المعلومات حيث تكون فيها المعلومات عبارة عن كميات مادية متماثلة ومتتالية ومستمرة ويمكن لقيمتها أن تتغير + +context : حمض غاما - أمينوبيوتيريك أو يختصر غابا هو الناقل العصبي المثبط الرئيسي في الجهاز العصبي المركزي في الثدييات . أنه يلعب الدور الرئيسي في الحد من استثارة الخلايا العصبية في جميع أنحاء الجهاز العصبي . في البشر ، جابا هو أيضا المسؤول المباشر عن تنظيم العضلات . +question : ما هو حمض الغاما - أمينوبيوتيريك ؟ +prompt : أجب عن السؤال التالي : ما هو حمض الغاما - أمينوبيوتيريك ؟ الجواب هو +pred_answer : أنه عبارة عن مركب كيميائي له الصيغة الكيميائية CHN ، ويكون على شكل +answer : الناقل العصبي المثبط الرئيسي في الجهاز العصبي المركزي في الثدييات + +context : الإعلان العالمي لحقوق الإنسان هو وثيقة حقوق دولية تمثل الإعلان الذي تبنته الأمم المتحدة 10 ديسمبر 1948 في قصر شايو في باريس . الإعلان يتحدث عن رأي الأمم المتحدة عن حقوق الإنسان المحمية لدى كل الناس . +question : متى تبنت الأمم المتحدة الإعلان العالمي لحقوق الإنسان ؟ +prompt : أجب عن السؤال التالي : متى تبنت الأمم المتحدة الإعلان العالمي لحقوق الإنسان ؟ الجواب هو في عام +pred_answer : 1948 م +answer : ة 10 ديسمبر 1948 + +context : نهر الأردن نهر يمر في بلاد الشام ، يبلغ طوله حوالي 251 كم وطول سهله حوالي 360 كم ويتكون عند التقاء ثلاثة روافد هي بانياس القادم من سوريا واللدان القادم من شمالي فلسطين والحاصباني القادم من لبنان مشكلا نهر الأردن العلوي . [1][2] الذي يمر في بحيرة حولا في لبنان ثم يصب في بحيرة طبرية التي تكونت جراء حدوث الوادي المتصدع الكبير . وقد كون هذا الشق عدة بحار وبحيرات أخرى مهمة ، وعند خروجه من بحرية طبرية يكون نهر الأردن السفلي ويصب فيه أيضا روافد نهر اليرموك ونهر الزرقاء ووادي كفرنجة وجالوت ، ويفصل النهر بين فلسطين التاريخية والأردن إلى ان يصب في مياه البحر الميت المعروفة بملوحتها العالية . +question : كم يبلغ طول نهر الاردن ؟ +prompt : أجب عن السؤال التالي : كم يبلغ طول نهر الاردن ؟ الجواب هو +pred_answer : 1 . 5 +answer : 251 كم + +context : في حرب البلقان الأولى عام 1912 اتحدت أربع دول هي : بلغاريا واليونان والجبل الأسود وصربيا ، وهزموا الدولة العثمانية . وقد اندلعت الحرب بإعلان الجبل الأسود الحرب على الدولة العثمانية في 8 أكتوبر 1912 ثم انضمت له على التوالي بلغاريا وصربيا في 17 أكتوبر ثم اليونان في 19 أكتوبر . انتهت الحرب بعدها بسبعة أشهر إثر معاهدة لندن في 30 مايو 1913 . خسر العثمانيون أكثر من ثمانين بالمائة من أراضيهم بالقسم الأوروبي ، وبسبب ذلك بدأ التدفق الكبير لنحو مليونين ونصف المليون مسلم من الأراضي العثمانية السابقة إلى داخل القائم من الدولة العثمانية . في تركيا اعتبرت نتائج حرب البلقان كارثة كبرى ، واتهم رئيس الأركان ناظم باشا بمسؤوليته عن الهزيمة فيها ، وتم اغتياله في 23 يناير 1913 أثناء انقلاب 1913 على يد أعضاء من جماعة تركيا الفتاة . +question : متى انتهت حرب البلقان الأولى ؟ +prompt : أجب عن السؤال التالي : متى انتهت حرب البلقان الأولى ؟ الجواب هو في عام +pred_answer : 1991 ، عندما +answer : 30 مايو 1913 + +context : الصافي سعيد هو اسم قلمي للكاتب والصحفي والروائي التونسي أحمد الصافي سعيد المولود في ( 22 سبتمبر 1953 - ) بقفصة في تونس . [1][2][3] يعتبر واحدا من أهم رجال الرأي منذ 2011 خاصة بعد انتشار تعبيره " الربيع العربي " بعد أن أصبح عنوان لمرحلة التغيرات العميقة التي يمر بها العالم العربي . ترشح للانتخابات الرئاسية التونسية 2014 [4] +question : من كتب كتاب المعادلة التونسية في سنة 2014 ؟ +prompt : أجب عن السؤال التالي : من كتب كتاب المعادلة التونسية في سنة 2014 ؟ الجواب هو +pred_answer : الدكتور المنصف وناس +answer : حمد الصافي سعيد + +context : شارك المنتخب الجزائري في كأس العالم لكرة القدم أربع مرات 1982 ، 1986 ، 2010 و 2014 تأهل إلى الدور ال 16 في 2014 ، كما شارك 16 مرة في كأس الأمم الإفريقية فاز بنسخة 1990 التي استضافها على أرضه . وصل للدور النهائي سنة 1980 ، المركز الثالث مرتين 1984 و 1988 ، والمركز الرابع مرتين 1982 و 2010 . +question : متى ترشحت الجزائر للدور الثاني في كأس العالم لكرة القدم أول مرة ؟ +prompt : أجب عن السؤال التالي : متى ترشحت الجزائر للدور الثاني في كأس العالم لكرة القدم أول مرة ؟ الجواب هو في عام +pred_answer : 1982 ، +answer : 2014 + +context : خوسيه إلوي ألفارو دلغادو ولد[1] في مونتكريستي ، إكوادور ، 25 يونيو عام 1842 وتوفى[2] في كيتو ، إكوادور ، 28 يناير عام 1912 وكان رئيسا لجمهورية إكوادور [3] . مرتان في فترات تتألف بين 1897 - 1901 و 1906 - 1911 ، لواء للجيش بإكوادور عام 1895 وقائد الثورة الليبرالية الإكوادورية ( 1895 - 1924 ) . لدوره الأساسي في معارك الثورة ولقيامة بصد التيار المحافظ لما يقرب من 30 عاما ، يعرف بالمصارع القديم . [4] +question : كم دامت رئاسة إلوي ألفارو لجمهورية الإكوادور ؟ +prompt : أجب عن السؤال التالي : كم دامت رئاسة إلوي ألفارو لجمهورية الإكوادور ؟ الجواب هو +pred_answer : أن مدة الرئاسة هي خمس سنوات ، ومدة +answer : 1897 1901 و 1906 1911 + +context : نيوزيلندا ( بالإنجليزية : New Zealand ، بالماورية : Aotearoa أوتياروا ) هي دولة جزرية تقع في جنوب غرب المحيط الهادئ وتتألف من جزيرتين رئيسيتين ( الجزيرة الشمالية والجزيرة الجنوبية ) ومجموعة من الجزر الصغيرة عددها حوالي 600 جزيرة أبرزها جزيرة ستيوارت وجزر تشاتام . الاسم الأصلي لنيوزيلندا بلغة الماوري هو أوتياروا والتي تعني أرض السحابة البيضاء الطويلة . تضم نيوزيلندا أيضا جزر كوك ونييوي ( ذاتية الحكم ولكن بارتباط حر ) وتوكلو وتابعية روس ( مطالب نيوزيلندا الإقليمية في القارة القطبية الجنوبية ) . عاصمتها ويلينغتون وأكبر مدنها أوكلاند . +question : كم عدد جزر نيوزيلاندا ؟ +prompt : أجب عن السؤال التالي : كم عدد جزر نيوزيلاندا ؟ الجواب هو +pred_answer : : +answer : 600 + +context : جيمس مونرو ( 28 أبريل 1758 - 4 يوليو 1831 ) ، هو خامس رؤساء الولايات المتحدة من 1817 إلى 1825 ورجل دولة وأحد الآباء المؤسسون . يرجع إليه الفضل في الحصول على ولاية فلوريدا لإدارته بعام 1819 والتوصل إلى تسوية ميسوري في عام 1820 والتي أعلن فيها أحقية ولاية ميسوري في تملك العبيد وإعلان مبدأ مونرو بعام 1823 الذي أبدى فيه معارضة الولايات المتحدة لأي تدخل أوروبي في شؤون الأمريكيتين . +question : من هو جيمس مونرو ؟ +prompt : أجب عن السؤال التالي : من هو جيمس مونرو ؟ الجواب هو +pred_answer : الرئيس الخامس والثلاثين للولايات المتحدة +answer : خامس رؤساء الولايات المتحدة + +context : إلياس بن مضر ، الجد السادس عشر للرسول محمد بن عبد الله ، وزوج خندف جدة القبائل الخندفية . +question : من هو إلياس بن مضر ؟ +prompt : أجب عن السؤال التالي : من هو إلياس بن مضر ؟ الجواب هو +pred_answer : : الياس بن مضر بن نزار بن معد بن عدنان ، وهو أول من تكلم بالعربية الفصيحة +answer : الجد السادس عشر للرسول محمد بن عبد الله وزوج خندف جدة القبائل الخندفية + +context : كاتدرائية شارتر ، المعروفة أيضا باسم كاتدرائية سيدة شارتر هي كاترائية تم بنائها في القرون الوسطى في العصر الروماني شعيرة الكاتدرائية الكاثوليكية تقع في شارتر ، بفرنسا ، وتقع في في إقليم أور ولوار على بعد حوالي 80 كيلومترا ( 50 ميل ) جنوب غرب باريس . وتعتبر واحدة من أروع أمثلة المعمار القوطية الفرنسية ، وتعد أحد مواقع التراث العالمي لليونسكو . وتعد المعلم السياحي الأكثر أهمية ، والذي يتميز بنوافذه الرائعة المكونة من الزجاج الملون . شيدت الكاتدرائية الحالية في الغالب بين عامي 1194 و 1250 . [1] +question : أين تقع كاتدرائية شارتر ؟ +prompt : أجب عن السؤال التالي : أين تقع كاتدرائية شارتر ؟ الجواب هو +pred_answer : في فرنسا . +answer : جنوب غرب باريس + +context : مقياس الإشعاع [1] [2] هو جهاز يستخدم لقياس شدة الإشعاع الكهرومغناطيسي مثل الضوء . هناك مكاشيف مختلفة حسب المجال الكهرومغناطيسي مثل مجال الأشعة تحت الحمراء التي تقيس شدة الإشعاع في ذلك المجال ؛ كما توجد أيضا مكاشيف تقيس شدة الإشعاع في مجال الأشعة فوق البنفسجية وفي مجال الموجات الميكروية . +question : ما هو مقياس الإشعاع ؟ +prompt : أجب عن السؤال التالي : ما هو مقياس الإشعاع ؟ الجواب هو +pred_answer : كمية الطاقة التي تنبعث من الجسم عند تعرضه لمصدر +answer : جهاز يستخدم لقياس شدة الإشعاع الكهرومغناطيسي مثل الضوء + +context : نادي أولمبيك ليون ( بالفرنسية : Olympique Lyonnais ) هو نادي كرة قدم من ليون ، فرنسا . [1][2][3] تأسس عام 1950 . يعد من أقوى الأندية الفرنسية في الوقت الراهن وقد فاز في الدوري الفرنسي سبع مرات متتالية . +question : متى تاسس نادي ليون الفرنسي ؟ +prompt : أجب عن السؤال التالي : متى تاسس نادي ليون الفرنسي ؟ الجواب هو في عام +pred_answer : 1899 +answer : 1950 + +context : القشرة المخية هي الطبقة السطحية من نصف كرة المخ لدى الثدييات . والقشرة المخية لدى الأنسان تتكون من المادة الرمادية والتي يتألف معظمها من العصبونات الهرمية مرتبة في 6 طبقات فيما يعرف القشرة الجديدة . وهذا الترتيب هو ما يجعل مخ الأنسان معقدا وقادرا على الفهم والاستيعاب . كما يتيح هذا الترتيب إلى تقسيم المهام المختلفة إلى مختلف مناطق القشرة والتي سيتم ذكرها لاحقا . كما أن القشرة المخية تتكون من الأخاديد و < b data - parsoid = ' { " dsr " : [1280 , 1294 , 3 , 3] } ' > التلافيف التي تساعد على زيادة مساحة القشرة بشكل كبير ( ثلثي القشرة تقع في الأخاديد ) . كما تستعمل الأخاديد - تشريحيا - في تقسيم المخ إلى مناطق وظيفية ، بحيث تكون كل منطقة مسؤولة عن وظيفة محددة مما يزيد التخصص والدقة في عمل الدماغ البشري . على الرغم من كمية المهام التي تؤديها القشرة فسماكتها تتراوح بين 2 - 4 مليمتر . +question : كم تبلغ سماكة القشرة المخية ؟ +prompt : أجب عن السؤال التالي : كم تبلغ سماكة القشرة المخية ؟ الجواب هو +pred_answer : أن سمكها +answer : هام التي تؤ + +context : خفاش الفاكهة المصري ، الثعلب الطيار المصري أو روزيتا المصرية ( Rousettus aegyptiacus ) ، نوع من خفافيش فاكهة العالم القديم من فصيلة الخفافيش الكبيرة ( خفافيش الفاكهة ) من رتبة الخفاشيات +question : ما هو خفاش الفاكهة المصري ؟ +prompt : أجب عن السؤال التالي : ما هو خفاش الفاكهة المصري ؟ الجواب هو +pred_answer : أن الخفاش حيوان ثديي من فصيلة العنكبوتيات ، يعيش في المناطق الاستوائية وشبه الاستوائية +answer : نوع من خفافيش فاكهة العالم القديم من فصيلة الخفافيش الكبيرة خفافيش الفاكهة من رتبة الخفاشيات + +context : تتشارك إسرائيل مع الأردن بحدود يبلغ طولها 238 كيلومترا ، ويمتد عليها معبرين ؛ هما جسر الشيخ حسين ومعبر وادي عربة . لقد تلى استقلال الأردن بعدة سنوات كل من النكبة وتأسيس دولة إسرائيل عام 1948 على معظم مساحة فلسطين التاريخية على الحدود الغربية للأردن فيما عرف بالخط الأخضر ، والذي حدد حدود إسرائيل مع الأردن والدول العربية الأخرى . [23] لقد تم توقيع معاهدة السلام الأردنية الإسرائيلية في 26 تشرين الثاني أكتوبر 1994 . حلت المعاهدة قضايا إقليمية وحدودية كانت جارية منذ حرب 1948 . حددت المعاهدة واعترفت بالكامل بالحدود الدولية بين الأردن وإسرائيل . عند توقيعها ، عين نهري الأردن واليرموك ، والبحر الميت ، ووادي عربة وخليج العقبة رسميا كحدود بين الأردن وإسرائيل ، وبين الأردن والأراضي التي احتلتها إسرائيل في حرب 1967 . [24] بالرغم من ذلك ، فإن الحدود الفاصلة بين إسرائيل والأردن في منطقة غور الأردن ليست حدودا متفقا عليها ، فهي لا تزال حدود مؤقتة . [25] +question : كم يبلغ طول الحدود الأردنية مع اسرائيل ؟ +prompt : أجب عن السؤال التالي : كم يبلغ طول الحدود الأردنية مع اسرائيل ؟ الجواب هو +pred_answer : أن هذه الحدود +answer : 238 كيلومترا + +context : مدن المغرب هي الجماعات الترابية الحضرية في المملكة المغربية . ويضم المغرب 221 جماعة حضرية قائمة آهلة بالسكان ضمن 12 جهة . [1] بينها 50 مدينة كبرى ، تعد مدينة الدار البيضاء أكبر مدن المغرب يبلغ عدد سكانها 3 , 343 , 642[2] نسمة حسب إحصائيات 2014 ، أقدم مدن المغرب هي فاس عن ألف ومئتي عام ، ويعود تاريخ تأسيس المدينة لعام ثمانمئة وثمانية للميلاد ، وقد أنشئت لتصبح عاصمة للدولة الإدريسية تعد مراكش أكثر المدن السياحية في المغرب ، وكانت عاصمة لدولة المرابطين ، ولدولة السعديين ، ولدولة الموحدين ، ولقبت باسم المدينة الحمراء وباسم عاصمة النخيل . [3] +question : ما هي اقدم المدن المغربية ؟ +prompt : أجب عن السؤال التالي : ما هي اقدم المدن المغربية ؟ الجواب هو +pred_answer : مدينة فاس +answer : فاس + +context : تعد رومانيا جمهورية ذات نظام نصف رئاسي وتأتي في المرتبة التاسعة من حيث المساحة ( 238 , 391 كم مربع ) ، والسابعة من حيث عدد السكان ( 19 , 535 , 380 مليون نسمة ) [4] بالنسبة لدول الاتحاد الأوروبي . عاصمة البلاد هي بوخارست وهي أكبر مدن رومانيا ، وتحتل المرتبة السادسة من حيث عدد السكان ( 1 , 9 مليون نسمة ) بين مدن الاتحاد الأوروبي . وفي عام 2007 كانت مدينة سيبيو عاصمة الثقافة الأوروبية . [5] +question : كم تبلغ مساحة رومانيا ؟ +prompt : أجب عن السؤال التالي : كم تبلغ مساحة رومانيا ؟ الجواب هو +pred_answer : 1 . 5 مليون كيلومتر مربع +answer : 238 391 كم مربع + +context : سليمان ( عبرية : شلومو - بالآرامية - بالإنجليزية Solomon ) هو أحد ملوك مملكة إسرائيل حسب الوارد في سفر الملوك الأول وسفر أخبار الأيام الأول [1] وحسب التلمود ، هو أحد الأنبياء الثمانية والأربعين وابن داود وثالث ملوك مملكة إسرائيل الموحدة قبل إنقسامها إلى مملكة إسرائيل الشمالية وهي المملكة التي بقي يحكمها قبائل إسرائيل الإثنا عشر ومملكة يهوذا في الجنوب والتي حكمها أبناء قبيلة يهوذا وهي القبيلة الوحيدة الباقية من القبائل الإثنا عشر حسب كتابات اليهود [2] يعتقد أنه عاش في الفترة ما بين 970 ق . م حتى 931 ق . م وتوفى عن عمر 52 و اشتهر - وفق العقيدة اليهودية - بحكمته وثرائه وملكه الكبير وعدد من الذنوب التي بموجبها عاقب يهوه بني إسرائيل بتقسيم مملكتهم [3] ارتبط اسم سليمان بعدد من القصص المذكورة في العهد القديم مثل لقاءه مع ملكة سبأ التي ذكرت في القرآن كذلك وقصة قضاء سليمان بين المرأتين المتخاصمتين على رضيع ، ويعتقد حسب التراث اليهودي أنه أول من بنى الهيكل وقصته مع ملك الجن أشماداي ( عبرية : ) . +question : من هو النبي سليمان ؟ +prompt : أجب عن السؤال التالي : من هو النبي سليمان ؟ الجواب هو +pred_answer : أن الله سبحانه وتعالى قد ذكر في القرآن الكريم قصة نبي الله سليمان عليه السلام +answer : هو أحد ملوك مملكة إسرائيل حسب الوارد في سفر الملوك الأول وسفر أخبار الأيام الأول + +context : النيتروغليسرين أو التسمية الكيميائية " ثلاثي نترات الجلسرين " لأنه إستر . [1][2][3] مادة سائلة زيتية لا لون لها ، وهي شديدة الحساسية للصدمات والارتجاج ، شديدة الانفجار وهي أساس مركب الديناميت . اكتشفها العالم الإيطالي سكانيو سوبريرو ويتم الحصول عليه بتقطير الغليسيرين بنسبة ثلاثة على خليط من حمضين مركزين هما حمض الكبريتيك وحمض النيتريك بنسبة واحد ، ولكن استخدامه حدد لأنه ينفجر بمجرد التداول الغير حذر إلى ان مرت 100 سنة حتى اكتشف ألفرد نوبل طريقة لجعله آمنا بحيث تم خلطه مع التراب وأيضا خلطه مع القطن ومع النترو سيلولوز ومع كل مادة تضاف إلى الجليسرين لتقليل حساسيته . +question : ما هو النيتروغليسرين ؟ +prompt : أجب عن السؤال التالي : ما هو النيتروغليسرين ؟ الجواب هو +pred_answer : نيتروجليسرين ( Nitroglycerine ) ، وهو عبارة عن مادة كيميائية تستخدم في صناعة +answer : مادة سائلة زيتية لا لون لها وهي شديدة الحساسية للصدمات والارتجاج شديدة الانفجار وهي أساس مركب الديناميت + +context : مناورة فالين ( بالإنجليزية : Phalen ' s maneuver ) هي اختبار تشخيصي لمتلازمة النفق الرسغي ، [1] اكتشفه طبيب عظام أمريكي يدعى جورج فالين . [2] +question : ما هي مناورة فالين ؟ +prompt : أجب عن السؤال التالي : ما هي مناورة فالين ؟ الجواب هو +pred_answer : أن الولايات المتحدة الأميركية تريد من خلال هذه المناورة ، +answer : اختبار تشخيصي لمتلازمة النفق الرسغي + +context : للصوم فوائد حسية ومعنوية إذ أن فية تهذيب السلوك النفسي وتقويم اعوجاج النفس ، وتغيير النمط الذي اعتاد الشخص عليه في حياته اليومية ، وفي هذا تعليم لمعنى الطاعة والامتثال في عبادة الله ، وتخليص النفس من قيود الهوى وتزكيتها وتهذيبها ، وتعليم النفس معنى الصبر بالامتناع عن المفطرات ، حتى يشعر الإنسان بحال الجائع والبائس الفقير ، لتحصيل العطف والمودة والتراحم بين المجتمع . وفي الحديث : . [90] بمعنى : أنه وقاية من النار ، كما أن من فوائد الصوم في الإسلام أنه يعين على تهذيب النفس وكسر الشهوة لمن خاف على نفسه العزوبة ، ويدل على هذا حديث : " عن إبراهيم عن علقمة قال بينا أنا أمشي مع عبد الله رضى الله تعالى عنه ، فقال : كنا مع النبي فقال : " . [91] فالزواج مستحب لمن يقدر عليه ، ومن لم يقدر عليه فعليه بالصوم فإنه يكون له كالوجاء في كسر الشهوة ، ولا وسيلة لذلك غير الصوم . +question : ما هي فوائد الصيام ؟ +prompt : أجب عن السؤال التالي : ما هي فوائد الصيام ؟ الجواب هو +pred_answer : أن الصيام يؤدي إلى +answer : حسية ومعنوية + +context : هو صخر كلسي متحول ، يتكون من الكالسيت النقي جدا ( شكل بلوري لكربونات الكالسيوم CaCO3 ) . [2][3][4] يستعمل في النحت ، وكذلك يستعمل كمادة بنائية ، وأيضا في العديد من الأغراض الأخرى مثل إكساء الأرضيات والجدران وجدران الحمامات . وقد تكون تحت ظروف نادرة من الضغط والحرارة الهائلتين في جوف الأرض . تشتهر عدة دول في إنتاجه منها ، فلسطين ، تركيا ، إسبانيا ، البرازيل وإيطاليا التي تعد في المرتبة الأولى . ومما يميزه أيضا تفاعله مع الأحماض وهو ينشأ في البيئات البحرية . إستعمال الرخام قد عرف خلال العصور القديمة التى عرفت المبانى والقصور الفاخرة المزينة بمشغولات وتماثيل من الرخام ، وقد سجل التاريخ أن الرخام كان يستعمل في إستعمالات كثيرة في جميع العصور التى عرفت المدنية . وقد وصف هيرودوت أهرامات الجيزة بأنها مكسية من الرخام المجلى الذى أكسبها جمالا وعظمة ، وقد ذكر في التوراة أن الرخام استخدم في بناء معابد أورشليم ، زهذا يثبت أن الرخام قد عرف من أكثر من ألاف السنين قبل الميلاد . وكان الرخام وسيلة الفنانين في التعبير سواء في فن المعمار أوالنحت ومبانى اليونان القديمة وتماثيل روما وقد عرف الفراعنة الرخام في مصر منذ أكثر من 5 ألاف سنة فقد أستخدم في تكسية الأهرامات وفي بناء المعابد وقصور الملوك وتماثيلهم والمسلات وأعمدة المعابد . +question : من ماذا يتكون حجرالرخام ؟ +prompt : أجب عن السؤال التالي : من ماذا يتكون حجرالرخام ؟ الجواب هو +pred_answer : أن حجر الرخام عبارة عن +answer : الكالسيت النقي جدا + +context : ثروت عكاشة من ( مواليد القاهرة بمصر عام 1921 - توفي 27 فبراير 2012 ) . [1] كان وزيرا للثقافة ونائب رئيس الوزراء المصري سابقا . +question : من هو ثروت عكاشة ؟ +prompt : أجب عن السؤال التالي : من هو ثروت عكاشة ؟ الجواب هو +pred_answer : الدكتور ثروت عكاشة ، وزير الثقافة المصري الأسبق +answer : وزيرا للثقافة ونائب رئيس الوزراء المصري سابقا + +context : مدغشقر هو فيلم متحرك حاسوبيا أنتجته دريم ووركس أنيمايشن . [1][2][3] صدر الفيلم في 27 مايو ، 2005 ، أما إصدار دي في دي فتم نشره في 15 نوفمبر ، 2005 . أبطال الفيلم هم أربعة حيوانات : الأسد أليكس ( بين ستيلير ) ، الحمار الوحشي مارتي ( كريس روك ) ، الزرافة ميلمين ( ديفيد شويمير ) ، و < b data - parsoid = ' { " dsr " : [2564 , 2586 , 3 , 3] } ' > فرس النهر غلوريا ( جادا بينكيت سميث ) . +question : من الشركة التي أنتجت فيلم الكرتون مدغشقر 1 ؟ +prompt : أجب عن السؤال التالي : من الشركة التي أنتجت فيلم الكرتون مدغشقر 1 ؟ الجواب هو +pred_answer : شركة والت ديزني ( Walt Disn +answer : دريم ووركس أنيمايشن + +context : الإسلاموية مصطلح سياسي وإعلامي وأكاديمي استخدم لتوصيف حركات تغيير سياسية تؤمن بالإسلام باعتباره " نظاما سياسيا للحكم " ، ويستخدم هذا المصطلح من قبل المجموعات السياسية المناوئة للإسلاميين . ويمكن تعريفه كمجموعة من الأفكار والأهداف السياسية النابعة من الشريعة الإسلامية التي يستخدمها مجموعة " المسلمين الأصوليين " الذين يؤمنون بأن الإسلام " ليس عبارة عن ديانة فقط وإنما عبارة عن نظام سياسي واجتماعي وقانوني واقتصادي يصلح لبناء مؤسسات دولة " . وتعتبر دول مثل إيران والسعودية ونظام طالبان السابق في أفغانستان والسودان ، والصومال أمثلة عن هذا المشروع ، مع ملاحظة أنهم يرفضون مصطلح إسلام سياسي ويستخدمون عوضا عنه الحكم بالشريعة أو الحاكمية الإلهية . +question : ما هي الإسلاموية ؟ +prompt : أجب عن السؤال التالي : ما هي الإسلاموية ؟ الجواب هو +pred_answer : أن الإسلام دين سماوي من عند الله سبحانه وتعالى ، وأن محمدا صلى الله عليه وسلم خاتم الأنبياء +answer : مصطلح سياسي وإعلامي وأكاديمي استخدم لتوصيف حركات تغيير سياسية تؤمن بالإسلام باعتباره نظاما سياسيا للحكم + +context : أتت انطلاقة وود الكبرى في عام 1953 عندما عينه المنتج جورج ويس لإنتاج فيلم استغلالي بعنوان " غيرت جنسي " ، مستند على حياة المتخنثة كرستين يورغنسن . بعد أن رفضت يورغنسن التعاون مع الفيلم ، كتب وود نصا سينمائيا جديدا يتعلق بسيرته بعنوان غلين أو غليندا , وهو دراسة مخلصة ومتعاطفة مع لابسي ثياب النساء . أخرج وود الفيلم ، واستعمل اسما مستعارا هو دانيال ديفيس ، لعب الدور الرئيسي لرجل يحب لبس أزياء النساء . +question : في أي عام تم إنتاج فيلم غلين أو غليندا ؟ +prompt : أجب عن السؤال التالي : في أي عام تم إنتاج فيلم غلين أو غليندا ؟ الجواب هو في عام +pred_answer : 1896 +answer : 1953 + +context : مركز جويانا للفضاء هو مركز فضائي فرنسي بالقرب من كورو في جويانا الفرنسية على ساحل المحيط الأطلسي بأمريكا الجنوبية ، أنشئ المركز عام 1968 قرب خط الأستواء بحيث يناسب إطلاق الصواريخ في اتجاه الشرق ( يعمل دوران الأرض من الغرب إلى الشرق على إعطاء الصاروخ دفعة إضافية تبلغ نحو 1000 كيلومتر ساعة عند خط الأستواء ) ووجود المحيط الأطلسي شرقا من منصة الإقلاع ، وتقوم كل من وكالة الفضاء الأوروبية ESA ووكالة الفضاء الفرنسية CNES وشركة أريان سبيس بإطلاق الصواريخ ومعظمها لأغراض تجارية . [1][2][3] +question : أين أنشئ مركز جويانا للفضاء ؟ +prompt : أجب عن السؤال التالي : أين أنشئ مركز جويانا للفضاء ؟ الجواب هو +pred_answer : في الولايات المتحدة الأميركية ، وتحديدا في ولاية فلوريدا .ومنذ ذلك الحين ، +answer : بالقرب من كورو في جويانا الفرنسية على ساحل المحيط الأطلسي بأمريكا الجنوبية + +context : تبعد سبيطلة 264 كم على العاصمة تونس وتقع على الطريق الوطنية رقم 13 على بعد 33 كم شرق مركز ولاية القصرين . +question : كم تبعد سبيطلة على مركز ولاية القصرين ؟ +prompt : أجب عن السؤال التالي : كم تبعد سبيطلة على مركز ولاية القصرين ؟ الجواب هو +pred_answer : أنها تبعد +answer : 33 كم + +context : إربد مدينة أردنية ، ومركز محافظة إربد في شمال الأردن وأكبر مدنها . تقع على بعد 71 كيلومترا شمال العاصمة عمان ، كما تبعد حوالي 20 كم إلى الجنوب من الحدود السورية الأردنية . وتعد ثالث أكبر مدن المملكة بعد العاصمة الأردنية والزرقاء بالنسبة لعدد السكان ، حيث يبلغ عدد سكان المدينة وضواحيها أكثر 530 ألف نسمة حسب تعداد السكان لسنة 2017 , وتقدر مساحة المدينة مع ضواحيها بحوالي 30 كيلو متر مربع . تقع المدينة في موقع متوسط بالنسبة لباقي مناطق المحافظة ؛ إذ تقع على دائرة عرض 32 شمالا وخط طول 35 شرقا . تتميز الطبيعة الجغرافية للمدينة بالطبيعة السهلية ، وإن كانت المناطق الغربية منها ذات طبيعة أقرب للطبيعة الجبلية [1] . +question : ماهو تعداد سكان إربد ؟ +prompt : أجب عن السؤال التالي : ماهو تعداد سكان إربد ؟ الجواب هو +pred_answer : أن عدد سكان إربد +answer : 530 ألف نسمة + +context : تطورت الزراعة التي تتضمن استئناس النباتات والحيوانات منذ 10 . 000 سنة على أقل تقدير ، رغم أن بعض أشكال الزراعة مثل بستنة الحدائق والزراعة بإضرام النار تمتد إلى ما قبل ذلك في عصر ما قبل التاريخ . [1][2] ومرت الزراعة بتطورات بالغة منذ عهد الحراثة القديمة . وكانت مناطق الهلال الخصيب في غرب آسيا و مصر و الهند من أولى المواقع التي كانت تبذر فيها الحبوب وتحصد المحاصيل بتخطيط لم يشهده العالم من قبل ، حيث كانت النباتات والجذور تجمع من البرية . كما شهد شمال وجنوب الصين وساحل إفريقيا وغينيا الجديدة وعدة مناطق من الأمريكتين تطويرا مستقلا لعملية الزراعة . [3] +question : متى اكتشف الإنسان الزراعة ؟ +prompt : أجب عن السؤال التالي : متى اكتشف الإنسان الزراعة ؟ الجواب هو +pred_answer : في القرن الخامس عشر قبل الميلاد +answer : منذ 10 000 سنة + +context : إن القالب العام لنظرية الألعاب وضعه وصممه عالم الرياضيات الفرنسي إيمل بورل ، الذي كتب أكثر من مقالة عن ألعاب الصدفة ، ووضع منهجيات لآلية الألعاب ، هذا ويعد المصمم الرئيسي لنظرية الألعاب هو عالم الرياضيات الهنغاري - الأمريكي جون فون نيومان ، الذي أسس عبر سلسلة من المقالات أمتدت على مدى عشر سنوات ( 1920 - 1930 ) ، الإطار الرياضي لأي تطوير على النظريات الفرعية . +question : من أسس علم نظرية الألعاب ؟ +prompt : أجب عن السؤال التالي : من أسس علم نظرية الألعاب ؟ الجواب هو +pred_answer : أن أساس هذا العلم هو +answer : إيمل بورل + +context : في عام 1975 ، أسس ارماني مع صديقه جاليوتي علامته التجارية الخاصة باسم ” جورجو ارماني ” ، وفي شهر أكتوبر من نفس العام قدم مجموعته الأولى الخاصة بتصميمات للأزياء الرجالية لربيع وصيف عام 1976 تحت اسمه الخاص ، كما أنه قام بإنتاج أول خط لتصميم الأزياء النسائية في نفس الموسم . +question : متى أسس ارماني علامته التجارية الخاصة ” جورجو ارماني ” ؟ +prompt : أجب عن السؤال التالي : متى أسس ارماني علامته التجارية الخاصة ” جورجو ارماني ” ؟ الجواب هو في عام +pred_answer : 1909 +answer : 1975 + +context : النظم تحت اليومي هو نظم بمدة أطول من مدة النظم اليومي ، وهذا يعني تكرارا أقل من دورة واحدة في 28 ساعة ، [1] مثل الطمث أو الحضانة أو المد والجزر أو النظم الموسمية . وعلى العكس من ذلك ، يشير النظم فوق اليومي إلى النظم ذات الفترات الأقصر من فترات النظم اليومية . +question : ما هو النظم تحت اليومي ؟ +prompt : أجب عن السؤال التالي : ما هو النظم تحت اليومي ؟ الجواب هو +pred_answer : أن هذا النظام يتكون من ثلاثة أجزاء رئيسية هي : 1 .النظام اليومي ، 2 .النظم اليومية ، 3 .التنظيم اليومي ، أما +answer : نظم بمدة أطول من مدة النظم اليومي وهذا يعني تكرارا أقل من دورة واحدة في 28 ساعة 1 مثل الطمث أو الحضانة أو المد والجزر أو النظم الموسمية + +context : ليفربول هي مدينة تقع في مقاطعة مرزيسايد شمال غرب إنجلترا . وهي ميناء على الساحل الغربي ، ومن أهم المدن الصناعية والتجارية ، وتعد منفذا لتجارة وسط غرب إنجلترا . يبلغ عدد سكانها حوالي 484 , 578 نسمة ( إحصاء 2006 ) . [1] ومساحتها حوالى 111 . 84 . يعني اسمها " تجمع المياه الموحلة " . +question : كم تبلغ مساحة مدينة ليفربول ؟ +prompt : أجب عن السؤال التالي : كم تبلغ مساحة مدينة ليفربول ؟ الجواب هو +pred_answer : : 1 . +answer : 111 84 + +context : عبد الله بن عباس بن عبد المطلب بن هاشم ، صحابي جليل ، وابن عم النبي محمد ، حبر الأمة و < b data - parsoid = ' { " dsr " : [1691 , 1703 , 3 , 3] } ' > فقيهها و < b data - parsoid = ' { " dsr " : [1705 , 1723 , 3 , 3] } ' > إمام التفسير و < b data - parsoid = ' { " dsr " : [1725 , 1744 , 3 , 3] } ' > ترجمان القرآن ، ولد ببني هاشم قبل الهجرة بثلاث سنين ، وكان النبي محمد دائم الدعاء لابن عباس } فدعا أن يملأ الله جوفه علما وأن يجعله صالحا . وكان يدنيه منه وهو طفل ويربت على كتفه وهو يقول : " اللهم فقهه في الدين وعلمه التأويل " . يعد ابن عباس من فقهاء الصحابة وساهم بشكل كبير في تأسيس مدرسة الفقه بمكة . +question : من هو عبد الله بن عباس ؟ +prompt : أجب عن السؤال التالي : من هو عبد الله بن عباس ؟ الجواب هو +pred_answer : : ابن عم رسول الله ( صلى الله عليه وآله وسلم ) ، حبر الأمة وترجمان القرآن ، وأحد العشرة المبشرين بالجنة +answer : صحابي جليل وابن عم النبي محمد حبر الأمة و b data parsoid dsr 1691 1703 + +context : يحتل الاقتصاد الفلبيني المرتبة 48 عالميا ، حيث يقدر الناتج المحلي الإجمالي ( الاسمي ) لعام 2009 ب 161 مليار دولار . [90] تشمل الصادرات الأولية أنصاف النواقل والمنتجات الالكترونية ومعدات النقل الملابس والنحاس والنفط ، زيت جوز الهند ، الفواكه . [35] الشركاء التجاريين الرئيسيين للفلبين هم الصين واليابان والولايات المتحدة وسنغافورة وهونغ كونغ والسعودية وكوريا الجنوبية وتايلاند وماليزيا . [35] عملة البلاد هي البيزو الفلبيني ( ) . +question : ما هي العملة الرسمية في الفلبين ؟ +prompt : أجب عن السؤال التالي : ما هي العملة الرسمية في الفلبين ؟ الجواب هو +pred_answer : بيزو فلبيني ، وهو +answer : البيزو الفلبيني + +context : الإسفنج المهبلي هي إحدى وسائل تحديد النسل وتعمل الإسفنجة بطريقتين حيث يتم إدخالها داخل المهبل وبذلك تكون حاجز يمنع دخول الحيوانات المنوية كما تقوم بقتلها ومنعها من التحرك في نفس الوقت وذلك عبر مبيد النطاف الموجود داخلها . الإسفنج المهبلي لايوفر حماية من الأمراض المنقولة جنسيا . +question : ما هو الإسفنج المهبلي ؟ +prompt : أجب عن السؤال التالي : ما هو الإسفنج المهبلي ؟ الجواب هو +pred_answer : عبارة عن مادة لزجة +answer : إحدى وسائل تحديد النسل + +context : تعود براءة اختراع الأطر المطاطية ل جون بويد دنلوب والذي أنشأ سنة 1889 مصنعا لها . +question : متى تم صناعة اول اطار مطاطي ؟ +prompt : أجب عن السؤال التالي : متى تم صناعة اول اطار مطاطي ؟ الجواب هو في عام +pred_answer : 1880 +answer : 1889 + +context : ينقسم العراق إلى 18 محافظة ( أو 19 في حال اعتماد حلبجة محافظة ) وهذه المحافظات بدورها تنقسم إلى أقضية وإلى تقسيمات أخرى أقل شأنا تسمى نواحي . يبلغ عدد أقضية العراق 120 قضائا . تعتبر محافظة بغداد التي تضم مدينة بغداد أكثر محافظات العراق ازدحاما بالسكان حيث تضم 7 . 600 . 000 نسمة بينما تعد محافظة المثنى الأقل إزدحاما بالسكان حيث لايزيد عدد الأهالي فيها عن 775 . 000 نسمة . أما محافظة الأنبار فهي أكبر محافظات العراق مساحة حيث تبلغ مساحتها 138 . 500 كلم مربع أما أصغر المحافظات مساحة فهي محافظة بغداد التي تبلغ مساحتها 4 . 555 كلم مربع . +question : كم عدد المحافظات في العراق ؟ +prompt : أجب عن السؤال التالي : كم عدد المحافظات في العراق ؟ الجواب هو +pred_answer : ( +answer : 18 + +context : غزى الأحباش اليمن ( 525 م - 599 م ) حرض نجاشي الحبشة على غزو اليمن في القرن السادس الميلادي ، بهدف إعادة السيطرة على الطرق التجارية ، والقضاء على منافسيه الفرس فأقدم الأحباش على غزو اليمن سنة 533 م ، وسيطروا عليها ، وتولى القائد أرياط الحكم بعد أن قضى على الملك ذو نواس الحميري ، وقامت العديد من المحاولات للتخلص من حكم الأحباش إلا أنها لم تنجح إلى أن تمكن سيف بن ذي يزن بمساعدة الفرس من القضاء على حكم الأحباش . [1] +question : متى احتل الاكسوم اليمن ؟ +prompt : أجب عن السؤال التالي : متى احتل الاكسوم اليمن ؟ الجواب هو +pred_answer : في عام +answer : 533 + +context : ألكسندر غراهام بيل ( 3 مارس 1847 - 2 أغسطس 1922 ) ، عالم مشهور ومهندس ومخترع ومبتكر سكوتلاندي المولد ، [معلومة 1] ينسب إليه تسجيل أول براءة هاتف فعال[1] وإنشاء شركة التيليفون والتلغراف الأمريكية . +question : متى توفي ألكسندرغراهام بيل ؟ +prompt : أجب عن السؤال التالي : متى توفي ألكسندرغراهام بيل ؟ الجواب هو في عام +pred_answer : 1847 ، عندما +answer : أغسطس 1922 + +context : كربوبروست ( اسم دولي غير مسجل الملكية ، والاسم التجاري لأملاح تروميثامين هيمابات ، ثام ) ( بالأنجليزية : Carboprost ) هو النظير الاصطناعي للبروستاغلاندين في بروستاغلاندين F2 ( على وجه التحديد ، هو 15 - ميثيل - بروستاغلاندين F2 ) مع خصائص أوكسيتوسينية . +question : ما هو الكربوبروست ؟ +prompt : أجب عن السؤال التالي : ما هو الكربوبروست ؟ الجواب هو +pred_answer : عبارة عن مبيد حشري يستخدم للقضاء على أنواع معينة من الحشرات التي تصيب المحاصيل الزراعية +answer : النظير الاصطناعي للبروستاغلاندين في بروستاغلاندين + +context : أول جريمة قتل نسبت للزودياك كانت حادثة إطلاق النار على الطالبين بيتي لو جنسن و ديفيد فارادي في 20 ديسمبر 1968 ، في الطريق المؤدية لبحيرة هيرمان داخل حدود بنيسيا +question : متى قام زودياك السفاح بالقيام بجريمة بحيرة هيرمان ؟ +prompt : أجب عن السؤال التالي : متى قام زودياك السفاح بالقيام بجريمة بحيرة هيرمان ؟ الجواب هو في عام +pred_answer : 1848 ، +answer : 20 ديسمبر 1968 + +context : ملحم بركات ( 5 أبريل 1942[1] - 28 اكتوبر 2016 ) ، أيضا يلقب أبو مجد ، مغني وملحن لبناني . يعتبر من أشهر المطربين والملحنين اللبنانين والعرب ، تأثر بفن الموسيقار الكبير محمد عبد الوهاب[2] ولد في قرية كفر شيما . ينتمي إلى طائفة الروم الأرثوذكس . ظهرت موهبته منذ كان في المدرسة وفي أحد الاحتفالات المدرسية ، قام بتلحين بعض الكلمات من الجريدة اليومية وقام بغنائها ، والتحق بعد ذلك بأحد البرامج المشهورة للأصوات الجديدة ، وقام باختباره رواد الفن اللبناني الكبار ، وقالوا عنه أنه موهبة لا مثيل لها لما يمتلكه من طبقات صوت عالية ذات مواصفات جيدة ، والتحق بعد ذلك بالمدرسة الرحبانية ، وكانت من هناك انطلاقته الكبيرة[3] . +question : أين عاش المغني ملحم بركات ؟ +prompt : أجب عن السؤال التالي : أين عاش المغني ملحم بركات ؟ الجواب هو +pred_answer : في +answer : لبنان + +context : الدكتور عبداللطيف بن عبدالعزيز بن عبدالرحمن آل الشيخ الرئيس العام السابق لهيئة الامر بالمعروف والنهي عن المنكر ولد في مدينة الرياض . تم اعفاءه من الرئاسة العامة لهيئة الأمر بالمعروف والنهي عن المنكر يوم الخميس الموافق 29 يناير 2015 . وأصبح وزيرا للشؤون الإسلامية والدعوة والإرشاد يوم 2 يونيو 2018 . [1] +question : من هو عبد اللطيف بن عبد العزيز آل الشيخ ؟ +prompt : أجب عن السؤال التالي : من هو عبد اللطيف بن عبد العزيز آل الشيخ ؟ الجواب هو +pred_answer : : محمد بن عبد الوهاب ، ولد في العيينة +answer : الرئيس العام السابق لهيئة الامر بالمعروف والنهي عن المنكر + +context : الراي " من الرأي ، أي ابداؤه " هو حركة موسيقية غنائية ، بدأت في المنطقة الواقعة بين الغرب الجزائري و الشرق المغربي ، تاريخ هذا الطبع الغنائي قديم حدد بعض الباحثين تاريخ نشأته إلى زمن التدخل الأسباني في الجزائر في القرن 18 و مكان نشأته في مدن غرب الجزائر ، كمدينة وهران و سيدي بلعباس ثم عين تموشنت و غليزان ومدن شرق المغرب كمدينة وجدة و بركان و جرسيف و السعيدية . [1] الراي اليوم ليس كالراي أول نشأته كان من يغنيه يعرفون بالشيوخ و الشيخات ثم في أواسط السبعينيات ظهر لقب آخر و هو الشاب والشابة كإشارة للتجديد الكبير الذي ظهر على هذا الطبع الموسيقي ، [2]فن الراي هو نوع من " أنواع موسيقى " الراب التي تعبر عن مجريات الشارع وقضايا المجتمع . +question : ما هو الراي المغربي ؟ +prompt : أجب عن السؤال التالي : ما هو الراي المغربي ؟ الجواب هو +pred_answer : انه لا يوجد راي مغربي موحد في هذا الموضوع ، بل هناك اراء مختلفة +answer : حركة موسيقية غنائية بدأت في المنطقة الواقعة بين الغرب الجزائري و الشرق المغربي + +context : أبو عامر محمد بن أبي عامر ( 327 - 392 ه 938 - 1002 م ) ، المشهور بلقب الحاجب المنصور حاجب الخلافة والحاكم الفعلي للخلافة الأموية في الأندلس في عهد الخليفة هشام المؤيد بالله . بدأ محمد بن أبي عامر حياته السياسية وتدرج في المناصب منذ عهد الخليفة الحكم المستنصر بالله ، وكان على علاقة وطيدة بزوجة الخليفة صبح البشكنجية أم الخليفة هشام المؤيد بالله ، والتي كانت وصية على عرش ولدها بعد وفاة زوجها الحكم . عاونت صبح الحاجب المنصور على إقصاء جميع منافسيه ، وهو وما أحسن استغلاله لأبعد مدى ، بل وذهب إلى أبعد من ذلك بأن حجر على الخليفة الصبي ، وقيد سلطته هو وأمه . وبتمكن الحاجب المنصور من مقاليد الحكم التفت إلى توسع الدولة شمالا ، فحرك بحملاته العسكرية حدود الممالك المسيحية في الشمال إلى ما وراء نهر دويرة ، [1] فبلغت الدولة الأموية في الأندلس أوج قوتها في عهده . +question : متى توفي أبو عامر محمد بن أبي عامر ؟ +prompt : أجب عن السؤال التالي : متى توفي أبو عامر محمد بن أبي عامر ؟ الجواب هو في عام +pred_answer : 65 ه +answer : 1002 + +context : شهاب الدين العزازي ، هو أبو العباس شهاب الدين أحمد بن عبد الملك بن عبد المنعم بن عبد العزيز بن جامع بن راضي بن جامع العزازي . [1] من شعراء العصر المملوكي ، يجيد نظم الشعر والموشحات . ولد عام 633 ه ، في بلدة أعزاز ، وتوفي في محرم ، ( 710 ه - 1310 م ) بالقاهرة . [2] +question : متى ولد شهاب الدين العزازي ؟ +prompt : أجب عن السؤال التالي : متى ولد شهاب الدين العزازي ؟ الجواب هو +pred_answer : : في سنة +answer : 633 ه + +context : انطلق موقع فيسبوك كنتاج غير متوقع من موقع " فيس ماتش " التابع لجامعة هارفارد ، وهو موقع من نوع Hot or Not يعتمد على نشر صور لمجموعة من الأشخاص ثم اختيار رواد الموقع للشخص الأكثر جاذبية . [8] وقد قام مارك زوكربيرغ بابتكار الفيس ماتش في 28 أكتوبر من عام 2003 ، عندما كان يرتاد جامعة هارفارد كطالب في السنة الثانية . ففي هذه الأثناء ، . [9] +question : في أي عام تأسس الفيسبوك ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسس الفيسبوك ؟ الجواب هو في عام +pred_answer : 2004 م ، +answer : 28 أكتوبر من عام 2003 + +context : تلعب التربة دورا هاما في نمو النباتات وحياتها ، وتعد الأساس الذي تقوم عليه عمليات الإنتاج الزراعي والحياة الحيوانية ، كما تحوي التربة على كثير من الكائنات الحية الدقيقة ، والديدان ، والحشرات . وتكمن أهمية التربة في كونها وسطا استناديا للنباتات تنمو فيها الجذور ، وعن طريقها تمتص النباتات الماء والأملاح المنحلة التي تحتاجها . ويتوافر في التربة الشروط البيئية المختلفة من الجفاف والرطوبة والتهوية والحرارة والملوحة وغيرها . وتعد كذلك أحد المكونات الرئيسية لدورات العناصر الأساسية الطبيعية وذلك لأن مكونات التربة تعتمد على مكونات الهواء والماء وتركيب الهواء يعتمد على التربة والماء وهكذا [1] كما تعد التربة من أعقد الأنظمة الطبيعية ، لأنها تؤلف نظاما خاصا متعدد الأطوار وغير متجانس فهي تتكون من طور صلب ، وطور سائل ، وطور غازي . +question : ما هى أهمية التربة ؟ +prompt : أجب عن السؤال التالي : ما هى أهمية التربة ؟ الجواب هو +pred_answer : أن التربة تلعب دورا هاما فى حياة الكائنات الحية التى تعيش على سطح الأرض ، +answer : نمو النباتات وحياتها وتعد الأساس الذي تقوم عليه عمليات الإنتاج الزراعي والحياة الحيوانية + +context : معز الدولة المنذر بن يحيى بن المنذر التجيبي حاكم طائفة سرقسطة في عصر ملوك الطوائف بين عامي 427 ه - 430 ه ، [1] وابن شقيقة إسماعيل بن ذي النون حاكم طائفة طليطلة . [2] اغتيل المنذر في المحرم 430 ه على يد ابن عم له يدعى عبد الله بن الحكم الذي خلفه لمدة 28 يوم قبل أن يخلعه سليمان بن هود حاكم لاردة . [1] +question : من هو معز الدولة التجيبي ؟ +prompt : أجب عن السؤال التالي : من هو معز الدولة التجيبي ؟ الجواب هو +pred_answer : : المعز بن باديس الصنهاجي ، مؤسس +answer : حاكم طائفة سرقسطة في عصر ملوك الطوائف + +context : إربد مدينة أردنية ، ومركز محافظة إربد في شمال الأردن وأكبر مدنها . تقع على بعد 71 كيلومترا شمال العاصمة عمان ، كما تبعد حوالي 20 كم إلى الجنوب من الحدود السورية الأردنية . وتعد ثالث أكبر مدن المملكة بعد العاصمة الأردنية والزرقاء بالنسبة لعدد السكان ، حيث يبلغ عدد سكان المدينة وضواحيها أكثر 530 ألف نسمة حسب تعداد السكان لسنة 2017 , وتقدر مساحة المدينة مع ضواحيها بحوالي 30 كيلو متر مربع . تقع المدينة في موقع متوسط بالنسبة لباقي مناطق المحافظة ؛ إذ تقع على دائرة عرض 32 شمالا وخط طول 35 شرقا . تتميز الطبيعة الجغرافية للمدينة بالطبيعة السهلية ، وإن كانت المناطق الغربية منها ذات طبيعة أقرب للطبيعة الجبلية [1] . +question : أين تقع اربد ؟ +prompt : أجب عن السؤال التالي : أين تقع اربد ؟ الجواب هو +pred_answer : في شمال الأردن +answer : شمال الأردن + +context : يلاحظ أن أقرب النجوم لنا بروكسيما القنطور proxima centauri ويبعد 22 و 4 سنة ضوئية ، وهو بالقرب من رجل القنطور alpha centauri ويبعد 33 و 4 سنة ضوئية عنا . +question : ما هو أقرب نظام نجمي إلى الشمس ؟ +prompt : أجب عن السؤال التالي : ما هو أقرب نظام نجمي إلى الشمس ؟ الجواب هو +pred_answer : بروكسيما سنتوري +answer : رجل القنطور + +context : اجتمع ممثلو حكومات ( الصين , الاتحاد السوفيتي , المملكة المتحدة ، الولايات المتحدة الأمريكية ) في دومبارتون أوكس بالقرب من واشنطن في أغسطس وسبتمبر 1944 لمحاولة وضع الأسس والمبادئ التي تقوم عليها الهيئة الدولية الجديدة أي ( الأمم المتحدة ) , ولقد تم الاجتماع على مرحلتين : +question : متى عقد مؤتمر دومبارتون أوكس ؟ +prompt : أجب عن السؤال التالي : متى عقد مؤتمر دومبارتون أوكس ؟ الجواب هو في عام +pred_answer : 1845 ، أي بعد مرور +answer : أغسطس وسبتمبر 1944 + +context : جبال البرانس ، البيريني أو البرينيو سلسلة جبلية تقع جنوب غرب أوروبا ، بين فرنسا وإسبانيا وتمثل الحدود الطبيعية بينهما . تمتد لمسافة قدرها 430 كلم من خليج بسكاي بالمحيط الأطلسي في الغرب إلى البحر المتوسط في الشرق . أعلى نقطة بها تسمى " بيكو دي أنيتو " وتعلو بارتفاع 3406 . 2 م . تفصل الجبال شبه جزيرة أيبيريا عن فرنسا . تقع إمارة أندورا بين قمم السلسلة . كما تقع ستة أقسام فرنسية وست مقاطعات إسبانية في السلسلة . توجد بعض الممرات التي تتخلل الجبال ، ونشأ الممر الموجود في رونسافالز في القرن 12 . مساحتها 55374 . من أشهر المدن الواقعة في السلسلة : بربينيان وبايون وأورتيز بفرنسا ، وجيرونا وواسكا وبامبلونا وإيرون بإسبانيا . +question : أين تقع جبال البرانس ؟ +prompt : أجب عن السؤال التالي : أين تقع جبال البرانس ؟ الجواب هو +pred_answer : في شمال غرب +answer : جنوب غرب أوروبا + +context : الملك لويس السادس عشر ( 23 أغسطس 1754 - 21 يناير 1793 ) ملك فرنسا ونافارا ، آخر ملوك فرنسا قبل الثورة الفرنسية ، في عهده قامت الثورة الفرنسية وأدت إلى إطاحة الحكم المطلق . تزوج من ماري انطوانيت وهو في عمر الخامسة عشر ، والأخيرة تصغره بقرابه العام . وأنجب منها لويس السابع عشر الذي مات صغيرا . +question : متى عاش الملك لويس السادس عشر ؟ +prompt : أجب عن السؤال التالي : متى عاش الملك لويس السادس عشر ؟ الجواب هو في عام +pred_answer : 1715 ، أي +answer : 23 أغسطس 1754 + +context : فرانسوا ماري آروويه ويعرف باسم شهرته فولتير . ( 21 نوفمبر 1694 – 30 مايو 1778 ) هو كاتب وفيلسوف فرنسي عاش خلال عصر التنوير . عرف بنقده الساخر ، وذاع صيته بسبب سخريته الفلسفية الطريفة ودفاعه عن الحريات المدنية خاصة حرية العقيدة والمساواة وكرامة الإنسان . +question : ما هو الاسم الحقيقي لفولتير ؟ +prompt : أجب عن السؤال التالي : ما هو الاسم الحقيقي لفولتير ؟ الجواب هو +pred_answer : " فولتير " ، وهو اسم +answer : فرانسوا ماري آروويه + +context : لما تمت الوحدة اليمنية ، وتلتها حرب الخليج الثانية واتضح حجم النفط المخزون في اليمن ، ثارت المشكلة الحدودية من جديد إثر الاتفاق على ترسيم الحدود نهائيا بين اليمن وسلطنة عمان في 1990 ، فقامت المباحثات بين الطرفين في صورة لجنة للخبراء الثنائية بدأت في سبتمبر 1992 ، بعد أن جرت مشاورات ثنائية في جنيف في يوليو 1992 وعقدت سبعة لقاءات بالتناوب بين الرياض وصنعاء . +question : متى تمت اتفاقية ترسيم الحدود بين اليمن و سلطنة عمان ؟ +prompt : أجب عن السؤال التالي : متى تمت اتفاقية ترسيم الحدود بين اليمن و سلطنة عمان ؟ الجواب هو في عام +pred_answer : 20 +answer : 1990 + +context : الولايات المتحدة الأمريكية هي جمهورية اتحادية تتكون من 50 ولاية بالإضافة إلى مقاطعة فيدرالية واحدة ( واشنطن العاصمة ) . [1] تعتبر الولاية هي التقسيم الرئيسي للدولة وتمتلك عددا من الصلاحيات والحقوق المنصوص عليها في دستور الولايات المتحدة ، مثل تنظيم التجارة والتعاون بين الولايات ، إدارة الانتخابات ، إنشاء الحكومات المحلية ، والتصديق على التعديلات الدستورية . بموجب التعديل العاشر للدستور ، يمكن للولايات ممارسة جميع الصلاحيات الغير مفوضة إلى الحكومة الاتحادية . [2] كل ولاية تمتلك إدارة خاصة بها والتي تتألف من سلطة تنفيذية وسلطة تشريعية وسلطة قضائية . [3] كل ولاية يمثلها عدد من النواب في الكونغرس - وهو هيئة تشريعية تتكون من مجلسين : مجلس الشيوخ ومجلس النواب . يتم تمثيل كل ولاية من قبل اثنين من الأعضاء في مجلس الشيوخ ، في حين ان مجلس النواب يكونه عدد من الأعضاء لكل ولاية وفقا إلى إجمالي سكانها . [4] المقاطعات الفدرالية ليس لها ممثلين في مجلس الشيوخ ، في حين لديها مندوب في مجلس النواب لكن لا تمتلك حق التصويت ، كل ولاية لها عدد من الناخبين في المجمع الإنتخابي وهي الهيئة التي تنتخب رئيس الولايات المتحدة . [5] وفقا للدستور الأمريكي يحق للكونغرس قبول ضم المزيد من الولايات إلى الاتحاد ، ولكن لا يمكنه إنشاء ولاية جديدة من أراضي ولاية قائمة أو دمج اثنين أو أكثر من الولايات لتصبح واحدة من دون موافقة جميع الولايات المعنية . [6] +question : كم يبلغ عدد الولايات الأمريكية ؟ +prompt : أجب عن السؤال التالي : كم يبلغ عدد الولايات الأمريكية ؟ الجواب هو +pred_answer : : +answer : 50 + +context : قلعة المرقب حصن منيع يقع على بعد 5 كم شرق مدينة بانياس علي الساحل السوري وهي تابعة لمنطقة بانياس في محافظة طرطوس في سوريا . بنيت في عام 1062 م فوق قمة تلة على ارتفاع 370 م فوق سطح البحر . تشرف من الشرق على جبال اللاذقية ومن الغرب على مدينة بانياس والبحر الأبيض المتوسط وتحيط بها الجبال والغابات الرائعة ويحيط بها خندق ضخم مخلهل يمر عبر درج قائم فوق جسر إلى المدخل الرئيسي للقلعة . ذكرت القلعة في مراجع كثيرة ووصفها أبوالمحاسن في كتابة النجوم الزاهرة بأنها قلعة حصينة ومنيعة وكبيرة جدا . +question : أين تقع قلعة المرقب ؟ +prompt : أجب عن السؤال التالي : أين تقع قلعة المرقب ؟ الجواب هو +pred_answer : في محافظة طرطوس ، وهي تبعد عن +answer : شرق مدينة بانياس علي الساحل السوري + +context : سكان العراق هم السكان المقيمين داخل جمهورية العراق ويبلغ عددهم ما يقارب 37 , 5 مليون نسمة تقريبا ، 59 % منهم تتراوح اعمارهم من 16 - 64 وحوالي 38 % منهم تحت عمر 15 سنة و 3 % ممن تجاوزوا 64 عاما ، ويسكن معظمهم في وسط البلاد . أكبر مدن العراق حسب تقديرات عام 2002 م و 2005 م هي بغداد ( 4 إلى 6 ملايين ) ثم الموصل ثم البصرة ثم أربيل[1][2][3] أما من ناحية عدد سكان المحافظات وحسب مصدر يدعي استناده على إحصاء وزارة التجارة والتخطيط العراقية وحكومة إقليم كردستان العراق لعام 2003 , فمحافظة بغداد تضم أكبر عدد من السكان تليها محافظة نينوى بعدها محافظة البصرة ثم محافظة ذي قار ثم محافظة بابل ثم محافظة السليمانية ثم محافظة أربيل . [4] +question : ماهو تعداد سكان العراق ؟ +prompt : أجب عن السؤال التالي : ماهو تعداد سكان العراق ؟ الجواب هو +pred_answer : مليونان ونصف المليون نسمة +answer : 37 5 مليون نسمة تقريبا + +context : أنشأ الجائزة جويل إلياس سبينغارن رئيس مجلس الرابطة الوطنية لتقدم الشعوب الملونة سنة 1914 ، وتتكون من قلادة ذهبية ، منحت للمرة الأولى لعالم الأحياء إرنست جست سنة 1915 . [1] +question : متى منحت أول قلادة سبينغارن ؟ +prompt : أجب عن السؤال التالي : متى منحت أول قلادة سبينغارن ؟ الجواب هو +pred_answer : في عام 1895 ، +answer : إرنست جست + +context : المجلس الوطني الانتقالي المؤقت الليبي تشكل يوم الأحد 27 فبراير عام 2011 م[1] أثناء اندلاع ثورة 17 فبراير الليبية التي انطلقت عام 2011 في عدة مناطق من ليبيا مطالبة برحيل معمر القذافي عن السلطة والذي كان يحكم البلاد منذ نحو 42 عاما . [2] +question : متى تأسس المؤتمر الوطني الإنتقالي الليبي ؟ +prompt : أجب عن السؤال التالي : متى تأسس المؤتمر الوطني الإنتقالي الليبي ؟ الجواب هو في عام +pred_answer : 1951 م +answer : 27 فبراير عام 2011 + +context : تقع أردبيل على بعد حوالي 70 كم من بحر قزوين ، 210 كم عن مدينة تبريز . وعلى متوسط إرتفاع 1263 متر وتصل مساحتها إلى 18 . 011 كم . +question : كم تبلغ مساحة أردبيل ؟ +prompt : أجب عن السؤال التالي : كم تبلغ مساحة أردبيل ؟ الجواب هو +pred_answer : : 1 . +answer : 18 011 + +context : الضغط الجوي هو وزن عمود من الهواء على مقطعه العرضي هو وحدة المساحات ، وارتفاعه يعادل سمك الغلاف الجوي . الضغط الجوي = 1 atm أو بالتقريب 1 بار . وهو يتكون من عدة غازات ( النيتروجين 78 % و الأكسجين 21 % ، بالإضافة إلى غازات أخرى ) . يتناقص الضغط الجوي مع الإرتفاع عن مستوى سطح البحر ، ويبلغ عند مستوى سطح البحر 1 atm أو 1 . 0132 بار . +question : ما هي قيمة الضغط الجوي عند مستوى سطح البحر ؟ +prompt : أجب عن السؤال التالي : ما هي قيمة الضغط الجوي عند مستوى سطح البحر ؟ الجواب هو +pred_answer : أن ضغط الغلاف الجوي +answer : 1 0132 بار + +context : الجامعة الأردنية هي جامعة حكومية رسمية تقع في العاصمة الأردنية عمان في منطقة الجبيهة ، تعتبر الجامعة الأولى التي تم إنشاؤها في المملكة الأردنية الهاشمية ، حيث كان ذلك عام 1962 عندما تم إصدار إرادة ملكية بإنشاء الجامعة في شمال عمان ، بعد أن حضر وفد عسكري بريطاني للبحث في الدعم للقوات المسلحة الأردنية ، وحينها تمت المطالبة بإنشاء الجامعة . [1][2][3] حاليا المنطقة المحيطة بالجامعة هي واحدة من المناطق الحضرية في عمان والتي تمتاز بعدد السكان وارتفاع المستوى التعليمي والثقافي ويسمى لواء الجامعة . [4] +question : متى تم افتتاح الجامعة الأردنية في عمان ؟ +prompt : أجب عن السؤال التالي : متى تم افتتاح الجامعة الأردنية في عمان ؟ الجواب هو في عام +pred_answer : 1962 ، +answer : 1962 + +context : الأحكام السلطانية كتاب من تأليف أبي الحسن الماوردي ، يختص الكتاب في مواضيع السياسة الشرعية . +question : من هو مؤلف كتاب الأحكام السلطانية ؟ +prompt : أجب عن السؤال التالي : من هو مؤلف كتاب الأحكام السلطانية ؟ الجواب هو +pred_answer : أبو الحسن الماوردي ، +answer : أبي الحسن الماوردي + +context : وقعت معركة إسوس Issus في نوفمبر عام 333 قبل الميلاد في جنوب الأناضول بين جيش الإسكندر الأكبر المقدوني وجيش الفرس الأخمينيين بقيادة الإمبراطور داريوش الثالث بنفسه . [1][2][3] وأسفرت المعركة عن هزيمة منكرة لجيش داريوس الذي فر من المعركة تاركا خلفه زوجته وبنتيه وأمه سبايا ومالا كثيرا . +question : متى وقعت معركة إسوس ؟ +prompt : أجب عن السؤال التالي : متى وقعت معركة إسوس ؟ الجواب هو +pred_answer : في عام 626 م ، +answer : نوفمبر عام 333 قبل الميلاد + +context : سووبسك هي city with powiat rights تقع في بولندا في محافظة بومرسكي . [1] يقدر عدد سكانها 43 . 15 كم 2 وترتفع عن سطح البحر 22 متر . +question : أين تقع مدينة سووبسك ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة سووبسك ؟ الجواب هو +pred_answer : في أقصى +answer : بولندا + +context : القوات الجوية الملكية الأسترالية ( بالإنجليزية : Royal Australian Air Force ) ، هي قوات عسكرية تابعة للجيش الأسترالي وترمز " RAAF " ، وشاركت في الحروب منذ شهر مارس عام 1921 م حتى مرحلة غزو العراق عام 2003 ) . +question : ما هي القوات الجوية الملكية الأسترالية ؟ +prompt : أجب عن السؤال التالي : ما هي القوات الجوية الملكية الأسترالية ؟ الجواب هو +pred_answer : : سلاح الجو الملكي الأسترالي . +answer : قوات عسكرية تابعة للجيش الأسترالي + +context : فنزويلا ؛ رسميا جمهورية فنزويلا البوليفارية ، هي دولة تقع على الساحل الشمالي لأمريكا الجنوبية . تغطي أراضي فنزويلا مساحة تقدر بنحو 916 ، 445 كيلومتر مربع ( 353 ، 841 ميل مربع ) ويقدر عدد سكانها بحوالي 29 ، 100 ، 000 نسمة . تعتبر فنزويلا دولة ذات تنوع بيولوجي شديد للغاية ، فهي تضم مناطق بيئية عديدة ومتنوعة تبدأ من جبال الانديز في الغرب لتصل إلى حوض غابات الامازون المطيرة في الجنوب ، مارة عبر سهول يانوس الواسعة وساحل الكاريبي في الوسط ودلتا نهر أورينوكو في شرق البلاد . +question : في اي قارة تقغ دولة فنزويلا ؟ +prompt : أجب عن السؤال التالي : في اي قارة تقغ دولة فنزويلا ؟ الجواب هو +pred_answer : انها تقع في اميركا +answer : أمريكا الجنوبية + +context : فتحة العدسة أو الحدقة وهي فتحة داخل عدسة الكاميرا يمكن التحكم بها بتضييقها أو فتحها للحصول على كمية الضوء المناسبة أو ما يسمى بالتعريض المناسب فكل ما كانت العدسة مفتوحة أو واسعة كل ما كانت كمية الضوء الداخلة أكثر والعكس الصحيح . وللحصول على التعريض المناسب يجب الموازنة بين مقدار فتحة العدسة وسرعة الغالق . +question : ما هي فتحة العدسة بالكاميرا ؟ +prompt : أجب عن السؤال التالي : ما هي فتحة العدسة بالكاميرا ؟ الجواب هو +pred_answer : أن الكاميرا تحتوي على نوعين من الفتحات هما الفتحة العادية وفتحة الغالق ( Sh +answer : فتحة داخل عدسة الكاميرا يمكن التحكم بها بتضييقها أو فتحها للحصول على كمية الضوء المناسبة + +context : خيويل ثوروبريد وهي خيول السباق المهجنة الأصيلة . [1][2][3] وقد نشأت هذه الخيول في بريطانيا بمزاوجة ثلاثة من الخيول العربية الأصيلة مع الخيول الإنجليزية . فنشأت أجيال من هذه الفئة جمعت في صفاتها بين قوة الخيول الإنجليزية وسرعة الخيول العربية خصوصا في سباقات الأرض المنبسطة . +question : ما هي خيول ثوروبريد ؟ +prompt : أجب عن السؤال التالي : ما هي خيول ثوروبريد ؟ الجواب هو +pred_answer : أن هذه الخيول كانت تستخدم من قبل +answer : خيول السباق المهجنة الأصيلة + +context : العظيمات أو العظيمات الثلاث أو عظيمات السمع هي أصغر ثلاثة عظام في الجسم البشري وتوجد في الأذن الوسطى ، يتصل بعضها ببعض ، تقوم بربط الغشاء الطبلي بالأذن الداخلية ، وهي أولى العظام التي تتعظم كليا في أثناء التطور الجنيني ، بحيث تكون ناضجة عند الولادة . [1][2][3] تتميز العظيمات بكثافة ( صلابة ) استثنائية . +question : ما هي أصغر عظام جسم الإنسان ؟ +prompt : أجب عن السؤال التالي : ما هي أصغر عظام جسم الإنسان ؟ الجواب هو +pred_answer : عظمة الترقوة ، حيث يبلغ طولها 1 . 5 سم +answer : العظيمات أو العظيمات الثلاث أو عظيمات السمع + +context : مقياس موس هو مقياس لصلادة المواد يستخدم للدلالة على قدرة المواد المختلفة على مقاومة الخدش . [1][2][3] ويتم ذلك بفحص قدرة مادة صلبة على خدش مادة أقل صلابة منها . وضع هذا المقياس عام 1812 م على يد عالم المعادن الألماني فريدرش موس . ويعتبر مقياس موس مقياسا ترتيبيا ، أي أنه يعطي المواد ترتيبا معينا في قائمة المواد ولا يعطي القيمة المطلقة للصلابة . فمثال ذلك الألماس الذي يلي الكورندم حسب مقياس موه مع أن صلابته تقارب أربع أضعاف صلابة الكورندم . +question : ما هو مقياس موس ؟ +prompt : أجب عن السؤال التالي : ما هو مقياس موس ؟ الجواب هو +pred_answer : أن تكون الإجابة على هذا السؤال واضحة وصريحة ولا تحتمل أي لبس أو +answer : مقياس لصلادة المواد يستخدم للدلالة على قدرة المواد المختلفة على مقاومة الخدش + +context : كان من المعجبين بمالكوم إكس الذي أدى اغتياله عام 1965 إلى تغيير واسع في حياة الشاعر بركة ، حيث بدأ بتطليق زوجته الأولى وتزوج من امرأة سوداء عام 1967 اسمها الأصلي سيلفيا روبنسون ، واسمها الآن أمينة بركة وهي شاعرة وكاتبة أمريكية . ثم اعتنق الإسلام عام 1968 وأصبح اسمه منذ ذلك الحين الإمام أميري بركة ، لكنه بعد فترة غير الاسم إلى أميري بركة وحذف كلمة الإمام ، وكان ذلك بعد أن تبنى الماركسية كفلسفة عام 1974 . +question : متى اعتنق الشاعر أميري بركة الإسلام ؟ +prompt : أجب عن السؤال التالي : متى اعتنق الشاعر أميري بركة الإسلام ؟ الجواب هو في عام +pred_answer : 1979 ، +answer : 1968 + +context : يوري ألكسيافيتش جاجارين ( بالروسية : ) رائد فضاء سوفيتي ( 9 مارس 1934 - 27 مارس 1968 ) يعتبر جاجارين أول إنسان يتمكن من الطيران إلى الفضاء الخارجي والدوارن حول الأرض في 12 - أبريل - 1961 على متن مركبة الفضاء السوفيتية ( فوستوك 1 ) . +question : في أي عام ولد رائد الفضاء يوري غاغارين ؟ +prompt : أجب عن السؤال التالي : في أي عام ولد رائد الفضاء يوري غاغارين ؟ الجواب هو في عام +pred_answer : 1903 . +answer : 9 مارس 1934 + +context : هارولد ماكميلان سياسي بريطاني من حزب المحافظين البريطاني ( 10 فبراير 1894 - 29 ديسمبر 1986 ) . وتولى رئاسة الوزارة في بريطانيا من 10 يناير 1957 إلى 18 أكتوبر 1963 . تم تلقيبه بإسم " سوبر ماك " ، كان معروفا للبراغماتية ، الطرافة وهدؤه . +question : متى عاش الدكتور هارولد كون ؟ +prompt : أجب عن السؤال التالي : متى عاش الدكتور هارولد كون ؟ الجواب هو في عام +pred_answer : 1890 م ، أي +answer : 10 فبراير 1894 29 ديسمبر 1986 + +context : المرقاز هو نوع من السجق أصله أمازيغي من شمال أفريقيا حيث يستعمل كثيرا في الطعام العادي وهو محبوب أيضا في فرنسا وألمانيا . وسجق المرقاز مصنوع من لحم الخروف أو لحم البقر ومتبل بالهريسة التي تجعله أحمر . فعادة المرقاز مجفف تحت الشمس ثم مشوي وأحيانا مطبوخ بالكسكسي . وفي المغرب ، تونس ، الجزائر ، ليبيا وبعض الدول الأخرى المرقاز معروف كأكلة خفيفة . +question : ما هو المرقاز ؟ +prompt : أجب عن السؤال التالي : ما هو المرقاز ؟ الجواب هو +pred_answer : عبارة عن قطعة من اللحم توضع على النار مع قليل من الملح والفلفل الأسود ، ثم يضاف إليها القليل من زيت الزيتون +answer : نوع من السجق أصله أمازيغي من شمال أفريقيا حيث يستعمل كثيرا في الطعام العادي وهو محبوب أيضا في فرنسا وألمانيا + +context : فريديريك فروبل ( * 21 نيسان 1782 في أوبرفايسباخ و 21 حزيران 1852 في شفاينا ) هو مرب ألماني اوجد فكرة روضة أطفال +question : متى توفي العالم الألماني فريدريك فروبل ؟ +prompt : أجب عن السؤال التالي : متى توفي العالم الألماني فريدريك فروبل ؟ الجواب هو في عام +pred_answer : 1831 � +answer : 21 حزيران 1852 + +context : البليستوسين أو العصر الحديث الأقرب[1] وهي فترة زمنية امتدت من 2588 ألف إلى 11 ألف و 700 سنة مضت ( ق . ح ) التي تغطي فترات جليدية متكررة . وقد اشتق اسم البليستوسين من الكلمتين اليونانيتين بليستو ( ) وتعني " معظم " وكينوس ( ) وتعني " جديد " . هذا المصطلح قد تم إضافته من قبل الجيولوجي تشارلز لايل عام 1839 . +question : ما هو عصر البليستوسين ؟ +prompt : أجب عن السؤال التالي : ما هو عصر البليستوسين ؟ الجواب هو +pred_answer : أن العصر الجليدي الأخير قد بدأ قبل حوالي 10 آلاف سنة ، أي في وقت مبكر جدا مما كان يعتقد سابقا . +answer : فترة زمنية امتدت من 2588 ألف إلى 11 ألف و 700 سنة مضت ق ح التي تغطي فترات جليدية متكررة + +context : لقد كان المسؤول الأول عن ظهور الجهاز هو الرئيس التنفيذي لشركة أبل ستيف جوبز . فقد قام ستيف جوبز بتوجيه مهندسين أبل للبحث والتحري عن شاشات اللمس . ولكن قبل ذلك قام ستيف جوبز بتوجيه مهندسين أبل لتطوير الآي بود وبرنامج الآي تونز الذي أصدر في يناير 2001 ، الذين درا على الشركة الكثير من المال لجاذبية الجهاز وسهولة استخدام البرنامج . في السابع من سبتمبر 2005 أبل وموتورولا أصدرا جهاز هاتف يسمى روكر إي 1 ، وكان أول جهاز هاتف يستخدم برنامج الآي تونز للمزامنة . ولكن كان ستيف غير راضي عن الروكر ، قيام مصمم من خارج أبل ( موتورولا ) بتصميم الجهاز منعت أبل من تصميم الجهاز الذي أراده ستيف . في التاسع من يونيو 2007 أعلن ستيف عن أول جهاز آي فون . وفي التاسع والعشرين من يونيو 2007 تم إصدار آي تونز 7 . 3 تزامنا مع إصدار الآي فون . [2] +question : متى تم إنتاج أول جهاز ( آيفون ) حول العالم ؟ +prompt : أجب عن السؤال التالي : متى تم إنتاج أول جهاز ( آيفون ) حول العالم ؟ الجواب هو في عام +pred_answer : 2007 � +answer : سبتمبر 2005 + +context : حرب العراق هي نزاع مسلح طويل الأمد بدأ مع غزو العراق عام 2003 من قبل قوات التحالف بقيادة الولايات المتحدة . أطاح الغزو بحكومة صدام حسين . ومع ذلك ، فقد استمر الصراع في الكثير من أوقات العقد المقبل على أنه تمرد وظهرت معارضة لقوات الاحتلال وحكومة ما بعد الغزو العراقية . [1] قتل ما يقدر بنحو 151 ، 000 إلى 600 ، 000 عراقي أو أكثر في 3 – 4 سنوات الأولى من الصراع . أعلنت الولايات المتحدة رسميا انسحابها من البلاد في عام 2011 لكن عادت وشاركت في 2014 على رأس ائتلاف جديد ; واستمر التمرد والصراع المسلح الأهلي . +question : من بدأ حرب العراق ؟ +prompt : أجب عن السؤال التالي : من بدأ حرب العراق ؟ الجواب هو +pred_answer : أن الولايات المتحدة بدأت الحرب في +answer : قوات التحالف بقيادة الولايات المتحدة + +context : الصداع الأنتصابي حالة مرضية يشعر فيها المريض - بصداع في الوضع العمودي و يزول في الوضع الأفقي ( الصداع الذي يزداد سوءا في الوضع العمودي الوقوف ويتحسن عند الاستلقاء ) . . [1] في السابق كان يتم تشخيص الحالة بشكل غير صحيح وتشمل التشخيصات غير صحيحة الصداع النصفي وجميع انواع اضطرابات الصداع العادي كالصداع بسبب التوتر +question : ما هو الصداع الأنتصابي ؟ +prompt : أجب عن السؤال التالي : ما هو الصداع الأنتصابي ؟ الجواب هو +pred_answer : ألم شديد في جانب واحد من الرأس ، وعادة ما يكون مصحوبا بالغثيان والقيء +answer : حالة مرضية يشعر فيها المريض بصداع في الوضع العمودي و يزول في الوضع الأفقي + +context : الطواشة أو استخراج اللؤلؤ أو الغوص على اللؤلؤ هي مهنة المتاجرة باللؤلؤ ، وهي مهنة تقليدية اختصت بها دول الخليج . و < b data - parsoid = ' { " dsr " : [256 , 269 , 3 , 3] } ' > الطواش هو تاجر اللؤلؤ الذي يتنقل بين سفن الغوص في مواقع صيد الأسماك لاستخراج اللؤلؤ من أعماق البحار ، أو بين نواخذة الغوص بعد عودتهم . [1] +question : ما هو صيد اللؤلؤ ؟ +prompt : أجب عن السؤال التالي : ما هو صيد اللؤلؤ ؟ الجواب هو +pred_answer : أن هذا النوع من السمك يعيش في المياه الضحلة القريبة من الشاطئ +answer : مهنة المتاجرة باللؤلؤ وهي مهنة تقليدية اختصت بها دول الخليج + +context : أم المؤمنين زينب بنت جحش ( 32 ق . ه - 21 ه ) إحدى زوجات النبي محمد وابنة عمته أميمة ، وهي أخت الصحابي عبد الله بن جحش . أسلمت زينب وهاجرت إلى المدينة المنورة ، وتزوجها النبي محمد بعد أن طلقها متبناه السابق زيد بن حارثة ، بعد أن أجاز الوحي زواج الناس من زوجات أدعيائهم ، فيما يعده المسلمون زواجا تم الترتيب له من السماء . شاركت زينب في عدد من الغزوات كالطائف وخيبر . توفيت زينب بنت جحش سنة 20 ه ، وعمرها 53 سنة ، وكانت أول زوجات النبي لحاقا به ، وصلى عليها عمر بن الخطاب ، ودفنت بالبقيع . +question : من هي زينب بنت جحش ؟ +prompt : أجب عن السؤال التالي : من هي زينب بنت جحش ؟ الجواب هو +pred_answer : : السيدة زينب بنت خزيمة بن الحارث بن عبد الله بن عمرو الهلالية العامرية ذات النسب الأصيل والمنزلة +answer : إحدى زوجات النبي محمد وابنة عمته أميمة وهي أخت الصحابي عبد الله بن جحش + +context : تصغير | رعاية الماعز في نويبع جنوب سيناء مدة حمل اناث الماعز تتراوح بين 4 أشهر إلى 5 أشهر وعشرة أيام وغالبا ما تكون اوقات الولادة بين منتصف الليل حتى أول الصباح . من علامات اقتراب الولادة نزول الضرع وارتخاء الأعصاب عند منطقة الحوض وظهور سائل لزج من الحيا والخمول قبل 3 إلى 4 أيام من الولادة ونرى ان الماعز يوم الولادة تعمد إلى زاويه أو ركن امن عند احساسها بقرب الولادة وأثناء الولادة تصدر الأنثى بعض الاصوت عند احساسها بألام الوضع وفي أكثر الأحيان لا تحتاج إلى مساعدة أو إلى تدخل بشري . والأغنام بشكل عام متعددة الشبق أي تضع في الغالب التوائم من اثنين إلى ثلاثه وهناك حالات نادره من 4 إلى 5 توائم في الولادة الواحدة +question : ما مدة حمل النعجة ؟ +prompt : أجب عن السؤال التالي : ما مدة حمل النعجة ؟ الجواب هو +pred_answer : أن النعجة تلد في اليوم السابع +answer : 4 أشهر إلى 5 أشهر وعشرة أيام + +context : بالرومانية Porajmos هي ابادة وتصفية عرقية تعرض لها الغجر في أوروبا أثناء الحرب العالمية الثانية . في الفترة الممتدة من سنة 1933 حتى سنة 1945 في بولندا ورومانيا وألمانيا وفرنسا وتجاوز عدد القتلى 200 الف حسب احصاءات رسمية . [1][2][3] +question : في أي فترة جرت إبادة الغجر الروم ؟ +prompt : أجب عن السؤال التالي : في أي فترة جرت إبادة الغجر الروم ؟ الجواب هو +pred_answer : : خلال الحرب العالمية الثانية +answer : 1933 حتى سنة 1945 + +context : بريتني جين سبيرز ( ولدت في 2 ديسمبر 1981 ) ، هي مغنية أمريكية وكاتبة كلمات وممثلة من أصول بريطانية . ولدت في ميسيسبي , وترعرعت في لويزيانا , بريتني بدأت الغناء منذ أن كانت طفلة ، ممثلة رئيسية في المسرحيات المدرسية وفي التلفاز قبل أن وقعت عقدا مع جافا في 1997 . أول ألبومين لها " بيبي ون مور تايم " و " أوبس ! . . . آي ديد إت أقين " أخذا نجاحا هائلا في أنحاء العالم وجعلا سبيرز أعلى مغنية في سن المراهقة مبيعا في التاريخ . مع لقبها الخاص " أميرة البوب " ، وصفت سبيرز بأنها واحدة من اللذين أنعشوا وأعادوا موسيقى بوب المراهقين إلى الواجهة ، في أواخر التسعينات وبداية الألفية الثالثة . +question : متى ولدت بريتني سبيرز ؟ +prompt : أجب عن السؤال التالي : متى ولدت بريتني سبيرز ؟ الجواب هو في عام +pred_answer : 1996 ، عندما +answer : 2 ديسمبر 1981 + +context : الفلبين ( بالفلبينية : Pilipinas ) ، رسميا جمهورية الفلبين ، هي جمهورية دستورية تقع في جنوب شرق آسيا غرب المحيط الهادي . عبارة عن أرخبيل مكون من 7 , 641[1] جزيرة ، تحده تايوان إلى الشمال عبر مضيق لوزون ، وفيتنام إلى الغرب عبر بحر الصين الجنوبي . بحر سولو في الجنوب الغربي يفصلها عن جزيرة بورنيو وبحر سلبس إلى الجنوب يفصلها عن غيرها من الجزر في إندونيسيا . يحدها من الشرق بحر الفلبين . تصنف في ثلاثة أقسام جغرافية رئيسية هي لوزون وبيسايا ومنداناو . مانيلا هي العاصمة بينما المدينة الأكثر كثافة بالسكان هي كيزون وكلا المدينتين تعد جزء من مايطلق عليه ( مترو مانيلا ) . +question : كم يبلغ عدد جزر الفلبين ؟ +prompt : أجب عن السؤال التالي : كم يبلغ عدد جزر الفلبين ؟ الجواب هو +pred_answer : ما يلي : +answer : 7 641 + +context : تصغير | قارب في منطقة غابات الموصل والمطلة على نهر دجلة مدينة الموصل هي مركز محافظة نينوى وثاني أكبر مدينة في العراق من حيث السكان بعد بغداد ، حيث يبلغ تعداد سكانها حوالي 2 ونصف مليون نسمة . تبعد الموصل عن بغداد بمسافة تقارب حوالي 465 كلم . [1] تشتهر بالتجارة مع الدول القريبة مثل سوريا وتركيا . يتحدث سكان الموصل اللهجة الموصلية ( أو المصلاوية ) التي تتشابه بعض الشيء مع اللهجات السورية الشمالية ، ولهذه اللهجة الموصلية الدور الأكبر في الحفاظ على هوية المدينة . أغلبية سكان الموصل عرب مسلمون من طائفة السنة وينحدرون من ست قبائل رئيسية وهي شمر والجبور البوحمدان والدليم وطيء والسادة الحياليين ، وتتواجد فيها فروع بني هلال التي جاءت من مناطق جبال ماردين وطور عابدين في الإقليم المحلمي في جنوب شرق تركيا ، وفيها طوائف متعددة من المسيحيين الذين ينتمون إلى كنائس عدة ، وأقلية من الأكراد والتركمان والشبك لا يشكلون سوى 20 % من مجموع سكان الموصل ، أنشئ أكبر سد في العراق في الموصل ( سد الموصل ) . +question : ما هي ثاني أكبر مدينة في العراق من حيث السكان ؟ +prompt : أجب عن السؤال التالي : ما هي ثاني أكبر مدينة في العراق من حيث السكان ؟ الجواب هو +pred_answer : بغداد . +answer : الموصل + +context : اللغات الكنعانية ، هي عبارة عن مجموعة من اللغات السامية التي تنتمي إلى اللغات السامية الشمالية الغربية - الفرع الكنعاني . وقد انتشرت اللغات الكنعانية في أرض كنعان التي تشمل أساسا فلسطين والساحل الغربي للبنان والجنوب الغربي من سوريا على لسان الكنعانيين بعد هجرتهم إليها ، وكانت هذه اللغات عبارة عن مجموعة من اللهجات المتقاربة من بعضها البعض في الصفات اللغوية . +question : أين انتشرت اللغات الكنعانية ؟ +prompt : أجب عن السؤال التالي : أين انتشرت اللغات الكنعانية ؟ الجواب هو +pred_answer : في بلاد ما بين النهرين ( العراق حاليا ) +answer : فلسطين والساحل الغربي للبنان والجنوب الغربي من سوريا + +context : ظهر العصر البرونزي في الشرق الأدنى حوالي 3000 قبل الميلاد وحتى سنة 1200 قبل الميلاد ووصلت إلى أوروبا بين سنة 2500 و 2000 قبل الميلاد وظهر العصر البرونزي في أوروبا الغربية بين سنة 1800 قبل الميلاد وسنة 900 قبل الميلاد . +question : متى بدأ العصر البرونزي ؟ +prompt : أجب عن السؤال التالي : متى بدأ العصر البرونزي ؟ الجواب هو في عام +pred_answer : 3200 قبل الميلاد +answer : 3000 قبل الميلاد + +context : السلطان الملك الظاهر سيف الدين برقوق بن انس بن عبد الله الشركسي ، ولد في القفقاس عام 1340 م ( 740 ه ) وقدم للقاهرة وعمره 20 عاما ليلتحق بالجيش المصري حيث أتقن فنون الحرب والفروسية ، وترقى في المناصب العسكرية ورتب الإمارة حيث أصبح أمير طبلخانه ، ثم أمير آخور ثم أتابكا عام 779 ه . +question : من هو الظاهر سيف الدين برقوق ؟ +prompt : أجب عن السؤال التالي : من هو الظاهر سيف الدين برقوق ؟ الجواب هو +pred_answer : السلطان المملوكي الناصر محمد بن قلاوون ، الذي حكم مصر +answer : أمير طبلخانه ثم أمير آخور ثم أتابكا + +context : بومبي أو م يي هي مدينة رومانية كان يعيش فيها حوالي عشرون ألف نسمة ، واليوم لم يبق من المدينة إلا آثارها القديمة . تقع المدينة على سفح جبل بركان فيزوف الذي يرتفع 1 , 200 مترا عن سطح البحر ، بالقرب من خليج نابولي في إيطاليا . +question : أين تقع مدينة بومبي ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة بومبي ؟ الجواب هو +pred_answer : في إيطاليا +answer : إيطاليا + +context : نيكولاس مادورو موروس ( ولد في 23 نوفمبر 1962 ، كاراكاس ) سياسي فنزويلي ، شغل منصب وزير خارجية فينزويلا بين 2006 – 2013 . وفي سنة 2012 عين كنائب للرئيس هوغو تشافيز ، [1] وأنتخب رئيسا لفنزويلا في 14 أبريل 2013 . +question : من هو نيكولاس مادورو ؟ +prompt : أجب عن السؤال التالي : من هو نيكولاس مادورو ؟ الجواب هو +pred_answer : الرئيس الفنزويلي هوغو تشافيز . +answer : سياسي فنزويلي + +context : أرنولد ألويس شوارزنيجر ( ولد في 8 أغسطس 1947 ، في ستيريا ، النمسا ) لاعب كمال أجسام ، وممثل ، وسياسي جمهوري أمريكي من أصل نمساوي . حاكم ولاية كاليفورنيا الأمريكية الثامن والثلاثون . +question : من هو أرنولد شوارزنيجر ؟ +prompt : أجب عن السؤال التالي : من هو أرنولد شوارزنيجر ؟ الجواب هو +pred_answer : رجل أعمال وسياسي أمريكي ، شغل منصب حاكم ولاية كاليفورنيا بين عامي 1994 و 2001 .ولد أر +answer : لاعب كمال أجسام وممثل وسياسي جمهوري أمريكي من أصل نمساوي حاكم ولاية كاليفورنيا الأمريكية الثامن والثلاثون + +context : باولو كويلو هو روائي وقاص برازيلي ولد ( 24 اغسطس 1947 ) . يؤلف حاليا القصص المحررة من قبل العامة عن طريق الفيس بوك . تتميز رواياته بمعنى روحي يستطيع العامة تطبيقه مستعملا شخصيات ذوات مواهب خاصة ، لكن متواجدة عند الجميع . كما يعتمد على أحداث تاريخية واقعية لتمثيل أحداث قصصه . و عين سنة 2007 رسول السلام التابع للأمم المتحدة . تعد الخيميائي أشهر رواياته وتمت ترجمتها إلى 80 لغة ووصلت مبيعاتها إلى 150 مليون نسخة في جميع انحاء العالم . +question : من هو باولو كويلو ؟ +prompt : أجب عن السؤال التالي : من هو باولو كويلو ؟ الجواب هو +pred_answer : أنه كاتب برازيلي ولد عام 1947 في مدينة +answer : روائي وقاص برازيلي ولد 24 اغسطس 1947 + +context : الإيدز[1] أو السيدا أو التنقصم[2] ( نحت تناذر نقص المناعة المكتسبة ) [2] أو متلازمة نقص المناعة المكتسبة ( بالإنجليزية : AIDS ؛ وبالفرنسية : SIDA ) هو مرض يصيب الجهاز المناعي البشري ويسببه فيروس نقص المناعة البشرية فيروس إتش أي في ( HIV ) وتؤدي الإصابة بهذه الحالة المرضية إلى التقليل من فاعلية الجهاز المناعي للإنسان بشكل تدريجي ليترك المصابين به عرضة للإصابة بأنواع من العدوى الانتهازية والأورام . وينتقل فيروس نقص المناعة إلى المصاب عن طريق حدوث اتصال مباشر بين غشاء مخاطي أو مجرى الدم وبين سائل جسدي يحتوي على هذا الفيروس مثل : الدم أو السائل المنوي للرجل أو السائل المهبلي للأنثى أو المذي أو لبن الرضاعة الطبيعية . [3][4] من ثم ، يمكن أن ينتقل هذا الفيروس من خلال الاتصال الجنسي غير الآمن[5] سواء الشرجي أو المهبلي أو الفموي ، أو من خلال عملية نقل الدم ، أو من خلال إبر الحقن الملوثة بهذا الفيروس ، أو يمكن أن ينتقل من الأم إلى جنينها خلال مرحلة الحمل أو الولادة أو الرضاعة أو من خلال أي عملية تعرض أخرى لأي من السوائل الجسدية سالفة الذكر . ويعتبر مرض الإيدز حاليا جائحة ( من الأمراض الوبائية والمتفشية ) . ففي عام 2007 ، تم تقدير عدد المصابين الأحياء بهذا المرض حول العالم بنحو 33 . 2 مليون شخص . كذلك ، فإن هذا المرض قد أودى بحياة ما يقدر بحوالي 2 . 1 مليون شخص من بينهم 330 , 000 ألف طفل . وقد ظهر أن ما يزيد عن ثلاثة أرباع هذه الوفيات تحدث في ذلك الجزء من القارة الأفريقية الذي يقع جنوب الصحراء الكبرى . مما يعيق تحقيق النمو الاقتصادي ويدمر رأس المال البشري . +question : ما هو سبب مرض الأيدز ؟ +prompt : أجب عن السؤال التالي : ما هو سبب مرض الأيدز ؟ الجواب هو +pred_answer : أن فيروس +answer : فيروس + +context : حنا مينه ( 9 آذار 1924 - 21 آب 2018 ) ، روائي سوري ولد في مدينة اللاذقية . والدته اسمها مريانا ميخائيل زكور ، ساهم في تأسيس رابطة الكتاب السوريين واتحاد الكتاب العرب . ويعد حنا مينه أحد كبار كتاب الرواية العربية . [1] وتتميز رواياته بالواقعية [2] +question : متى توفي الروائي حنا مينه ؟ +prompt : أجب عن السؤال التالي : متى توفي الروائي حنا مينه ؟ الجواب هو في عام +pred_answer : ( 1924 ) +answer : 21 آب 2018 + +context : تصغير | صورة فضائية تظهر دلتا النيل المصرية دلتا النيل هي دلتا تكونت في شمال مصر ( الوجه البحري ) حيث يتفرع النيل إلى فرعين يصبان في البحر المتوسط . فرع دمياط في الشرق وينتهي بمدينة دمياط وفرع رشيد في الغرب وينتهي عند مدينة رشيد . وهي واحدة من أكبر الدلتا في العالم - تمتد من بورسعيد في الشرق حتى الإسكندرية في الغرب وسميت بالدلتا لانها تشبة المثلث . وهي تشغل مسافة مساحة 240 كيلومتر على ساحل البحر المتوسط . وتتميز الدلتا بالأراضي الزراعية الخصبة الصالحة للزراعة في أي وقت . يبلغ طول الدلتا من الشمال للجنوب حوالي 160 كم . وتبدأ الدلتا من الجنوب بالقرب من مدينة القاهرة عند القناطر الخيرية . +question : ما هي المنطقة التي يتفرع فيها نهر النيل لفرعية فرع رشيد وفرع دمياط ؟ +prompt : أجب عن السؤال التالي : ما هي المنطقة التي يتفرع فيها نهر النيل لفرعية فرع رشيد وفرع دمياط ؟ الجواب هو +pred_answer : : منطقة +answer : البحر المتوسط + +context : لوحة مرنبتاح المعروفة أيضا ب بلوحة انتصار مرنبتاح ، وهي لوحة تذكارية لملك مصر مرنبتاح الذي حكم مصر بين 1213 - 1203 قبل الميلاد ، وهي لوح سميك من حجر الجرانيت تذكر انتصار الملك أمنحتب الثالث في بلاد الشام ومن ضمنها قبائل إسرائيل . وقد اكتشفها المؤرخ " فلندرز بيتري " في طيبة - الأقصر حاليا - عام 1896 بعد الميلاد . [1] +question : ما هي لوحة مرنبتاح ؟ +prompt : أجب عن السؤال التالي : ما هي لوحة مرنبتاح ؟ الجواب هو +pred_answer : أن هذه اللوحة التي عثر عليها في سقارة عام 1872 م ، تعتبر من أهم الاكتشافات الأثرية في تاريخ مصر القديم ، وهي عبارة عن لوحتين منحوتتين على هيئة صقرين +answer : لوحة تذكارية لملك مصر مرنبتاح الذي حكم مصر بين 1213 1203 قبل الميلاد وهي لوح سميك من حجر الجرانيت تذكر انتصار الملك أمنحتب الثالث في بلاد الشام ومن ضمنها قبائل إسرائيل + +context : الدكتور جريجوري بنكوس ( 22 أغسطس 1967 9 أبريل 1903 ) عالم احياء وباحث أمريكي وقد شارك في اختراع حبوب منع الحمل وعلى الرغم أنه لم يكن رجلا مشهورا فان الاثر الذي تركه في العالم كله اقوي من اثر اي إنسان اخر مشهور . [1] +question : من مخترع حبوب منع الحمل ؟ +prompt : أجب عن السؤال التالي : من مخترع حبوب منع الحمل ؟ الجواب هو +pred_answer : العالم الفرنسي لويس باستور +answer : جريجوري بنكوس + +context : بعد 3 سنوات مع الفريق الالمانى ( بداية من موسم 2010 حتى موسم 2012 ) وبالتحديد في 4 اكتوبر 2012 ، عن عمر يناهز 44 عاما ، قرر اعلان اعتزاله الثاني للمنافسات الرسمية . +question : متى إعتزل مايكل شوماخر سياقة السيارات ؟ +prompt : أجب عن السؤال التالي : متى إعتزل مايكل شوماخر سياقة السيارات ؟ الجواب هو في عام +pred_answer : 2006 ، عندما +answer : 4 اكتوبر 2012 + +context : ساموا أو رسميا دولة ساموا المستقلة ( بالساموية : Malo Sa oloto Tuto atasi o S moa ) ، وعرفت سابقا باسم ساموا الغربية أو ساموا الألمانية ، هي دولة تضم القسم الغربي من جزر ساموا في جنوبي المحيط الهادئ . نالت استقلالها عن نيوزيلندا عام 1962 . الجزيرتان الرئيسيتان في البلاد هما أوبولو وسافاي والتي هي من أكبر الجزر البولينيزية . تقع عاصمة البلاد أبيا ومطار فاليولو الدولي على جزيرة أوبولو . +question : ماهى عاصمة دولة ساموا ؟ +prompt : أجب عن السؤال التالي : ماهى عاصمة دولة ساموا ؟ الجواب هو +pred_answer : : مدينة +answer : أبيا + +context : الولايات المتحدة الأمريكية هي جمهورية اتحادية تتكون من 50 ولاية بالإضافة إلى مقاطعة فيدرالية واحدة ( واشنطن العاصمة ) . [1] تعتبر الولاية هي التقسيم الرئيسي للدولة وتمتلك عددا من الصلاحيات والحقوق المنصوص عليها في دستور الولايات المتحدة ، مثل تنظيم التجارة والتعاون بين الولايات ، إدارة الانتخابات ، إنشاء الحكومات المحلية ، والتصديق على التعديلات الدستورية . بموجب التعديل العاشر للدستور ، يمكن للولايات ممارسة جميع الصلاحيات الغير مفوضة إلى الحكومة الاتحادية . [2] كل ولاية تمتلك إدارة خاصة بها والتي تتألف من سلطة تنفيذية وسلطة تشريعية وسلطة قضائية . [3] كل ولاية يمثلها عدد من النواب في الكونغرس - وهو هيئة تشريعية تتكون من مجلسين : مجلس الشيوخ ومجلس النواب . يتم تمثيل كل ولاية من قبل اثنين من الأعضاء في مجلس الشيوخ ، في حين ان مجلس النواب يكونه عدد من الأعضاء لكل ولاية وفقا إلى إجمالي سكانها . [4] المقاطعات الفدرالية ليس لها ممثلين في مجلس الشيوخ ، في حين لديها مندوب في مجلس النواب لكن لا تمتلك حق التصويت ، كل ولاية لها عدد من الناخبين في المجمع الإنتخابي وهي الهيئة التي تنتخب رئيس الولايات المتحدة . [5] وفقا للدستور الأمريكي يحق للكونغرس قبول ضم المزيد من الولايات إلى الاتحاد ، ولكن لا يمكنه إنشاء ولاية جديدة من أراضي ولاية قائمة أو دمج اثنين أو أكثر من الولايات لتصبح واحدة من دون موافقة جميع الولايات المعنية . [6] +question : كم عدد الولايات في الولايات المتحدة الأمريكية ؟ +prompt : أجب عن السؤال التالي : كم عدد الولايات في الولايات المتحدة الأمريكية ؟ الجواب هو +pred_answer : ( +answer : 50 + +context : تقدم جورج ديفول سنة 1954 على براءة أختراع لتصنيع ذراع روبوت وقد منح البراءة سنة 1961 . قام جورج بالتعاون مع جوزيف إنغلبيرغ بافتتاح شركة لإنتاج الروبوتات تحت اسم Unimation اي تحريك سنة 1956 . وقد اعتمدت الروبوتات المنتجة على نموذج جورج ديفول الأساسي وقد دعيت هذه الروبوتات في ذلك الزمان باسم آلات النقل المبرمجة ، بسبب كون وظيفتها في نقل الأجسام من مكان إلى آخر . وقد استخدموا مشغل هيدروليكي . كما قام ببرمجة المفاصل وفق الإحداثيات ، على سبيل المثال تخزين زوايا المفاصل أثناء التعليم ثم إعادة تكرارها أثناء التشغيل . قامت شركت أنيميشن بترخيص إنتاجها إلى شركة هواساكي للصناعة الثقيلة في اليابان وشركة غويستنيتفولد في إنكلترا . لينتج أنيميشن في اليابان وانكلترا على التوالي . لتبدأ التغيرات في سنة 1970 عندما بدأت التكتلات الاقتصادية الكبرى في اليابان بإنتاج روبوتات صناعية +question : متى تم إستعمال الروبوت في المصانع ؟ +prompt : أجب عن السؤال التالي : متى تم إستعمال الروبوت في المصانع ؟ الجواب هو في عام +pred_answer : ١٩٥ +answer : 1956 + +context : قانون الجذب العام لنيوتن ، أو كما يعرف اختصارا ب < b data - parsoid = ' { " dsr " : [235 , 258 , 3 , 3] } ' > قانون الجذب العام ، أو قانون التجاذب الكوني ، هو قانون فيزيائي استنباطي ينص على أنه " توجد قوة تجاذب بين أي جسمين في الكون ، تتناسب طرديا مع حاصل ضرب كتلتيهما ، وعكسيا مع مربع المسافة بين مركزيهما " . [1][2][3] وحدتها N { \ displaystyle { N } } +question : ما هو قانون الجذب العام لنيوتن ؟ +prompt : أجب عن السؤال التالي : ما هو قانون الجذب العام لنيوتن ؟ الجواب هو +pred_answer : : إن قانون الجذب ينص على +answer : الجذب العام أو قانون ال + +context : جولي إيزابيل بيشوب ( من مواليد 17 يوليو 1956 ) سياسية أسترالية ، تتولى منصب وزيرة الخارجية منذ عام 2013 ونائبة زعيم الحزب الليبرالي منذ عام 2007 . +question : من هي جولي إيزابيل بيشوب ؟ +prompt : أجب عن السؤال التالي : من هي جولي إيزابيل بيشوب ؟ الجواب هو +pred_answer : أنها واحدة من +answer : سياسية أسترالية + +context : Coordinates : تصغير | بحر مرمرة كما يبدو من مدينة إسطنبول ويظهر فنار . بحر مرمرة بحر داخلي يربط البحر الأسود ببحر إيجة ويفصل الجزء الآسيوي لتركيا عن جزئها الأوروبي فتطل عليه مدينة إسطنبول . [1][2][3] يتصل بحر مرمرة بالبحر الأسود عن طريق مضيق البسفور وببحر إيجة عن طريق مضيق الدردنيل . تصل مساحته الإجمالية لحوالي 11 . 350 و يبلغ طوله حوالي 225 كم أما عرضه 65 كم عند أقصى اتساع له ، ومتوسط ملوحته هي 22 جزءا في الألف ، وهذه نسبة أعلى من نسبة ملوحة البحر الأسود . +question : ما هو الممر المائي الذي يربط بحر إيجة ببحر مرمرة ؟ +prompt : أجب عن السؤال التالي : ما هو الممر المائي الذي يربط بحر إيجة ببحر مرمرة ؟ الجواب هو +pred_answer : مضيق الدردنيل +answer : مضيق الدردنيل + +context : هيما ماليني ولدت في السادس عشر من أكتوبر 1948 هي ممثلة ومنتجة ومخرجة هندية وراقصة كلاسيكية ومصممة رقصات وسياسية هندية والمعروفة في ادائها الادوار في بوليود كثرت افلام افلامها مع اميتاب باتشن ودارمندرا و شاشي كابور و راجيش خانا ومع المخرج ياش شوبرا وأشهر ادوارها كان بسنتي في الشعلة وغيتا وسيتا في فيلم غيتا وسيتا الذي حصلت في على جائزة أفضل ممثلة لسنة 1973 في حفل جوائز فيلمفير الهندية تعتبر هيما أحد انجح نجوم بوليود والهند فقد شاركة في ما يقارب 150 فيلم طوال مسيرة قدرت ب 40 عام رشحت هيما ماليني ل 11 جائزة أفضل ممثلة فيلمفير وفي عام 2000 حصلت على الانجاز مدى الحياة من فيلمفير كما حصلت في نفس العالم على الوسام الهندي الرابع بادما شري كما اختيرت أفضل ممثلة في السبعينات من القرن العشرين في بوليود تزوجت من دارمندرا وانجبت منه طفلتين ايشا واهنا ديول كما تعتبر أفضل راقصة في تاريخ السينما الهندية +question : متى ولدت الممثلة هيما ماليني ؟ +prompt : أجب عن السؤال التالي : متى ولدت الممثلة هيما ماليني ؟ الجواب هو في عام +pred_answer : 1979 ، عندما كانت تبلغ من +answer : السادس عشر من أكتوبر 1948 + +context : يبلغ عدد سكان إيران حاليا ما يقارب 79 مليون نسمة ، [1] ربعهم تحت عمر 15 سنة . ويسكن معظمهم في جنوب بحر قزوين وفي شمال غرب إيران . أكبر مدن إيران حسب احصائية عام 2011 في إيران هي طهران ( 8 ، 154 ، 051 ) ثم مشهد ( 2 ، 749 ، 374 ) ثم أصفهان ( 1 ، 756 ، 126 ) ثم كرج ( 1 ، 614 ، 626 ) ثم تبريز ( 1 ، 494 ، 988 ) ثم شيراز ( 1 ، 460 ، 665 ) . [2] +question : ماهو تعداد سكان إيران ؟ +prompt : أجب عن السؤال التالي : ماهو تعداد سكان إيران ؟ الجواب هو +pred_answer : أن عدد سكان +answer : 79 مليون نسمة + +context : إدارة الموارد البشرية هي إدارة القوى العاملة للمنظمات أو الموارد البشرية . وتختص بجذب الموظفين ، والاختيار ، التدريب ، التقييم ومكافئة الموظفين ، وأيضا متابعة قيادة المنظمة والثقافة التنظيمية والتأكد من الإمتثال بقوانين العمل . في حالات يكون الموظفين راغبين في إجراء مفاوضات جماعية ، إدارة الموارد البشرية يكون دورها التواصل المبدئي مع ممثلي الموظفين ( في العادة إتحادات العمال ) . +question : ما هي إدارة الموارد البشرية ؟ +prompt : أجب عن السؤال التالي : ما هي إدارة الموارد البشرية ؟ الجواب هو +pred_answer : أنها عملية إدارية تقوم على تخطيط وتنظيم وتنسيق +answer : إدارة القوى العاملة للمنظمات أو الموارد البشرية + +context : القرامطة نسبة للدولة القرمطية التي انشقت عن الدولة الفاطمية وقامت إثر ثورة اجتماعية وأخذت طابعا دينيا . انشأ القرامطة دولتهم في محافظة الأحساء الحالية في شرق السعودية . يعدها بعض الباحثين من أوائل الثورات الاشتراكية في العالم . اشتهر القرامطة أساسا بفضل ثورتهم ضد الخلافة العباسية . +question : من هم القرامطة ؟ +prompt : أجب عن السؤال التالي : من هم القرامطة ؟ الجواب هو +pred_answer : أنهم فرقة باطنية تنتسب إلى رجل اسمه حمدان قرمط ، ظهر في البحرين +answer : نسبة للدولة القرمطية التي انشقت عن الدولة الفاطمية وقامت إثر ثورة اجتماعية وأخذت طابعا دينيا + +context : داء قلبي إقفاري أو مرض نقص تروية القلب هو مرض يتميز بنقص الأوكسجين ( انخفاض إمدادات الدم ) في عضلة القلب ، عادة ما يرجع إلى داء شريان القلب التاجي ( تصلب عصيدي للشرايين التاجية ) . يزيد من مخاطره التقدم بالسن ، التدخين ، فرط كوليسترول الدم ( ارتفاع مستويات الكولسترول ) ، السكري ، فرط ضغط الدم وهو أكثر شيوعا لدى الرجال والذين لديهم أقارب يعانون منه . +question : ما هو الداء القلبي الإقفاري ؟ +prompt : أجب عن السؤال التالي : ما هو الداء القلبي الإقفاري ؟ الجواب هو +pred_answer : : داء قلبي إقفاري ( Ischemic +answer : مرض يتميز بنقص الأوكسجين انخفاض إمدادات الدم في عضلة القلب + +context : يوجد لها غده تشبه الكلي العلجوم أو ضفدع الطين هو حيوان برمائي غير مصنف من رتبة عديم الذيل . [1][2][3] العلجوم له عدة عائلات مثل Bufonidae علجوم حقيقي عادة ما يختلط على غير الخبراء فلا يميزون بينه وبين الضفدع نظرا لتشابهما في الشكل لكن في واقع الحال يختلف العلجوم عن الضفدع بميله للعيش في المناطق البرية لذلك له جسم صلب وجلد ثخين ولون بني كي يتحمل الحرارة ويموه نفسه في البيئة المحيطة وأرجل العلجوم قصيرة مهيأة أكثر للمشي وهو فاقد القدرة على القفز خلافا للضفدع تميل العلاجم للحفر لوضع بيوضها التي تنزل على شكل سلسلة بينما الضفدع يضع بيضه في المياه على هيئة كتلة واحدة . ( ( يطلق اسم علجوم أيضا على ذكر البط و الاتان الكثيرة اللحم العلجوم الماء الغمر الكثير ) ) +question : ما هو ضفدع الطين ؟ +prompt : أجب عن السؤال التالي : ما هو ضفدع الطين ؟ الجواب هو +pred_answer : أن هذا النوع من الضفادع يعيش في المستنقعات +answer : حيوان برمائي غير مصنف من رتبة عديم الذيل + +context : ألكايون من كروتوني ( في ماجنا غراسيا ) ( lk mi n ؛ ، Alkmai n ، gen . : ؛ القرن الخامس قبل الميلاد ) هو أحد أكثر الفلاسفة كان أحد أهم فلاسفة الطبيعة البارزين والمنظرين الطبيين في العصور القديمة . كان اسم أبوه بييريثوس . قال البعض أنه كان تلميذا لفيثاغورس ، ويعتقد بأنه ولد عام 510 قبل الميلاد . [1] على الرغم من أنه كتب مواضيع طبية في المقام الأول ، ثمة آراء تقول بأنه كان فيلسوف علمي ، وليس طبيبا . كما أنه مارس علم التنجيم وعلم الأرصاد الجوية . ولا يعرف عن حياته أي شيء آخر . [2] +question : من هو ألكمايون الكروتوني ؟ +prompt : أجب عن السؤال التالي : من هو ألكمايون الكروتوني ؟ الجواب هو +pred_answer : : الكمايون الكارتوني ( بالإنجليزية : Carton Cardinal ) +answer : أحد أهم فلاسفة الطبيعة البارزين والمنظرين الطبيين في العصور القديمة + +context : أبو عامر محمد بن أبي عامر ( 327 - 392 ه 938 - 1002 م ) ، المشهور بلقب الحاجب المنصور حاجب الخلافة والحاكم الفعلي للخلافة الأموية في الأندلس في عهد الخليفة هشام المؤيد بالله . بدأ محمد بن أبي عامر حياته السياسية وتدرج في المناصب منذ عهد الخليفة الحكم المستنصر بالله ، وكان على علاقة وطيدة بزوجة الخليفة صبح البشكنجية أم الخليفة هشام المؤيد بالله ، والتي كانت وصية على عرش ولدها بعد وفاة زوجها الحكم . عاونت صبح الحاجب المنصور على إقصاء جميع منافسيه ، وهو وما أحسن استغلاله لأبعد مدى ، بل وذهب إلى أبعد من ذلك بأن حجر على الخليفة الصبي ، وقيد سلطته هو وأمه . وبتمكن الحاجب المنصور من مقاليد الحكم التفت إلى توسع الدولة شمالا ، فحرك بحملاته العسكرية حدود الممالك المسيحية في الشمال إلى ما وراء نهر دويرة ، [1] فبلغت الدولة الأموية في الأندلس أوج قوتها في عهده . +question : متى ولد أبو عامر محمد بن أبي عامر ؟ +prompt : أجب عن السؤال التالي : متى ولد أبو عامر محمد بن أبي عامر ؟ الجواب هو +pred_answer : : في +answer : 938 + +context : الخطوط الجوية المتحدة أو يونايتد إيرلاينز هي شركة الطيران وطنية أمريكية ، تأسست سنة 1927 ، يقع المقر الرئيسي للشركة في مدينة شيكاغو الأمريكية ، وهي شركة من ضمن الشركات التابعة لمؤسسة يونايتد إيرلاينز القابضة ، تقدم يونايتد إيرلاينز خدماتها لأكثر من 200 وجهة حول العالم ، وتعد الشركة عضو في تحالف ستار . +question : متى تأسست شركة يونايتد إيرلاينز للطيران ؟ +prompt : أجب عن السؤال التالي : متى تأسست شركة يونايتد إيرلاينز للطيران ؟ الجواب هو في عام +pred_answer : 1933 ، +answer : 1927 + +context : في 1820 تعلن عدة بعثات انها هي من راى أنتاركتيكا لاول مرة . أول من هبط على انتاركتيكا كان كابتن باخرة أمريكية لصيد الفقمات وهو جون ديفيس في 1821 . وحين وصل المستكشفون إلى مركز أنتاركتيكا جاء دور القطب الجنوبي لاستقطاب المستكشفين . بعد عدة محاولات غير مثمرة وعدة ضحايا وصل النرويجي روألد أمندسن إلى مركز القارة في 1911 . كان منافسه في هدا السباق البريطاني روبرت فالكون سكوت قد لقي حتفه محاولا دلك . و ن أقل درجة حرارة مسجلة في الطبيعة في الأرض هي 89 . 2 - ( 128 . 6 - فهرنهايت ) وتم تسجيلها في 21 يوليوز 1983 في محطة فوستوك . +question : متى تم إكتشاف قارة أنتاركتيكا ؟ +prompt : أجب عن السؤال التالي : متى تم إكتشاف قارة أنتاركتيكا ؟ الجواب هو في عام +pred_answer : 1769 +answer : 1820 + +context : يتفق المؤرخون على أن سلالة الأباطرة البيزنط تبدأ بالإمبراطور الروماني قسطنطين الأول ، الذي كان أول من اعتنق المسيحية من حكام تلك الدولة ، وسبب جعل السلالة تبدأ به يعود إلى أن الإمبراطورية البيزنطية تميزت عن الرومانية بكونها مسيحية منذ البداية ، كما أن الإمبراطور المذكور أعاد بناء مدينة بيزنطة العتيقة ، التي شيدها الإغريق حوالي سنة 657 ق . م ، ونقل مركز العاصمة إليها ، فسميت باسمه لاحقا وأصبحت « القسطنطينية » ، كما أن الأباطرة اللاحقون نظروا إلى قسطنطين المذكور باعتباره الحاكم الأمثل ، واتخذوه قدوة لهم . وباختصار ، فإن السبب الذي يجعل من قسطنطين المؤسس الفعلي لهذه الدولة ، هو أن سماتها الثقافية والحضارية المميزة التي تفرقها عن الإمبراطورية الرومانية ظهرت وتبلورت في عهده : فنظام حكمها روماني إمبراطوري تمركز في القسطنطينية وسط محيط شرقي يوناني وثقافة شرقية هيمنت عليها وهضمت مظاهرها اللاتينية ، وكانت المسيحية دينها منذ البداية ، عكس الرومانية التي كانت الوثنية دينها ثم تنصرت . +question : ما هو أول أمبراطور للإمبراطورية البيزنطية ؟ +prompt : أجب عن السؤال التالي : ما هو أول أمبراطور للإمبراطورية البيزنطية ؟ الجواب هو +pred_answer : قسطنطين الأول ، الذي حكم الإمبراطورية +answer : الإمبراطور الروماني قسطنطين الأول + +context : الانتداب الفرنسي على سورية أو الاستعمار الفرنسي ، ، هو الحالة التي شكلت النظام الأعلى للسياسة والمجتمع في سورية منذ أن هزمت قوات المملكة السورية العربية الضعيفة التسليح والعدد في معركة ميسلون في 24 تموز عام 1920 ، وحتى تمام جلاء القوات الفرنسية عن كامل التراب السوري يوم 17 نيسان عام 1946 ، والذي غدا اليوم الوطني السوري ، وقد أقرت عصبة الأمم الانتداب رسميا عام 1922 . +question : في أي عام حصل الانتداب الفرنسي على سوريا ولبنان ؟ +prompt : أجب عن السؤال التالي : في أي عام حصل الانتداب الفرنسي على سوريا ولبنان ؟ الجواب هو في عام +pred_answer : 1920 م +answer : 24 تموز عام 1920 + +context : المسيحيون الأردنيون هم من أقدم المجتمعات المسيحية في العالم . [1] حيث انتشروا في الأردن في بدايات القرن الأول الميلادي . وفقا لبي بي سي تتراوح أعداد مسيحيي الأردن من 174 , 000 إلى 390 , 000 نسمة ، أو 3 - 6 % من عدد سكانها البالغ حوالي 8 . 5 مليون ، [2] مقارنة بحوالي 20 % في عام 1930 . يرجع هذا الإنخفاض إلى حد كبير إلى انخفاض معدلات المواليد المسيحيين مقارنة مع المسلمين ، وإلى تدفق قوي من المهاجرين المسلمين من الدول المجاورة . بالإضافة إلى هجرة المسيحيين العالية مقارنة بالمسلمين ، حيث عزى البعض ذلك إلى التسهيلات المقدمة من بعض السفارات الغربية لبعض مسيحيي الشرق . [3][4] +question : كم عدد المسيحيون الأردنيون ؟ +prompt : أجب عن السؤال التالي : كم عدد المسيحيون الأردنيون ؟ الجواب هو +pred_answer : مليونان ونصف المليون ، أي ما نسبته +answer : 174 000 إلى 390 000 + +context : تقع على الحدود بين سويسرا وفرنسا تم تأسيسها في عام 1952 وكان اسمها آنذاك " القنصلية الأوروبية للأبحاث النووية " ، ثم في تاريخ 29 سبتمبر 1954 تغير اسمها إلى " المنظمة الأوروبية للأبحاث النووية " ، وبلغ عدد الدول الأعضاء 20 ، وكانت بداية ولادة شبكة الويب العالمية الإنترنت فيها ، وقد بنت واحدا من أكبر معجلات الجسيمات في العالم ، وقد اكتشف عالمان فيها جسيم w وجسيم z وحازا بفضل هذا الاكتشاف على جائزة نوبل في الفيزياء . +question : اين توجد مختبرات سيرن ؟ +prompt : أجب عن السؤال التالي : اين توجد مختبرات سيرن ؟ الجواب هو +pred_answer : في مدينة ليون الفرنسية . +answer : على الحدود بين سويسرا وفرنسا + +context : التطعيم هو عبارة عن حقنه تحتوي على كائنات مجهرية ( فيروسات ، بكتيريا . . إلخ ) لها دور في أمراض معينه تحقن إلى داخل الجسم لاكتساب مناعة ضد الأمراض التي تسببها تلك الكائنات المجهرية . +question : ما هو التطعيم في الطب ؟ +prompt : أجب عن السؤال التالي : ما هو التطعيم في الطب ؟ الجواب هو +pred_answer : أنه عبارة عن مجموعة من التطعيمات التي +answer : عبارة عن حقنه تحتوي على كائنات مجهرية + +context : مشروع مارشال هو المشروع الاقتصادي لإعادة تعمير أوروبا بعد انتهاء الحرب العالمية الثانية الذي وضعه الجنرال جورج مارشال رئيس هيئة أركان الجيش الأميركي أثناء الحرب العالمية الثانية ووزير الخارجية الأميركي منذ يناير 1947 والذي اعلنه بنفسه في 5 يونيو من ذلك عام ( 1947 ) في خطاب امام جامعة هارفارد وكانت الهيئة التي اقامتها حكومات غرب أوروبا للاشراف على إنفاق 12 . 9925 مليار دولار أميركي قد سميت " منظمة التعاون والاقتصادي الاوربي " وقد ساهمت هذة الأموال في إعادة اعمار وتشغيل الاقتصاد والمصانع الاوربية . [1][2][3] +question : ما هو مشروع مارشال ؟ +prompt : أجب عن السؤال التالي : ما هو مشروع مارشال ؟ الجواب هو +pred_answer : أن الولايات المتحدة الأميركية ، بعد انتهاء الحرب العالمية الثانية ، قررت إعادة إعمار أوروبا الغربية التي دمرتها الحرب .ومن أجل تحقيق هذا الهدف +answer : المشروع الاقتصادي لإعادة تعمير أوروبا بعد انتهاء الحرب العالمية الثانية الذي وضعه الجنرال جورج مارشال رئيس هيئة أركان الجيش الأميركي أثناء الحرب العالمية الثانية + +context : سلطان محمد أوزبك ، المعروف باسم أوزبك خان ( 1282 - 1341 ) ، استمر عهده من 1313 حتى 1341 ، والتي كانت أطول فترة حكم لخانات من القبيلة الذهبية ، التي بلغت ذروتها في عهده . خلفه ابنه جاني بيج . +question : من هو أوزبك خان ؟ +prompt : أجب عن السؤال التالي : من هو أوزبك خان ؟ الجواب هو +pred_answer : تيمورلنك ، مؤسس الدولة التيمورية في القرن الثالث عشر الميلادي . وقد كان تيمورلن +answer : استمر عهده من 1313 حتى 1341 والتي كانت أطول فترة حكم لخانات من القبيلة الذهبية + +context : إنديانا هي ولاية أمريكية تقع في مناطق الغرب الأوسط والبحيرات الكبرى في أمريكا الشمالية . ترتيب إنديانا هو الثامن والثلاثين من حيث المساحة والسادس عشر من حيث عدد السكان بين الولايات الأمريكية الخمسين . عاصمتها وأكبر مدنها هي إنديانابوليس . وقد أدخلت إنديانا في الاتحاد في 11 ديسمبر 1816 وكان ترتيبها التاسع عشر . +question : ما هي عاصمة ولاية إنديانا الأمريكية ؟ +prompt : أجب عن السؤال التالي : ما هي عاصمة ولاية إنديانا الأمريكية ؟ الجواب هو +pred_answer : أن الولاية تقع في +answer : إنديانابوليس + +context : الفيروس الموجه للعصب هو الفيروس القادر على عدوى الخلايا العصبية ، أو الذي يفعل ذلك بشكل تفضيلي . [1] +question : ما هو الفيروس الموجه للعصب ؟ +prompt : أجب عن السؤال التالي : ما هو الفيروس الموجه للعصب ؟ الجواب هو +pred_answer : أنه فيروس يصيب الجهاز العصبي المركزي ( الدماغ والنخاع الشوكي ) . +answer : الفيروس القادر على عدوى الخلايا العصبية أو الذي يفعل ذلك بشكل تفضيلي + +context : الصحراء الغربية هي منطقة متنازع عليها تقع في المغرب العربي وتحديدا في منطقة شمال أفريقيا ، حيث يسيطر عليها المغرب الذي تتهمه " دولة " الجمهورية الصحراوية باحتلال تلك المنطقة . +question : أين تقع الصحراء الغربية ؟ +prompt : أجب عن السؤال التالي : أين تقع الصحراء الغربية ؟ الجواب هو +pred_answer : في المغرب ، +answer : شمال أفريقيا + +context : المسجد الحرام هو أعظم مسجد في الإسلام ويقع في قلب مدينة مكة غرب المملكة العربية السعودية ، تتوسطه الكعبة المشرفة التي هي أول بيت وضع للناس على وجه الأرض ليعبدوا الله فيه تبعا للعقيدة الإسلامية ، وهذه هي أعظم وأقدس بقعة على وجه الأرض عند المسلمين . والمسجد الحرام هو قبلة المسلمين في صلاتهم ، وإليه يحجون . سمي بالمسجد الحرام لحرمة القتال فيه منذ دخول النبي المصطفى إلى مكة المكرمة منتصرا . ويؤمن المسلمون أن الصلاة فيه تعادل مئة ألف صلاة . +question : ما هو المسجد الحرام ؟ +prompt : أجب عن السؤال التالي : ما هو المسجد الحرام ؟ الجواب هو +pred_answer : أن الكعبة هي أول بيت وضع للناس لعبادة الله تعالى ، وهي قبلة المسلمين +answer : أعظم مسجد في الإسلام ويقع في قلب مدينة مكة غرب المملكة العربية السعودية + +context : تيكومسيه ، ( مارس 1768 - 5 أكتوبر 1813 ) ، تيكومسيه تعني النجم الثاقب أو الشهاب . [1][2][3] وهو زعيم بارز من زعماء قبائل الهنود الأمريكيين بعد الثورة الأمريكية . وقد عمل على توحيد جميع قبائل الهنود الأمريكيين في حلف واحد يستطيع الدفاع عن الأرض الهندية ضد البيض . +question : من هو تيكومسيه ؟ +prompt : أجب عن السؤال التالي : من هو تيكومسيه ؟ الجواب هو +pred_answer : : بابلو بيكاسو ( 1881 - 1973 ) . +answer : زعيم بارز من زعماء قبائل الهنود الأمريكيين بعد الثورة الأمريكية + +context : ومنذ تأسيسها في 1986 م ، أخذت الجامعة موقعها في مقدمة مؤسسات التعليم العالي في الوطن العربي ، كما تحوز مكانة مرموقة وسمعة راقية بين جامعات الشرق الأوسط[6] . وتعتبر الجامعة مع الجامعة الأردنية معا أقدم مؤسستين تعليميتين في مجالي الطب والهندسة في الأردن[7] ، مع أن الجامعتين تضمان كليات أخرى وتخصصات علمية أخرى . +question : متى تأسست جامعة العلوم والتكنولوجيا الأردنية ؟ +prompt : أجب عن السؤال التالي : متى تأسست جامعة العلوم والتكنولوجيا الأردنية ؟ الجواب هو في عام +pred_answer : 1976 ، +answer : 1986 + +context : سورية الجوفاء أو كل سوريا ( لاتينية : C le - Syria يونانية : ، إنجليزية : Hollow Syria ) هي تسمية يونانية لمنطقة في جنوب سوريا خلال العصر الهلنستي . وقد كان متعارفا أن كلمة كويلا اليونانية مأخوذة حرفيا من الآرامية " - كل " والتي تتلاقى مع المعنى العربي " كل " إلا أن اللفظة كان لها معنى باليونانية يعطي معنى " أجوف " ، فالأصح أن ترد إلى أصلها لتصبح " كل سوريا " . . [1][2][3] +question : ما هي سورية الجوفاء ؟ +prompt : أجب عن السؤال التالي : ما هي سورية الجوفاء ؟ الجواب هو +pred_answer : أن سورية لم تكن يوما جبانة ، بل على العكس تماما +answer : تسمية يونانية لمنطقة في جنوب سوريا خلال العصر الهلنستي + +context : الهور والجمع أهوار تسمى سهل كذلك هي أرض رطبة منخفضة تنبت فيها بعض النباتات العشبية كالقصب والحشائش أو نبات البردي وغيره من النباتات الأخرى , وعادة توجد الأهوار في أماكن تعمل طبيعة الأرض ونوع التربة على إيجاد بيئة رطبة ، مما يؤدي إلى تكون هور . ومن الممكن أن تحتوي الصحارى على أهوار وذلك في الأماكن المنخفضة منها أو بالقرب من الينابيع . أما الأهوار الموجودة على طول البحار فإنها تسمى الأهوار المصبية وتكون عند الأماكن التي تصب فيها المياه إلى البحر أي عند مصبات الأنهار أو الجداول , والهور غالبا ما يكون مغمورة بالمياه العذبة أو المالحة ، أما الهور المصبي فإنه في بعض الأحيان يكون مغمور بالماء العذب ، وفي أحيان أخرى يكون مغمور بمياه مالحة ، وهذا المزيج من المياه يوفر بيئة ملائمة لتوفر الكثير من المواد التي تتغذى عليها بعض الحيوانات التي تعيش في الهور ؛ كالثعابين أو جرذان الماء وكذلك البط والضفادع والسلاحف . +question : ما هو الهور ؟ +prompt : أجب عن السؤال التالي : ما هو الهور ؟ الجواب هو +pred_answer : نهر في جنوب العراق ، ينبع من جبال زاغروس ويصب في شط العرب الذي يصب بدوره في الخليج العربي +answer : أرض رطبة منخفضة تنبت فيها بعض النباتات العشبية كالقصب والحشائش أو نبات البردي وغيره من النباتات الأخرى + +context : حيفا هي من أكبر وأهم مدن فلسطين التاريخية ، تقع اليوم في لواء حيفا الإسرائيلي على الساحل الشرقي للبحر المتوسط ، وتبعد عن القدس حوالي 158 كم إلى الشمال الغربي . يبلغ عدد سكانها حوالي 272 , 181 نسمة إضافة إلى 300 , 000 يعيشون في الضواحي السكنية حول المدينة ، مما يجعلها ثالث أكبر مدن البلاد حاليا بعد القدس وتل أبيب من حيث السكان ، الذين يشكل اليهود منهم الغالبية ، بينما يشكل العرب ( مسيحيون ومسلمون ) الأقلية بعد تهجير معظمهم في النكبة عام 1948 . [1][2] +question : أين تقع حيفا ؟ +prompt : أجب عن السؤال التالي : أين تقع حيفا ؟ الجواب هو +pred_answer : في فلسطين +answer : فلسطين + +context : جمهورية الدومنيكان هي دولة في جزيرة هيسبانيولا وجزء من أرخبيل جزر الأنتيل الكبرى في منطقة البحر الكاريبي . يقع في الثلث الغربي من الجزيرة دولة هايتي ، مما يجعل من هيسبانيولا إحدى جزيرتين في الكاريبي يتقاسمها دولتان . سواء من حيث المساحة أو تعداد السكان تعد جمهورية الدومنيكان ثاني أكبر دولة في منطقة الكاريبي ( بعد كوبا ) . تبلغ مساحتها 48 , 442 كم 2 ( 18 , 704 ميل مربع ) ويقدر تعداد سكانها ب 10 ملايين شخص . [1][2] +question : اين توجد جمهورية الدومينيكان ؟ +prompt : أجب عن السؤال التالي : اين توجد جمهورية الدومينيكان ؟ الجواب هو +pred_answer : في العاصمة سانتو +answer : جزيرة هيسبانيولا + +context : البناء الضوئي ( أو التمثيل أو التخليق أو التركيب الضوئي ) عملية كيميائية معقدة تحدث في خلايا البكتيريا الزرقاء وفي صانعات اليخضور ( الصانعات الخضراء ) أو الكلوروبلاست في كل من الطحالب والنباتات العليا ؛ حيث يتم فيها تحويل الطاقة الضوئية الشمسية من طاقة كهرومغناطيسية على شكل فوتونات أشعة الشمس إلى طاقة كيميائية تخزن في روابط سكر الجلوكوز وفق المعادلة التالية : +question : ماذا يتم في عملية التركيب الضوئي ؟ +prompt : أجب عن السؤال التالي : ماذا يتم في عملية التركيب الضوئي ؟ الجواب هو +pred_answer : أن النبات يقوم بعملية البناء الضوئي من خلال تحويل الطاقة الضوئية إلى طاقة كيميائية تختزن في الروابط الكيميائية بين جزيئات المواد الكربوهيدراتية +answer : تحويل الطاقة الضوئية الشمسية من طاقة كهرومغناطيسية على شكل فوتونات أشعة الشمس إلى طاقة كيميائية تخزن في روابط سكر الجلوكوز + +context : سلاجقة الروم هي سلطنة للسلاجقة الأتراك وجدت في القرون الوسطى في الفترة مابين 1077 إلى 1307 وكانت عاصمتهم في البداية إزنيق ثم انتقلت إلى قونية . وبما أن السلطة كانت متنقلة كثيرا ، فقد لعبت العديد من المدن دور العاصمة في فترات من تاريخ السلطنة مثل قيصرية وسيواس . امتدت السلطنة في أوجها عبر وسط الأناضول ، لتمتد من شواطئ أنطاليا وألانيا على البحر الأبيض المتوسط إلى سينوب على البحر الأسود ، وفي الشرق صهرت معها العديد من القبائل التركية لتصل إلى بحيرة وان وفي الغرب أصبحت حدودها قرب دينيزلي ومداخل بحر إيجة . +question : من هم سلاجقة الروم ؟ +prompt : أجب عن السؤال التالي : من هم سلاجقة الروم ؟ الجواب هو +pred_answer : : السلطان علاء الدين كيقباد الأول بن كيخسرو الأول بن ملكشاه بن ألب أرسلان بن داود بن ميكائيل بن سلجوق بن +answer : سلطنة للسلاجقة الأتراك وجدت في القرون الوسطى في الفترة مابين 1077 إلى 1307 وكانت عاصمتهم في البداية إزنيق ثم انتقلت إلى قونية + +context : وعلى الرغم من أن كتاب جون راسكين ، ملك النهر الذهبي قد أرخ من قبل ، إلا أن أدب الفنتازيا الحديثة دائما ما يؤرخ بداية من جورج ماكدونالد ، الكاتب الأسكتلندي صاحب روايات مثل الأميرة والجني وفانتاستس ( 1858 ) ، وتعد الأخيرة أول رواية خيالية للكبار . ويمثل ماكدونالد تأثيرا كبيرا على كل من جيه آر آر تولكين وسي اس لويس . أما ويليام موريس ، فيعد الكاتب الكبير الآخر لهذه الحقبة ، وهو شاعر إنجليزي ذو شعبية كبيرة . ألف العديد من الروايات في أواخر القرن ، منهم البئر الموجود بنهاية العالم . +question : متى بدأت سلسلة روايات الفنتازيا ؟ +prompt : أجب عن السؤال التالي : متى بدأت سلسلة روايات الفنتازيا ؟ الجواب هو في عام +pred_answer : 1895 +answer : 1858 + +context : موت الخلية المبرمج هو عمليات موت منسقة للخلايا غير اللازمة ضمن متعضية متعددة الخلايا . [1][2][3] بخلاف النخر necrosis وهو نوع من أنواع موت الخلية ينتج عن أذية نسيجية حادة تطلق استجابة مناعية ، لكن موت الخلية المبرمج يحدث ضمن عملية منظمة من دورة حياة الكائن الحي ( المتعضية ) . يفيد موت الخلية المبرمج الوظائف الأساسية للكائن الحي خلال تنامي أنسجة النباتات والحيوانات . +question : ما هو موت الخلية المبرمج ؟ +prompt : أجب عن السؤال التالي : ما هو موت الخلية المبرمج ؟ الجواب هو +pred_answer : أن الموت المبرمج للخلية عبارة عن عملية بيولوجية طبيعية تحدث عندما +answer : عمليات موت منسقة للخلايا غير اللازمة ضمن متعضية متعددة الخلايا + +context : ترجع نشأة المذهب الحنفي إلى أوائل القرن الثاني الهجري ، وتحديدا سنة 120 ه ، وذلك يوم أن جلس أبو حنيفة على كرسي الإفتاء والتدريس خلفا لشيخه حماد بن أبي سليمان ، فكان هذا العام شاهدا على نشوء أول مذهب فقهي معتمد . [3] ومن خلال هذه المدرسة الفقهية التي ترأسها الإمام أبو حنيفة نفسه ، أخذ المذهب الحنفي في التمدد والانتشار ؛ إذ أصبح له تلاميذ وأصحاب يلازمون حلقته ، ويدونون أراءه وينشرونها ، فكان لهم بذلك - لاسيما الصاحبين أبي يوسف ومحمد بن الحسن الشيباني - دور كبير في قيام المذهب ، وانتشار آرائه وأقواله . [4] يقول ابن عبد البر : " كان لأبي حنيفة أصحاب جلة ، رؤساء في الدنيا ، ظهر فقهه على أيديهم ، أكبرهم أبو يوسف يعقوب بن إبراهيم الأنصاري " . [5] وقال ابن حجر الهيتمي : " ورزق - يعني أبا حنيفة - حظا وافرا في أتباعه ؛ فقاموا بتحرير أصول مذهبه وفروعه ، وأمعنوا النظر في منقوله ومعقوله ، حتى صار - بحمد الله - محكم القواعد ، معدن الفوائد " . [6] +question : متى تأسس المذهب الخنفي في الإسلام ؟ +prompt : أجب عن السؤال التالي : متى تأسس المذهب الخنفي في الإسلام ؟ الجواب هو +pred_answer : : إن +answer : 120 ه + +context : الإحصاء الحيوي ( وهو لفظ مرخم من الأحياء والإحصاء ويرمز إليه أحيانا بعلم الإحصاء الحيوي أو القياسات الحيوية ) هو تطبيق الإحصاءات على مجموعة واسعة من المواضيع في علم الأحياء . يشمل علم الإحصاء الحيوي تصميم الاختبارات الحيوية وخصوصا في الطب والزراعة وجمع وتلخيص وتحليل المعلومات من هذه التجارب وتفسير النتائج والاستنباط منها . كما يمكن استعمال اصطلاحي " بيومتري " أو " بيومترك " كمرادفين للإحصاء الحيوي . +question : ما هو علم الإحصاء الحيوي ؟ +prompt : أجب عن السؤال التالي : ما هو علم الإحصاء الحيوي ؟ الجواب هو +pred_answer : أن هذا العلم يختص بدراسة العمليات الحيوية التي تحدث داخل الكائنات +answer : تطبيق الإحصاءات على مجموعة واسعة من المواضيع في علم الأحياء + +context : أبو عبد الله سفيان بن سعيد بن مسروق الثوري ( 97 ه - 161 ه ) فقيه كوفي ، وأحد أعلام الزهد عند المسلمين ، وإمام من أئمة ، وواحد من تابعي التابعين ، وصاحب واحد من المذاهب الإسلامية المندثرة ، والذي ظل مذهبه متداولا حتى القرن السابع الهجري ، والذي قال عنه الذهبي : ، كما قال عنه بشر الحافي : . +question : من هو سفيان الثوري ؟ +prompt : أجب عن السؤال التالي : من هو سفيان الثوري ؟ الجواب هو +pred_answer : : أبو عبد الله سفيان بن سعيد بن مسروق الثوري الكوفي +answer : فقيه كوفي وأحد أعلام الزهد عند المسلمين وإمام من أئمة + +context : زاوية قائمة إذا قسمنا الزاوية المستقيمة 180 إلى قسمين متساويين فكل قسم يدعى زاوية قائمة ، قياسها 90 درجة وتساوي زاوية حادة هي الزاوية التي قياسها أقل من 90 درجة . زاوية منفرجة هي الزاوية التي قياسها أكبر من 90 درجة وأصغر من 180 درجة . زاوية مستقيمة هي زاوية ضلعاها على استقامة واحدة وباتجاهين مختلفي 180 درجة زاوية منعدمةهي الزاوية التي قياسها 0 درجة . زاويتان متساويتان هما زاويتان لهما قياس متساوي . زاويتان تشتركان بالرأس هما زاويتان تشتركان بالرأس والأضلاع . زاويتان متتامتان هما زاويتان مجموع قياسهما 90 درجة زاويتان متكاملتان هما زاويتان مجموع قياسهما 180 درجة . زاويتان متجاورتان هما زاويتان تشتركان في نفس الضلع الزوايا المتبادلة بالرأس وهي عبارة عن زاويتان تتشكلان إذا كان هناك مستقيمان متوازيان لهما قاطع ( غير معامد ) فنقول أن كل الزوايا +question : ما هي الزاوية الحادة في الهندسة ؟ +prompt : أجب عن السؤال التالي : ما هي الزاوية الحادة في الهندسة ؟ الجواب هو +pred_answer : أن زاوية المثلث تساوي 180 درجة ، +answer : التي قياسها أقل من 90 درجة + +context : الفينول هو مركب صلب بلوري عديم اللون ذو رائحة قارية لطيفة ، وغالبا ما يشار إليها برائحة المشافي . صيغته الكيميائية المجملة C6H6O ، والتي يمكن أن تكتب بالشكل المفصل C6H5OH . وبنيته عبارة عن زمرة الهيدروكسيل مرتبطة بحلقة فينيل ، ف فهو مركب عطري . +question : ما هي الفينولات ؟ +prompt : أجب عن السؤال التالي : ما هي الفينولات ؟ الجواب هو +pred_answer : أن الفينولات عبارة عن مركبات عضوية من مجموعة فينيل ، +answer : مركب صلب بلوري عديم اللون ذو رائحة قارية لطيفة + +context : مؤشر التنمية البشرية ( Human Development Index HDI ) هو مؤشر ابتكرته هيئة الأمم المتحدة يشير إلى مستوى رفاهية الشعوب في العالم . وتصدر له تقريرا سنويا منذ عام 1990 وما يقوم برنامج التطوير للأمم المتحدة ( UNDP ) بغرض تنمية الدول وتحسين أوضاع المواطنين في الدول المختلفة . +question : ما هو مؤشر التنمية البشرية ؟ +prompt : أجب عن السؤال التالي : ما هو مؤشر التنمية البشرية ؟ الجواب هو +pred_answer : أن يكون الفرد قادرا على الحصول على تعليم جيد ، وأن يتمتع بصحة جيدة +answer : مؤشر ابتكرته هيئة الأمم المتحدة يشير إلى مستوى رفاهية الشعوب في العالم + +context : مصطلح علم الأنسجة وتلفط هيستولوجي ( مركب من الكلمات اليونانية ( 1 ) هيستو " نسيج " و Logia تشريحلوجيا ) وهو دراسة التشريح المجهري للخلايا وأنسجة النباتات والحيوانات . [1][2][3] وهو يقوم علي فحص شريحة رقيقة ( قسم ) من النسيج تحت ضوء المجهر أو علي مجهر إلكتروني . استخدام البقع النسيجية يعزز في كثير من الأحيان القدرة على تصور أو تحديد تفاوت البنية المجهرية . علم الأنسجة هو أداة أساسية لعلم الأحياءوالطب . +question : ما هو علم الأنسجة ؟ +prompt : أجب عن السؤال التالي : ما هو علم الأنسجة ؟ الجواب هو +pred_answer : أن علم الأنسجة هو فرع من فروع الطب ، وهو +answer : دراسة التشريح المجهري للخلايا وأنسجة النباتات والحيوانات + +context : عماد الدين أبو الفداء إسماعيل بن عمر بن كثير بن ضو بن درع[1] القرشي الحصلي ، البصروي ، الشافعي ، [2] ثم الدمشقي ، محدث ومفسر وفقيه ، [3] ولد بمجدل من أعمال دمشق سنة 701 ه ، و مات أبوه سنة 703 ه ، [4] ثم انتقل إلى دمشق مع أخيه كمال الدين سنة 707 ه بعد موت أبيه ، حفظ القرآن الكريم وختم حفظه في سنة 711 ه ، وقرأ القراءات وجمع التفسير ، وحفظ متن " التنبيه " في فقه الشافعي سنة 718 ه ، وحفظ مختصر ابن الحاجب ، وتفقه على الشيخين برهان الدين الفزاري ، وكمال الدين ابن قاضي شهبة ، [5] سمع الحديث من ابن الشحنة ، وابن الزراد ، وإسحاق الآمدي ، وابن عساكر ، والمزي ، وابن الرضى ، شرع في شرح صحيح البخاري ولازم المزي ، وقرأ عليه تهذيب الكمال ، وصاهره على ابنته ، وصاحب ابن تيمية ، [4][معلومة 1] ولي العديد من المدارس العلمية في ذلك العصر ، منها : دار الحديث الأشرفية ، والمدرسة الصالحية ، والمدرسة النجيبية ، [معلومة 2] والمدرسة التنكزية ، والمدرسة النورية الكبرى ، [5] توفي في شعبان سنة 774 ه ، وكان قد أضر في أواخر عمره ، [4] ودفن بجوار ابن تيمية في مقبرة الصوفية خارج باب النصر من دمشق ، [6] له عدة تصنيفات أشهرها : تفسير القرآن العظيم ، والبداية والنهاية ، وطبقات الشافعية ، الباعث الحثيث شرح اختصار علوم الحديث ، والسيرة النبوية ، وله رسالة في الجهاد ، وشرع في كتاب كبير للأحكام ولم يكمله ، وله شرح صحيح البخاري وهو مفقود . [7][8] +question : من هو ابن كثير الدمشقي ؟ +prompt : أجب عن السؤال التالي : من هو ابن كثير الدمشقي ؟ الجواب هو +pred_answer : أبو الفداء إسماعيل بن عمر بن +answer : محدث ومفسر وفقيه + +context : اللاقحة أو البويضة المخصبة أو الزيجوت[1] هي الخلية التي تنتج عن عملية الإخصاب ( التلقيح ) خلال عملية التكاثر الجنسي بين خليتين أحاديتي الصيغة ( عادة تكون نطفة وبييضة ) ليشكلا خلية ثنائية الصيغة تدعى لاقحة . ومن صفات اللاقحة قدرتها على التحول إلى اشكال أخرى ( أي يمكنها التطور إلى اشكال مختلفة أخرى في خاصية يطلق عليها خلايا شاملة الوسع " totipotent cells " . +question : ما هي الزيجوت ؟ +prompt : أجب عن السؤال التالي : ما هي الزيجوت ؟ الجواب هو +pred_answer : أن الجنين يتكون من بويضة ملقحة بحيوان منوي وبويضة غير ملقحة . البويضة الملقحة تحتوي على 46 كروموزوم ( 23 زوج من الكروم +answer : الخلية التي تنتج عن عملية الإخصاب التلقيح خلال عملية التكاثر الجنسي بين خليتين أحاديتي الصيغة عادة تكون نطفة وبييضة ليشكلا خلية ثنائية الصيغة + +context : هناك الكثير من الديانات في اليابان ، إلا أنه بحسب إحصائيات وكالة الثقافة اليابانية هي حوالي 160 مليون نسمة يتبعون الشنتو ، حوالي 96 مليون نسمة يتبعون البوذية ، 2 مليون يتبعون المسيحية ، بالإضافة إلى مليون نسمة يتبعون الديانات الأخرى ، وبجمع الأعداد يصبح العدد الكلي مساويا 215 مليون نسمة وهذا يقابل تقريبا ضعف عدد سكان اليابان الحالي . +question : ماهي الديانة الشائعة في اليابان ؟ +prompt : أجب عن السؤال التالي : ماهي الديانة الشائعة في اليابان ؟ الجواب هو +pred_answer : " البوذية " +answer : الشنتو + +context : حرب النجوم هي سلسلة أفلام أوبرا فضاء ملحمية من ابتكار جورج لوكاس . السلسلة مكونة من ثلاثيتين . حرب النجوم تعدت كونها سلسلة أفلام ، بل أنتجت كتبا ومسلسلات تلفزيونية وألعاب كمبيوتر وفيديو وكتب مصورة . +question : ما هي حرب النجوم ؟ +prompt : أجب عن السؤال التالي : ما هي حرب النجوم ؟ الجواب هو +pred_answer : أن الحرب العالمية الثانية كانت حربا بين الولايات المتحدة والاتحاد السوفياتي +answer : سلسلة أفلام أوبرا فضاء ملحمية من ابتكار جورج لوكاس + +context : علم الإنسان أو الأنثروبولوجيا هي دراسة البشر وسلوك الإنسان والمجتمعات الماضية والحاضرة . [1][2][3] علم الإنسان الاجتماعي وعلم الإنسان الثقافي[1][2][3] يدرسان قيم ومعايير المجتمعات . الأنثروبولوجيا اللغوية تدرس كيف تؤثر اللغة على الحياة الاجتماعية . ويدرس علم الإنسان الحيوي[1][2][3] التطور البيولوجي للإنسان . +question : ما هي الأنثروبولوجيا الحضارية ( أو الثقافية ) ؟ +prompt : أجب عن السؤال التالي : ما هي الأنثروبولوجيا الحضارية ( أو الثقافية ) ؟ الجواب هو +pred_answer : أنها علم يهتم بدراسة الحضارات الإنسانية من حيث نشأتها +answer : دراسة البشر وسلوك الإنسان والمجتمعات الماضية والحاضرة + +context : ويمكن تتبع أصول هذه الحركة إلى عام 1984 عندما تأسست جمعية " Papa ' Separati " في منطقة إيمليا . وعلى المستوى المحلي ، قضى الكثير من النشطاء قدرا كبيرا من وقتهم في تقديم الدعم للآباء المنفصلين حديثا ، والذين يعاني أغلبهم من إضرابات شديدة . وبالرغم من اتهام بعض المعلقين وواضعي القوانين لهذه الجمعيات بالتمييز على أساس الجنس ، تنظم هذه الجمعيات أيضا حملات لتحسين معاملة الأمهات المستبعدات ، والسيدات المتزوجات من رجال آخرين ، وأزواج الأمهات وزوجات الآباء ، والأجداد ممن يعانون من التمييز فيما يتعلق بحضانة و أو زيارة أطفالهم أو أحفادهم . +question : متى تأسست حركة حقوق الآباء ؟ +prompt : أجب عن السؤال التالي : متى تأسست حركة حقوق الآباء ؟ الجواب هو في عام +pred_answer : 1968 ، +answer : 1984 + +context : ماريا دوقة بورغونيا تعرف أيضا باسم ماريا الثرية ( بروكسل ، 13 فبراير 1457 - بروج ، 27 مارس 1482 ) دوقة بورغونيا وأيضا كانت حاكمة لعديد من المناطق التي كانت في فرنسا والبلدان المنخفضة ، وأيضا باضافة لكونها أرشيدوقة النمسا من خلال الزواج من 1477 حتى وفاتها . [1][2][3] +question : من هي ماري دوقة بورغونيا ؟ +prompt : أجب عن السؤال التالي : من هي ماري دوقة بورغونيا ؟ الجواب هو +pred_answer : أن هذه الأميرة الفرنسية التي ولدت في عام 1792 ، كانت ابنة الملك لويس الرابع عشر +answer : دوقة بورغونيا وأيضا كانت حاكمة لعديد من المناطق التي كانت في فرنسا والبلدان المنخفضة + +context : جيفري بريستن بيزوس ولد في 12 يناير 1964 ، هو المؤسس ، الرئيس ، المدير التنفيذي ورئيس مجلس إدارة شركة أمازون دوت كوم ، تخرج جيف من جامعة برينستون بولاية نيوجيرسي الأمريكية ثم عمل محللا ماليا لشركة D . E Shaw قبل أن يؤسس شركة أمازون عام 1994 . في عام 1999 اختير جيف بيزوس ك " شخصية العام " التي تختارها مجلة التايم كل عام . +question : من هو مؤسس شركة امازون ؟ +prompt : أجب عن السؤال التالي : من هو مؤسس شركة امازون ؟ الجواب هو +pred_answer : جيف بيزوس Jeff Be +answer : جيفري بريستن بيزوس + +context : صفاقس مدينة تونسية تقع على خليج قابس ، وهي مركز ولاية صفاقس . تعتبر عاصمة الجنوب التونسي ، رغم أنها تقع في وسط البلاد ، وذلك لأنها ثاني أكبر المدن التونسية في المساحة وفي عدد السكان . +question : أين تقع الصفاقس ؟ +prompt : أجب عن السؤال التالي : أين تقع الصفاقس ؟ الجواب هو +pred_answer : في الجنوب +answer : تونس + +context : بحر إيجة ( باليونانية : ، Aigaio Pelagos , [e eo pela os] ، بالتركية : Ege Denizi ) ، هو أحد أفرع البحر المتوسط طوله 643 . 5 كم وعرضه 322 كم ، يقع بين شبه الجزيرة اليونانية والأناضول ، يتصل ببحر مرمرة عن طريق مضيق الدردنيل ، وتطل عليه تركيا واليونان . +question : ما هي الدول المطلة على بحر إيجة ؟ +prompt : أجب عن السؤال التالي : ما هي الدول المطلة على بحر إيجة ؟ الجواب هو +pred_answer : : اليونان ، +answer : تركيا واليونان + +context : تم توليد الكهرباء من قبل المفاعل النووي للمرة الأولى في 3 سبتمبر 1948 في مفاعل جرافيت X - 10 النووي في أوك ريدج بولاية تينيسي في الولايات المتحدة حيث كانت أول محطة للطاقة النووية لتوليد لمبة ضوء . التجربة الثانية كانت في 20 ديسمبر 1951 في الولايات المتحدة . في 27 يونيو 1954 تم إنشاء محطة الطاقة النووية الأولى في العالم أوبنينسك لتوليد الكهرباء لتشغيل شبكة الكهرباء في الاتحاد السوفييتي وسميت أوبنينسك كأول محطة طاقة كاملة في العالم . في 17 أكتوبر 1956 تم إفتتاح ثاني محطة في إنجلترا . كأول محطة للطاقة على نطاق كامل في العالم مخصصة فقط لإنتاج الكهرباء . في 18 ديسمبر 1957 تم إنشاء محطة شحن كهربائية بواسطة محطة للطاقة الذرية في الولايات المتحدة متصلة بالشبكة . [2][3] +question : متى تم إستعمال المولدات الكهربائية النووية ؟ +prompt : أجب عن السؤال التالي : متى تم إستعمال المولدات الكهربائية النووية ؟ الجواب هو في عام +pred_answer : 1957 � +answer : 3 سبتمبر 1948 + +context : ريشارد فاغنر كان مؤلف موسيقى موسيقي وكاتب مسرحي ألماني ، ولد في لايبزغ ، ألمانيا سنة 1813 ، وتوفي في البندقية ، إيطاليا سنة 1883 . وهو الابن الأصغر لعائلة مكونة من تسعة أولاد . +question : من هو ريتشارد فاغنر ؟ +prompt : أجب عن السؤال التالي : من هو ريتشارد فاغنر ؟ الجواب هو +pred_answer : أن فاغنر ولد عام 1813 +answer : مؤلف موسيقى موسيقي وكاتب مسرحي ألماني + +context : دونالد جون ترامب ( بالإنجليزية : ) ( ولد في 14 يونيو 1946 ) هو الرئيس الخامس والأربعون للولايات المتحدة الأمريكية والحالي منذ 20 يناير 2017 ، وهو أيضا رجل أعمال وملياردير أمريكي ، وشخصية تلفزيونية ومؤلف أمريكي ورئيس منظمة ترامب ، والتي يقع مقرها في الولايات المتحدة . +question : متى ولد دونالد جون ترامب ؟ +prompt : أجب عن السؤال التالي : متى ولد دونالد جون ترامب ؟ الجواب هو في عام +pred_answer : 1946 ، أي +answer : 14 يونيو 1946 + +context : تعتبر التفاعلية الرمزية واحدة من المحاور الأساسية التي تعتمد عليها النظرية الاجتماعية ، في تحليل الأنساق الاجتماعية . وهي تبدأ بمستوى الوحدات الصغرى ( MICRO ) ، منطلقة منها لفهم الوحدات الكبرى ، بمعنى أنها تبدأ بالأفراد وسلوكهم كمدخل لفهم النسق الاجتماعي . فأفعال الأفراد تصبح ثابتة لتشكل بنية من الأدوار ؛ ويمكن النظر إلى هذه الأدوار من حيث توقعات البشر بعضهم تجاه بعض من حيث المعاني والرموز . وهنا يصبح التركيز إما على بنى الأدوار والأنساق الاجتماعية ، أو على سلوك الدور والفعل الاجتماعي . ومع أنها ترى البنى الاجتماعية ضمنا ، باعتبارها بنى للأدوار بنفس طريقة بارسونز Parsons ، إلا أنها لا تشغل نفسها بالتحليل على مستوى الأنساق ، بقدر اهتمامها بالتفاعل الرمزي المتشكل عبر اللغة ، والمعاني ، والصور الذهنية ، استنادا إلى حقيقة مهمة ، هي أن على الفرد أن يستوعب أدوار الآخرين . +question : ما هي نظرية التفاعل الرمزي ؟ +prompt : أجب عن السؤال التالي : ما هي نظرية التفاعل الرمزي ؟ الجواب هو +pred_answer : أن هذه النظرية تقوم على مبدأين أساسيين ، هما : 1 .التفاعل +answer : واحدة من المحاور الأساسية التي تعتمد عليها النظرية الاجتماعية في تحليل الأنساق الاجتماعية + +context : عند اندلاع الحرب الأهلية السورية عام 2011 ؛ أذن زعيم دولة العراق الإسلامية أبو بكر البغدادي وقائد القيادة المركزية في تنظيم القاعدة السوري أبو محمد الجولاني بإعداد جبهة أو مجموعة مقربة من القاعدة في آب أغسطس 2011 لإسقاط حكومة الأسد وإقامة دولة إسلامية هناك . عبر الجولاني وستة من زملائه الحدود من العراق صوب سوريا ثم التقى السبعة بالإسلاميين المفرج عنهم من سجن صيدنايا العسكري في أيار مايو – حزيران يونيو 2011 . كان هؤلاء الإسلاميون نشطون بالفعل في القتال ضد قوات الأسد وهو ما سهل مهمة الجولاني ورفقائه المتمثلة بالأساس في كسبهم لجبهته . الرجال الستة الذين أسسوا جبهة النصرة إلى جانب الجولاني هم صالح الحموي ( سوري ) ، أبو ماريا القحطاني ( عراقي ) ، مصطفى عبد اللطيف بن صالح ويكنى بأبو أنس ( أردني فلسطيني ) ، إياد تبيسي ويكنى بأبو جليبيب ( أردني فلسطيني ) ، أبو عمر الفلسطيني ( فلسطيني ) ثم أنس حسن خطاب ( سوري ) . [4][5][6] +question : من أول زعيم جبهة النصرة ؟ +prompt : أجب عن السؤال التالي : من أول زعيم جبهة النصرة ؟ الجواب هو +pred_answer : أبو محمد الجولاني +answer : أبو محمد الجولاني + +context : محمود أحمدي نجاد هو أستاذ جامعي وسياسي إيراني ، أصبح عمدة لبلدية طهران ثم رئيسا لجمهورية إيران الإسلامية ، وهو الرئيس السادس للجمهورية الإيرانية . تولى مهام رئاسة الجمهورية منذ 3 أغسطس 2005 بعد تغلبه على منافسه هاشمي رفسنجاني في الدور الثاني من الانتخابات الرئاسية ، وأعيد انتخابه في 12 يونيو 2009 على حساب منافسه مير حسين موسوي ، وظل رئيسا حتى 15 يونيو 2013 بعد عقد الانتخابات الجديدة . +question : متى تولى محمود أحمدي نجاد رئاسة إيران ؟ +prompt : أجب عن السؤال التالي : متى تولى محمود أحمدي نجاد رئاسة إيران ؟ الجواب هو في عام +pred_answer : 2005 ، أي +answer : 3 أغسطس 2005 + +context : صفقة ألاسكا ، ( Russian : , tr . Prodazha Alyaski ) ، صفقة اشترت بموجبها الولايات المتحدة الأمريكية ولاية ألاسكا من الإمبراطورية الروسية عام 1867 ، بموجب معاهدة صدق عليها مجلس الشيوخ الأمريكي ، ووقعها الرئيس الأمريكي أندرو جونسون . [2][3][4] +question : في أي عام اشترت الولايات المتحدة ألاسكا من الإمبراطورية الروسية ؟ +prompt : أجب عن السؤال التالي : في أي عام اشترت الولايات المتحدة ألاسكا من الإمبراطورية الروسية ؟ الجواب هو في عام +pred_answer : 1867 +answer : 1867 + +context : الميوغلوبين [1] ( رمز Mb او MB ) هو بروتين يربط الحديد والأكسجين ويوجد في الأنسجة العضلية للفقاريات بصورة عامة ، وجميع الثديات بصورة خاصة . [2] ؛ وهو ذات صلة بالهيموغلوبين ( بروتين ربط الحديد والأكسجين في الدم ، وتحديدا في خلايا الدم الحمراء ) . في البشر ، يتم العثور على الميوغلوبين فقط في مجرى الدم بعد إصابة في العضلات . وجود الميوغلوبين في الدم غير طبيعي ويكون مقياس في تشخيص بعض الأمور الطبية . [3] +question : ما هو الميوغلوبين ؟ +prompt : أجب عن السؤال التالي : ما هو الميوغلوبين ؟ الجواب هو +pred_answer : بروتين موجود في كريات الدم الحمراء وظيفته نقل الأكسجين من الرئتين إلى خلايا الجسم ، كما ينقل ثاني أكسيد الكربون +answer : بروتين يربط الحديد والأكسجين ويوجد في الأنسجة العضلية للفقاريات بصورة عامة وجميع الثديات بصورة خاصة + +context : ذاكرة الجسد رواية من تأليف الكاتبة الجزائرية أحلام مستغانمي ، وهي حائزة على جائزة نجيب محفوظ للعام 1998 . صدرت سنة 1993 في بيروت . بلغت طبعاتها حتى فبراير 2004 19 طبعة . بيع منها حتى الآن أكثر من 3 ملايين نسخة . +question : من هو مؤلف كتاب ذاكرة الجسد ؟ +prompt : أجب عن السؤال التالي : من هو مؤلف كتاب ذاكرة الجسد ؟ الجواب هو +pred_answer : الروائية الجزائرية أحلام مستغانمي +answer : أحلام مستغانمي + +context : مؤرخ مسلم ، شيخ المؤرخين العرب " أحمد بن علي المقريزي " المعروف باسم " تقي الدين المقريزي " ولد وتوفي في القاهرة ( 764 ه 845 ه ) ( 1364 م - 1442 م ) ممن اهتموا بالتأريخ بكل نواحيه . +question : من هو تقي الدين المقريزي ؟ +prompt : أجب عن السؤال التالي : من هو تقي الدين المقريزي ؟ الجواب هو +pred_answer : : أبو العباس +answer : مؤرخ مسلم + +context : قسطنطين ستانيسلافسكي ، و هو مخرج وممثل مسرحي روسي شهير ( 17 يناير 1863 - 7 أغسطس 1938 ) . يعتبر أحد مؤسسي المسرح الحديث ، حاول ابتكار أسلوب الأداء الصادق عن طريق جعل ممثليه يدرسون الحياة الداخلية للشخوص كما لو كانوا أناسا حقيقيين . وتعرف محاولة الممثل أن يعيش حياة الشخصية بنظرية ستانيسلافسكي . ولد قسطنطين سيرجيفتش الكسييف في موسكو . وأسس مسرح موسكو للفن في عام 1898 م بمساعدة فلاديمير نيمروفيتش دانشنكو ، وأصبح مشهورا بالعروض الواقعية لمسرحيات تشيكوف ، وجوركي وآخرين . +question : من هو قسطنطين ستانيسلافسكي ؟ +prompt : أجب عن السؤال التالي : من هو قسطنطين ستانيسلافسكي ؟ الجواب هو +pred_answer : أنه ولد في مدينة +answer : مخرج وممثل مسرحي روسي + +context : تم ابتكار واختراع البطاقات الذكية بواسطة عالم الصواريخ الألماني هيلموت جروتروب وزميلة العالم جورجين ديثلوف في عام 1968 ، وتم اعتماد براءة الاختراع في عام 1982 وأول استخدام جماعي للبطاقات في التليفونات المدفوعة بفرنسا عام 1983 وسجل رولاند مورينو براءة ابتكار تصوره لبطاقة الذاكرة في عام 1974 وفي عام 1977 ، ابتكر هونيويل بول أول بطاقة ذكية مزودة بمعالج دقيق . وفي عام 1978 ، سجل بول براءة اختراع الحاسب الدقيق ذي الشريحة الواحدة القابل للبرمجة SPOM مع تعريف البنية الضرورية لبرمجة الشريحة تلقائيا . بعد ذلك بثلاث سنوات صنعت موتورولا أول بطاقة بمعالج دقيق وفقا لهذا الاختراع ، ثم سجل بول ما يقرب من 1200 براءة اختراع مرتبطة بالبطاقات الذكية . +question : متى صنعت أول بطاقة بنكية ذكية ؟ +prompt : أجب عن السؤال التالي : متى صنعت أول بطاقة بنكية ذكية ؟ الجواب هو في عام +pred_answer : 1995 ، +answer : 1968 + +context : هاي سكول ! كيمنغومي ( يابانية : ! ) هي سلسلة مانغا يابانية من نوع كوميديا ومدرسي ، كتبها المؤلف موتوي شينزاوا ، المانغا الاولى كانت اسمها ثيرد ييرد فاني - فيس كلوب ( 3 ) ( Third Year Funny - face Club ) في مجله شونن جمب الأسبوعية ، والتي صدرت من سنه 1980 لسنه 1982 ولها 6 مجلدات ، وصدرت مجلد جديد من سنه 1982 لسنه 1987 لنفس الناشر ولها 20 مجلد . [1][2][3] +question : في أي عام صدر مسلسل أنمي هاي سكول ! كيمنغومي ؟ +prompt : أجب عن السؤال التالي : في أي عام صدر مسلسل أنمي هاي سكول ! كيمنغومي ؟ الجواب هو في عام +pred_answer : 2009 . هل هذا يعني أن +answer : من سنه 1980 لسنه 1982 + +context : قطر هي دولة عربية تقع في شرق شبه الجزيرة العربية في جنوب غرب آسيا مطلة على الخليج العربي وعاصمتها الدوحة . لها حدود برية مشتركة من الجنوب مع المملكة العربية السعودية وبحرية مع دولة الإمارات العربية المتحدة ، مملكة البحرين . وفي أعقاب الحكم العثماني ، أصبحت قطر محمية بريطانية في أوائل القرن العشرين حتى حصولها على الاستقلال في عام 1971 م . وقد حكمت قطر أسرة آل ثاني منذ منتصف القرن التاسع عشر بعد فترة قصيرة من قدومها من محافظة أشيقر في نجد [1] . نظام الحكم في قطر إمارة وراثية دستورية ، وحاكم الدولة هو الأمير تميم بن حمد بن خليفة آل ثاني . وافق الشعب على الدستور بأغلبية ساحقة في استفتاء دستوري ، بنسبة 98 ٪ تقريبا لصالح المشروع . وكان مجموع السكان في قطر في عام 2013 م ، 1 . 8 مليون نسمة : يبلغ عدد المواطنين القطريين الأصليين 300 ، 000 والأجانب 1 . 5 مليون . تعد دولة قطر هي المجتمع الأكثر محافظة بعد المملكة العربية السعودية في دول مجلس التعاون الخليجي . +question : أين تقع قطر ؟ +prompt : أجب عن السؤال التالي : أين تقع قطر ؟ الجواب هو +pred_answer : في قلب العالم +answer : جنوب غرب آسيا + +context : اللغة الرسمية هي التشيكية ، وهي لغة سلافية غربية إحدى اللغات الهندوأوروبية . تشبه إلى حد كبير اللغة السلوفاكية ثم البولندية واللغة الصربية لإقليم لوساتيا في ألمانيا . منذ انضمام التشيك إلى الاتحاد الأوروبي عام 2004 أصبحت اللغة التشيكية إحدى اللغات الرسمية للاتحاد الأوروبي . يشار إلى علم اللغة التشيكية بعلم اللغة البوهيمية نسبة إلى منطقة بوهيميا في التشيك . +question : متى انضمت التشيك إلى الاتحاد الأوروبي ؟ +prompt : أجب عن السؤال التالي : متى انضمت التشيك إلى الاتحاد الأوروبي ؟ الجواب هو في عام +pred_answer : 1993 . +answer : 2004 + +context : وضع حجر الأساس لهذا المصنع في 18 سبتمبر 1979 ، وبدأ الإنتاج في سنة 1989 . يعتبر هو الواجهة الرئيسية لصناعة الحديد والصلب في ليبيا . ويقع على مساحة 1200 هكتار شرق مصراتة . ساهمت العديد من الشركات العالمية في إقامة هذا المصنع ، وأهم هذه الشركات هي : شركة فوست البينا النمساوية ، شركة كورف الألمانية ، شركة كوبي ستيل اليابانية ، شركة هونداي الكورية وشركة تيكنيت الإيطالية . +question : متى تم إفتتاح مصنع الحديد والصلب في مصراته الليبية ؟ +prompt : أجب عن السؤال التالي : متى تم إفتتاح مصنع الحديد والصلب في مصراته الليبية ؟ الجواب هو في عام +pred_answer : 1963 � +answer : 18 سبتمبر 1979 + +context : كابيتول هيل ، إلى جانب كونه كناية عن كونغرس الولايات المتحدة ، هو أكبر حي سكني تاريخي في العاصمة واشنطن ، يمتد تجاه الشرق أمام مبنى كابيتول الولايات المتحدة على طول طرق واسعة ، وهو واحد من أقدم التجمعات السكنية في واشنطن ، ويبلغ عدد سكانه تقريبا 35000 نسمة يعيشون في أقل من 2 ميل مربع ، وهو بذلك من أكثر المناطق اكتظاظا بالسكان . +question : ما هو أكبر حي سكني تاريخي في العاصمة واشنطن ؟ +prompt : أجب عن السؤال التالي : ما هو أكبر حي سكني تاريخي في العاصمة واشنطن ؟ الجواب هو +pred_answer : : الحي الصيني . +answer : كابيتول هيل + +context : في عام 499 ق . م ، بدأ أريستاغوراس طاغي ميليتوس حملة عسكرية لغزو جزيرة ناكسوس بدعم فارسي . [1] لكن الحملة فشلت وقبل إقالة أريستاغوراس ، حرض منطقة آسيا الصغرى تحت الحكم الهيلينستي إلى تمرد ضد الفرس . كانت هذه بداية الثورة الإيونية التي استمرت حتى 493 ق . م وجرت عدة مناطق في آسيا الصغرى إلى النزاع . حصل أريستاغوراس على دعم عسكري من أثينا وإريتريا ، وفي 498 ق . م ، استولت هذه القوات اليونانيه على عاصمة الفرس في المنطقة سارد وحرقتها . تعهد دارا الأول ملك الفرس آنذاك بحصوله على الانتقام من أثينا وإريتريا . تواصلت الثورة بخسائر فادحة لكلا الطرفين حتى 495 ق . م . في 494 ق . م ، أعاد الفرس تنظيم أنفسهم وهاجموا مركز الثورة في ميليتوس . عانى الإيونيون من خسائر حاسمة في معركة لادة وخسروا التمرد . +question : متى حدثت الثورة الإيونية ؟ +prompt : أجب عن السؤال التالي : متى حدثت الثورة الإيونية ؟ الجواب هو +pred_answer : : في عام +answer : 499 ق + +context : الثورة التونسية ( والتي تعرف أيضا بثورة الحرية والكرامة أو ثورة 17 ديسمبر أو ثورة 14 جانفي ) ، هي ثورة شعبية اندلعت أحداثها في 17 ديسمبر 2010 تضامنا مع الشاب محمد البوعزيزي الذي قام بإضرام النار في جسده في نفس اليوم تعبيرا عن غضبه على بطالته ومصادرة العربة التي يبيع عليها من قبل الشرطية فادية حمدي ( وقد توفي البوعزيزي يوم الثلاثاء الموافق 4 يناير 2011 في مستشفى بن عروس بسبب حروقه البالغة[1] ) . أدى ذلك إلى اندلاع شرارة المظاهرات في يوم 18 ديسمبر 2010 وخروج آلاف التونسيين الرافضين لما اعتبروه أوضاع البطالة وعدم وجود العدالة الاجتماعية وتفاقم الفساد داخل النظام الحاكم . كما أدى ذلك إلى اندلاع مواجهات بين مئات من الشبان في منطقة سيدي بوزيد وولاية القصرين مع قوات الأمن لتنتقل الحركة الاحتجاجية من مركز الولاية إلى البلدات والمدن المجاورة كالمكناسي والرقاب وسيدي علي بن عون ومنزل بوزيانو القصرين وفريانة ونتج عن هذه المظاهرات التي شملت مدن عديدة في تونس عن سقوط العديد من القتلى والجرحى من المتظاهرين نتيجة تصادمهم مع قوات الأمن ، وأجبرت الرئيس زين العابدين بن علي على إقالة عدد من الوزراء بينهم وزير الداخلية وتقديم وعود لمعالجة المشاكل التي نادى بحلها المتظاهرون ، كما أعلن عزمه على عدم الترشح لانتخابات الرئاسة عام 2014 . [2] كما تم بعد خطابه فتح المواقع المحجوبة في تونس كاليوتيوب بعد 5 سنوات من الحجب ، بالإضافة إلى تخفيض أسعار بعض المنتجات الغذائية تخفيضا طفيفا . لكن الاحتجاجات توسعت وازدادت شدتها حتى وصلت إلى المباني الحكومية مما أجبر الرئيس بن علي على التنحي عن السلطة ومغادرة البلاد بشكل مفاجئ بحماية أمنية ليبية إلى السعودية يوم الجمعة 14 يناير 2011 . [3] فأعلن الوزير الأول محمد الغنوشي في نفس اليوم عن توليه رئاسة الجمهورية بصفة مؤقتة وذلك بسبب تعثر أداء الرئيس لمهامه وذلك حسب الفصل 56 من الدستور ، مع إعلان حالة الطوارئ وحظر التجول . لكن المجلس الدستوري قرر بعد ذلك بيوم اللجوء للفصل 57 من الدستور وإعلان شغور منصب الرئيس ، وبناء على ذلك أعلن في يوم السبت 15 يناير 2011 عن تولي رئيس مجلس النواب فؤاد المبزع منصب رئيس الجمهورية بشكل مؤقت إلى حين إجراء انتخابات رئاسية مبكرة خلال فترة من 45 إلى 60 يوما . وشكلت الثورة التونسية المفجر الرئيسي لسلسلة من الاحتجاجات والثورات في عدد من الدول العربية . +question : متى إنطلقت الثورة التونسية في سيدي بوزيد ؟ +prompt : أجب عن السؤال التالي : متى إنطلقت الثورة التونسية في سيدي بوزيد ؟ الجواب هو في عام +pred_answer : 2010 � +answer : 17 ديسمبر 2010 + +context : القاصر مصطلح يستخدم في القانون للدلالة على الطفل . [1][2][3] و القاصر نوعان قاصر مميز و قاصر غير مميز ، في القانون الوضعي التونسي القاصر المميز هو الذي تجاوز سنه 13 سنة و القاصر غير المميز هو من لم يتم الثالثة عشرة سنة . +question : ما معنى مصطلح القاصر ؟ +prompt : أجب عن السؤال التالي : ما معنى مصطلح القاصر ؟ الجواب هو +pred_answer : أن القاصر هو الشخص الذي لم يبلغ سن +answer : مصطلح يستخدم في القانون للدلالة على الطفل + +context : ترأس الدولة الشيخ زايد بن سلطان آل نهيان حاكم إمارة أبوظبي ، والشيخ راشد بن سعيد آل مكتوم حاكم إمارة دبي نائبا لرئيس الدولة وشكل المجلس الأعلى للاتحاد من الرئيس ونائبه وباقي حكام الإمارات الموقعة على الدستور ، وشكل مجلس وزراء الإمارات برئاسة الشيخ مكتوم بن راشد آل مكتوم . وانضمت الإمارات إلى جامعة الدول العربية في 6 ديسمبر 1971 ، والأمم المتحدة في 9 ديسمبر 1971 ؛ وأنشأ المجلس الاستشاري الاتحادي في يوليو 1971 ليعقد أولى جلساته في 13 ديسمبر سنة 1972 ، وأعيدت هيكلته تحت اسم المجلس الوطني الاتحادي عام 1975 . ولاحقا ، كانت الإمارات من الدول المؤسسة لمجلس التعاون لدول الخليج العربية في قمة أبو ظبي يوم 25 مايو 1981 . [45] +question : من هو اول رئيس لدولة الأمارات العربية المتحدة ؟ +prompt : أجب عن السؤال التالي : من هو اول رئيس لدولة الأمارات العربية المتحدة ؟ الجواب هو +pred_answer : الشيخ زايد بن سلطان آل +answer : زايد بن سلطان آل نهيان + +context : بحر إيجة ( باليونانية : ، Aigaio Pelagos , [e eo pela os] ، بالتركية : Ege Denizi ) ، هو أحد أفرع البحر المتوسط طوله 643 . 5 كم وعرضه 322 كم ، يقع بين شبه الجزيرة اليونانية والأناضول ، يتصل ببحر مرمرة عن طريق مضيق الدردنيل ، وتطل عليه تركيا واليونان . +question : كم عرض بحر إيجة ؟ +prompt : أجب عن السؤال التالي : كم عرض بحر إيجة ؟ الجواب هو +pred_answer : ( 1 ) +answer : 322 كم + +context : طارق الطيب محمد البوعزيزي ( 29 مارس 1984[1] - 4 يناير 2011[2] ) ، هو شاب تونسي قام يوم الجمعة 17 ديسمبر كانون الأول عام 2010 م بإضرام النار في نفسه أمام مقر ولاية سيدي بوزيد احتجاجا على مصادرة السلطات البلدية في مدينة سيدي بوزيد لعربة كان يبيع عليها الخضار والفواكه لكسب رزقه ، وللتنديد برفض سلطات المحافظة قبول شكوى أراد تقديمها في حق الشرطية فادية حمدي التي صفعته أمام الملأ وقالت له : أي ارحل ( فأصبحت هذه الكلمة شعار الثورة للإطاحة بالرئيس وكذلك شعار الثورات العربية المتلاحقة ) . [3] أدى ذلك لانتفاضة شعبية وثورة دامت قرابة الشهر أطاحت بالرئيس زين العابدين بن علي ، أما محمد البوعزيزي فقد توفي بعد 18 يوما من إشعاله النار في جسده . أضرم على الأقل 50 مواطنا عربيا النار في أنفسهم لأسباب اجتماعية متشابهة تقليدا لاحتجاج البوعزيزي . أقيم تمثال تذكاري تخليدا له في العاصمة الفرنسية باريس . +question : من هو البوعزيزي ؟ +prompt : أجب عن السؤال التالي : من هو البوعزيزي ؟ الجواب هو +pred_answer : الشاب التونسي محمد البوعزيزي الذي أضرم النار في جسده احتجاجا على مصادرة الشرطة البلدية عربة الفاكهة والخضار التي كان يعتاش منها ، ما أدى إلى وفاته يوم 17 ديسمبر كانون الأول 2010 متأثرا بالحروق الخطيرة التي أصيب بها . +answer : شاب تونسي قام يوم الجمعة 17 ديسمبر كانون الأول عام 2010 م بإضرام النار في نفسه أمام مقر ولاية سيدي بوزيد احتجاجا على مصادرة السلطات البلدية في مدينة سيدي بوزيد لعربة كان يبيع عليها الخضار والفواكه لكسب رزقه + +context : يو إس بي - فئة سي أو او اختصارا USB - C هو منفذ وناقل متسلسل عالمي جديد تم إطلاقه بواسطة منظمة USB - IF وقد تم تطويره بالتزامن مع الإصدار USB 3 . 1 . وهو وريث الفثة الاكثر شيوعا من الموصلات الناقل التسلسلي العالمي ناقل البيانات والاتصالات والطاقة من النوع ركب وشغل ( بالإنجليزية : Plug and Play ) و يسمح بوصل أغلب الملحقات الطرفية والأجهزة المقترنة بالحاسوب لنقل المعلومات بينهما تسلسليا +question : ما هو منفذ يو اس بي - سي ؟ +prompt : أجب عن السؤال التالي : ما هو منفذ يو اس بي - سي ؟ الجواب هو +pred_answer : HDMI ، وهو اختصار ل +answer : منفذ وناقل متسلسل عالمي جديد + +context : الفرات هو أحد الأنهار الكبيرة في جنوب غرب آسيا وأكبر نهر في الصفيحة العربية ، وينبع النهر من جبال طوروس في تركيا ويتكون من نهرين في آسيا الصغرى هما مراد صو ( أي ماء المراد ) شرقا ، ومنبعه بين بحيرة وان وجبل أرارات في أرمينيا ، وقره صو ( أي الماء الأسود ) غربا ومنبعه في شمال شرقي الأناضول . والنهران يجريان في اتجاه الغرب ثم يجتمعان فتجري مياههما جنوبا مخترقة سلسلة جبال طوروس الجنوبية . ثم يجري النهر إلى الجنوب الشرقي وتنضم إليه فروع عديدة قبل مروره في الأراضي السورية ليجري في الاراضي العراقية ويلتقي بنهر دجلة في منطقة كرمة علي ليكون شط العرب الذي يصب في الخليج العربي . ومن خصائصه أنه ونهر النيل يعدان أغزر نهرين في الوطن العربي . ويدخل نهر الفرات في الأراضي السورية عند مدينة جرابلس ، وفي سوريا ينضم إليه نهر البليخ ثم نهر الخابور وثم يمر في محافظة الرقة ويتجه بعدها إلى محافظة دير الزور ، ويخرج منها عند مدينة البوكمال . ويدخل أراضي العراق عند مدينة القائم في محافظة الأنبار ليدخل بعدها محافظة بابل ويتفرع منه شط الحلة ثم يدخل نهر الفرات إلى محافظة كربلاء ثم إلى محافظة النجف ومحافظة الديوانية ثم محافظة المثنى ثم محافظة ذي قار ليتوسع ليشكل الأهوار ، ويتحد معه في العراق نهر دجلة فيشكلان شط العرب الذي تجري مياهه مسافة 90 ميلا ( 120 كم ) لتصب في الخليج العربي . ويبلغ طول نهر الفرات من منبعه في تركيا حتى مصبه في شط العرب في العراق حوالي 2940 كم منها 1176 كم في تركيا و 610 كم في سوريا[1] و 1160 كم في العراق ، ويتراوح عرضه بين 200 إلى أكثر من 2000 متر عند المصب . ويطلق على العراق بلاد الرافدين لوجود نهري دجلة والفرات بها . +question : أين ينبع نهر الفرات ؟ +prompt : أجب عن السؤال التالي : أين ينبع نهر الفرات ؟ الجواب هو +pred_answer : في الأراضي السورية ، وتحديدا في +answer : جبال طوروس في تركيا + +context : التطفل هو أحد أنواع العلاقات التكافلية بين الكائنات الحية من مختلف الأنواع حيث يعتمد كائن حي ، الطفيل ، في المعيشة على العائل . ويشير مصطلح الطفيل عادة إلى الكائنات الحية التي تعتمد خلال مراحل حياتها المختلفة على أكثر من عائل واحد ( مثل الدودة الشريطية الخنزيرية ) ، والتي يطلق عليها الآن اسم الطفيليات الجهرية ( من أفضل أمثلتها ، الحيوانات الأولية والديدان الطفيلية ) . ومن أنواع الطفيليات أيضا الطفيليات المجهرية أو الدقيقة ، مثل الفيروسات والبكتيريا ، وهي أصغر حجما من الطفيليات الجهرية ، ويمكن أن تنتقل بشكل مباشر بين العوائل من النوع نفسه . وتتميز الطفيليات عموما بأن حجمها أصغر بكثير من عائلها ، وتتمتع بدرجة عالية من التخصص في أسلوب حياتها ، علاوة على أنها تتكاثر بمعدل أسرع من عوائلها . وتتضمن الأمثلة التقليدية على التطفل العلاقة بين العوائل الفقارية والحيوانات المختلفة ، مثل العلاقة بين الديدان الشريطية والديدان الثاقبة ومختلف أنواع البلازموديوم ( الطفيليات الدموية ) والبراغيث . ويختلف التطفل عن شبه التطفل ؛ حيث إنه علاقة يقوم فيها الطفيل دائما بقتل العائل ، مثل حشرات العث والفراشات والنمل والذباب وغيره . +question : ماهو التطفل ؟ +prompt : أجب عن السؤال التالي : ماهو التطفل ؟ الجواب هو +pred_answer : أن يتطفل الإنسان على غيره من بني جنسه ، سواء كان تطفلا مباشرا أو غير مباشر .التطفل +answer : أحد أنواع العلاقات التكافلية بين الكائنات الحية من مختلف الأنواع حيث يعتمد كائن حي الطفيل في المعيشة على العائل + +context : نظام الحكم نظام الحكم في الأردن نيابي ملكي وراثي ، يتألف من ثلاث سلطات هي : السلطة التنفيذية ، السلطة التشريعية ، والسلطة القضائية . +question : هل الأردن ملكية أم جمهورية ؟ +prompt : أجب عن السؤال التالي : هل الأردن ملكية أم جمهورية ؟ الجواب هو +pred_answer : أن الملكية الدستورية +answer : ملكي + +context : تحوي قائمة الفاتيكان السنوية 265 فترة بابوية ، تعاقب خلالها 263 رجلا ، ذلك بسبب تنحي وعودة البابا بندكت التاسع ثلاث مرات خلال القرن الحادي عشر ( انظر أسفله ) ؛ ولا تخلو هذه القائمة من مختلف الانتقادات ، خصوصا عندما تم سنة 1961 حذف اسم البابا أسطفان الثاني من القائمة ، وذلك بسبب وفاته بعيد ساعات من انتخابه ، وبينما وجد المؤيدون سبب ذلك في عدم أدائه قداس التنصيب الرسمي ، أظهر المعارضون أن الانتخاب قد تم بشكل شرعي وأن عددا آخر من البابوات قد توفوا قبل خدمتهم لقداس التنصيب ورغم ذلك فقد حسبوا على قائمة البابوات ، كذلك فقد حسب البعض حبريات بندكت التاسع الثلاث حبرية واحدة ؛ وقد افتتحت السلطات الرسمية في الفاتيكان سنة 2001 دراسة دقيقة لتاريخ البابوات بهدف وضع سجل تاريخي شامل ودقيق ورفع حوالي 200 بابا إلى درجة القديسين من القديس بطرس وحتى يوحنا بولس الثاني . [6] +question : من كان أول بابا للفاتيكان ؟ +prompt : أجب عن السؤال التالي : من كان أول بابا للفاتيكان ؟ الجواب هو +pred_answer : يوحنا بولس الثاني +answer : بطرس + +context : راس الناقورة والناقورة كلمة معناها ثقب او حفر هي منطقة محمية طبيعية تقع في إسرائيل إلى أقصى الجنوب من السهل الساحلي في جنوب لبنان ، تتميز هذه المنطقة بالصخور التي تنزل إلى مياه البحر المتوسط ، ارتفاعها 300 متر , في جنوبها تتواجد ثلاثة جزر . [1][2] +question : أين تقع بلدة راس الناقورة ؟ +prompt : أجب عن السؤال التالي : أين تقع بلدة راس الناقورة ؟ الجواب هو +pred_answer : في أقصى +answer : جنوب لبنان + +context : تاريخ المملكة العربية السعودية في أواسط القرن الخامس عشر الميلادي هاجر الجد الأكبر لأسرة آل سعود مانع بن ربيعة المريدي من جوار القطيف إلى نجد حيث استقر وقام بتأسيس مدينة الدرعية . [1][2] وكانت بداية السعودية بتأسيس الدولة السعودية الأولى ( إمارة الدرعية ) على يد محمد بن سعود سنة 1157 ه 1744 والتي انتهت سنة 1233 ه 1818 ، [3][4] ثم تبعتها الدولة السعودية الثانية ( إمارة نجد ) وكانت قد بدأت بعد سقوط الدولة الأولى إلى أن انتهت سنة 1308 ه 1891 . [5] لاحقا جرت محاولات لتأسيس دولة سعودية ثالثة فتم ذلك على يد عبد العزيز آل سعود سنة 1319 ه 1902 ، فأصبحت لاحقا سلطنة نجد ثم بعد ذلك مملكة الحجاز ونجد وملحقاتها إلى أن أصبحت تحت مسمى المملكة العربية السعودية بعد توحيد جميع أراضيها في كيان واحد ، وكان ذلك في 1351 ه 23 سبتمبر 1932 م . [6] +question : متى نشأت المملكة العربية السعودية ؟ +prompt : أجب عن السؤال التالي : متى نشأت المملكة العربية السعودية ؟ الجواب هو في عام +pred_answer : 1932 +answer : 1744 + +context : أبو محمد علي بن أحمد بن سعيد بن حزم بن غالب بن صالح بن خلف بن معدان بن سفيان بن يزيد الأندلسي القرطبي [1] ( 30 رمضان 384 ه 7 نوفمبر 994 م . قرطبة - 28 شعبان 456 ه 15 اغسطس 1064 م ولبة ) ، يعد من أكبر علماء الأندلس وأكبر علماء الإسلام تصنيفا وتأليفا بعد الطبري ، وهو إمام حافظ . فقيه ظاهري ، ومجدد القول به ، بل محيي المذهب بعد زواله في الشرق . ومتكلم وأديب وشاعر ونسابة وعالم برجال الحديث وناقد محلل بل وصفه البعض بالفيلسوف كما عد من أوائل من قال بكروية الأرض ، [2] كما كان وزير سياسي لبني أمية ، سلك طريق نبذ التقليد وتحرير الأتباع ، قامت عليه جماعة من المالكية وشرد عن وطنه . توفي لاحقا في منزله في أرض أبويه منت ليشم المعروفة بمونتيخار[3] حاليا ، وهي عزبة قريبة من ولبة . [4] +question : من هو ابن حزم الأندلسي ؟ +prompt : أجب عن السؤال التالي : من هو ابن حزم الأندلسي ؟ الجواب هو +pred_answer : أبو محمد علي بن أحمد بن سعيد بن حزم الأندلسي ، ولد في قرطبة +answer : من أكبر علماء الأندلس وأكبر علماء الإسلام تصنيفا وتأليفا بعد الطبري + +context : الحرب الأهلية الليبيرية الثانية هي حرب بدأت عام 1999 وقامت بعد ظهور مجموعة ثائرة ضد الحكومة الليبيرية في شمال ليبيريا بدعم من حكومة الدولة المجاورة غينيا وبدعم من حزب الاتحاد الليبيري للمصالحة و الديمقراطية وفي ظهرت سنة 2003 مجموعة حزبية أخرى ثارت ضد الحكم وهم الحركة من أجل الديمقراطية في ليبيريا ونشطت في الجنوب لتطيح بحكومة تشارلز تايلور الحكومة الثالثة التي قادت البلاد ، وتمكن حزب الاتحاد الليبيري للمصالحة والديمقراطية من السيطرة على العاصمة مونروفيا ، وقامت مجموعة هذا الحزب بقصف المدينة وقتلوا الكثير من المدنيين فيها ، بينما كان آلاف الناس قد هجروا المدينة لأوضاعها السيئة ، في حين أن الرئيس الليبيري السابق تشارلز تايلور رحل إلى نيجيريا . +question : في أي عام إندلعت الحرب الأهلية الليبيرية الثانية ؟ +prompt : أجب عن السؤال التالي : في أي عام إندلعت الحرب الأهلية الليبيرية الثانية ؟ الجواب هو في عام +pred_answer : 1991 +answer : 1999 + +context : قابيل وهابيل هما أول ابنين للنبي آدم وزوجته حواء . +question : من هما أول ابنين للنبي آدم وزوجته حواء ؟ +prompt : أجب عن السؤال التالي : من هما أول ابنين للنبي آدم وزوجته حواء ؟ الجواب هو +pred_answer : قابيل وهابيل . +answer : قابيل وهابيل + +context : بنى المخترع الإنجليزي السير جورج كايلي عام 1809 أول طائرة شراعية ناجحة بالحجم الطبيعي ، وفي عام 1853 صنع طائرة شراعية بدائية جدا . وقد حملت هذه الطائرة مدرب كايلي عبر واد صغير . أصبح المهندس الألماني أوتو ليلينتال أول شخص قاد طائرة شراعية حيث قام في الفترة الممتدة بين عامي 1891 و 1896 بإتمام حوالي 2 , 500 طيران شراعي ، وفي عام 1897 استخدم المهندس الأسكتلندي بيرس أس . بيلشر أول تطبيق لتقنيات الجر في معاونة الطائرات الشراعية على الإقلاع . وقد توفي كل من ليلينثال وبيلشر في حوادث ارتطام طائراتهم الشراعية . +question : من مكتشف الطائرة الشراعية ؟ +prompt : أجب عن السؤال التالي : من مكتشف الطائرة الشراعية ؟ الجواب هو +pred_answer : عالم الفيزياء البريطاني السير +answer : جورج كايلي + +context : أقل من 3 سنوات تسمى سندات قصيرة الأجل . من 3 إلى 10 سنوات تسمى سندات متوسطة الأجل . أكثر من 10 سنوات تسمى سندات طويلة الأجل . +question : ماذا يسمى السند إذا كانت مدته أقل من 3 سنوات ؟ +prompt : أجب عن السؤال التالي : ماذا يسمى السند إذا كانت مدته أقل من 3 سنوات ؟ الجواب هو +pred_answer : " سند عادي " +answer : سندات قصيرة الأجل + +context : بحيرة باريمي ( Lake Parime ) أو بحيرة باريما ( Lake Parima ) هي بحيرة أسطورية تقع في قارة أمريكا الجنوبية ، وكان يعتقد أنها تقع بالقرب من مدينة إل دورادو الشهيرة والمعروفة باسم مدينة مانوا ، والتي سعى المستكشفون الأوروبيون لاحقا إلى اكتشافها . لغويا فإنه يعتقد أن كلمة مانوا من لغة أراواك ، وكلمة باريمي من لغة كاريب تعني " البحيرة الشاسعة " . [1] فشلت مساعي المستكشفين في إثبات وجود البحيرة ووصمت بأنها أسطورة جنبا إلى جنب مع المدينة . ساهم البحث عن البحيرة في رسم العديد من الخرائط للأنهار والخصائص الجغرافية لمناطق جنوب فنزويلا ، وشمال البرازيل ، وجنوب شرق غيانا والتي ضمت رسما للبحيرة ، ولكن أثبت في القرن التاسع عشر أنها مجرد أسطورة غير صحيحة . +question : أين تقع بحيرة باريمي ؟ +prompt : أجب عن السؤال التالي : أين تقع بحيرة باريمي ؟ الجواب هو +pred_answer : أنها تقع في شمال +answer : أمريكا الجنوبية + +context : Coordinates : الكاتدرائية البطريركية بازيليكا القديس مرقس هي كنيسة كاتدرائية تابعة للأبرشية الرومانية الكاثوليكية في مدينة البندقية شمال إيطاليا . [1] هي أشهر كنائس المدينة وإحدى أفضل الأمثلة المعروفة على العمارة البيزنطية . تقع في ميدان سان ماركو ( في منطقة سان ماركو ) مجاورة ومتصلة بقصر دوجي . +question : أين تقع كنيسة القديس ماركو ؟ +prompt : أجب عن السؤال التالي : أين تقع كنيسة القديس ماركو ؟ الجواب هو +pred_answer : في مدينة +answer : البندقية + +context : لوليتا هو فيلم دراما تم إنتاجه في فرنسا والولايات المتحدة وصدر في سنة 1997 . من بطولة جيرمي أيرونز وميلاني جريفيث ودومينيك سوين وفرانك لانجيلا . يمثلل الفيلم رواية لوليتا . +question : متى صدر فيلم لوليتا ؟ +prompt : أجب عن السؤال التالي : متى صدر فيلم لوليتا ؟ الجواب هو في عام +pred_answer : 1963 ، +answer : 1997 + +context : بدر الدين الزركشي أبو عبد الله ، بدر الدين ، محمد بن بهادر بن عبد الله الزركشي المصري ، فقيه شافعي ، أصولي ومحدث ، له مؤلفات في علوم كثيرة . ولد في القاهرة سنة 745 ه ، وتوفي سنة 794 ه ، رحل إلى حلب وأخذ عن الشيخ شهاب الدين الاذرعي وأخذ عن علماء حلب وسافر إلى دمشق وسمع الحديث من شيوخها . +question : من هو بدر الدين الزركشي ؟ +prompt : أجب عن السؤال التالي : من هو بدر الدين الزركشي ؟ الجواب هو +pred_answer : أبو الحسن علي بن أبي بكر الهيثمي ، المتوفى سنة 807 ه .قال في كتابه " مجمع الزوائد ومنبع الفوائد " ( 9 +answer : أبو عبد الله بدر الدين محمد بن بهادر بن عبد الله الزركشي المصري فقيه شافعي أصولي ومحدث له مؤلفات في علوم كثيرة + +context : سايت هو محرر نصوص مبني على مكتبة سينتيلا البرمجية و هو متعدد المنصات و يعمل على مختلف أنواع أنظمة التشغيل و قد قام نيل هدجسون بتطويره و إطلاق النسخة الأولى منه في العام 1999 ، شروط استخدامه خاضعة لرخصة إشعار الإذن وإخلاء المسؤولية التاريخية ( Historical Permission Notice and Disclaimer ) . +question : متى تم إطلاق سايت ( محرر نصوص ) ؟ +prompt : أجب عن السؤال التالي : متى تم إطلاق سايت ( محرر نصوص ) ؟ الجواب هو في عام +pred_answer : 2005 . +answer : 1999 + +context : الشبكة الوطنية لإنهاء العنف الأسري ( NNEDV ) هي منظمة غير ربحية معفاة من نظام الضرائب الأمريكية ، [1] وتأسست عام 1990 ، [2] ومقرها في مقاطعة كولومبيا . وهي عبارة عن شبكة تضم عددا من الائتلافات المناهضة للعنف الأسري في هذه الولاية الأمريكية . وتمثل هذه الشبكة أكثر من ألفي منظمة عضو في جميع أنحاء البلاد . وتعمل الشبكة الوطنية لإنهاء العنف الأسري على معالجة جوانب متعددة لهذا النوع من العنف . +question : متى تأسست الشبكة الوطنية لإنهاء العنف الأسري ؟ +prompt : أجب عن السؤال التالي : متى تأسست الشبكة الوطنية لإنهاء العنف الأسري ؟ الجواب هو في عام +pred_answer : 2003 ، +answer : 1990 + +context : نادي شيفيلد وينزداي ، هو نادي كرة قدم إنجليزي محترف ، يقع مقره في شيفيلد في جنوب يوركشاير في إنجلترا . وهو حاليا أحد الفرق التي تنافس في دوري الدرجة الأولى الإنجليزي لكرة القدم . شيفيلد وينزداي هو أحد أقدم الاندية في العالم ، وخامس اقدم فريق في اتحاد الكرة الإنجليزي ، حيث يعود تاريخ تأسيس النادي ل 04 سبتمبر 1867 +question : متى تأسس نادي شيفيلد وينزداي ؟ +prompt : أجب عن السؤال التالي : متى تأسس نادي شيفيلد وينزداي ؟ الجواب هو في عام +pred_answer : 1892 ، عندما +answer : 04 سبتمبر 1867 + +context : صدام حسين المجيد التكريتي الذي ينتمي إلى عشيرة البيجات[1][معلومة 1] ( 28 أبريل 1937[2] – 30 ديسمبر 2006 ) [3] رابع رئيس لجمهورية العراق والأمين القطري لحزب البعث العربي الاشتراكي والقائد الأعلى للقوات المسلحة العراقية في الفترة ما بين عام 1979 م وحتى 9 أبريل عام 2003 م [4] ، ونائب رئيس جمهورية العراق عضو القيادة القطرية ورئيس مكتب الأمن القومي العراقي بحزب البعث العربي الاشتراكي بين 1975 و 1979 . +question : متى تولى صدام حسين الحكم ؟ +prompt : أجب عن السؤال التالي : متى تولى صدام حسين الحكم ؟ الجواب هو في عام +pred_answer : 1979 ، +answer : 1979 + +context : التجمعات نجمية أو العناقيد النجمية هي مجموعات من النجوم متجمعة معا كأنها عناقيد مثل مجموعة الثريا والتي تقع فوق كتف الجبار اليمنى في كوكبة الثور . تنقسم العناقيد النجمية إلى نوعين : التجمعات المفتوحة والتجمعات المغلقة . +question : ما هو العنقود النجمي ؟ +prompt : أجب عن السؤال التالي : ما هو العنقود النجمي ؟ الجواب هو +pred_answer : أنه عبارة عن مجموعة من النجوم تدور حول بعضها البعض +answer : مجموعات من النجوم متجمعة معا كأنها عناقيد + +context : بابا الإسكندرية : هو لقب يطلق على رؤساء أساقفة الكنيسة القبطية الأرثوذكسية ( بابا الإسكندرية وبطريرك الكرازة المرقسية ) ، وبابا هي في الأصل كلمة قبطية تنطق " بي آبا " وتعني الأب ، ويقال أن أول من دعي بهذا اللقب هو القديس إنيانوس البطريرك الثاني لكرسي الإسكندرية الرسولي . +question : من هو بابا الإسكندرية ؟ +prompt : أجب عن السؤال التالي : من هو بابا الإسكندرية ؟ الجواب هو +pred_answer : الأنبا باخوميوس ، مطران البحيرة ومطروح +answer : لقب يطلق على رؤساء أساقفة الكنيسة القبطية الأرثوذكسية + +context : شريف كواشي ( 1982 - 2015 ) وهو أحد المنفذين لحادثة الهجوم على صحيفة شارلي إبدو في 7 يناير 2015 رفقة شقيقه الأكبر سعيد كواشي . +question : من هو شريف كواشي ؟ +prompt : أجب عن السؤال التالي : من هو شريف كواشي ؟ الجواب هو +pred_answer : محمد مراح ، منفذ هجمات تولوز ومونتوبان ( جنوب غرب فرنسا ) التي أسفرت عن مقتل أربعة أشخاص بينهم ثلاثة +answer : أحد المنفذين لحادثة الهجوم على صحيفة شارلي إبدو في 7 يناير 2015 رفقة شقيقه الأكبر سعيد كواشي + +context : سفر اللاويين ( بالعبرية : ) هو أحد الاسفار المقدسة في التناخ الكتاب المقدس لدى الديانة اليهودية والعهد القديم لدى المسيحية ؛ ولا خلاف على قدسيته لدى جميع الطوائف المسيحية واليهودية ؛ يعتبر سفر اللاويين أحد الأسفار الخمسة الأولى المنسوبة لموسى ويشكل جزءا من التوراة ؛ [1] أصل التسمية تعود إلى مفردة لاوي وهو أحد أسباط بني إسرائيل الاثني عشر وقد عهد إلى هذا السبط شؤون الخدمة الكهنوتية في المجتمع اليهودي بشكل حصري ؛ أما في الترجمة اليسوعية للكتاب المقدسة يظهر السفر تحت اسم سفر الأحبار . +question : ما هو سفر اللاويين ؟ +prompt : أجب عن السؤال التالي : ما هو سفر اللاويين ؟ الجواب هو +pred_answer : أن هذا السفر من الأسفار القانونية للتوراة ، +answer : أحد الاسفار المقدسة في التناخ الكتاب المقدس + +context : ياني كريسماليس ( 14 نوفمبر 1954 م - ) : هو مؤلف موسيقي من أصل يوناني . +question : ماهي جنسية الموسيقي ياني ؟ +prompt : أجب عن السؤال التالي : ماهي جنسية الموسيقي ياني ؟ الجواب هو +pred_answer : أنه موسيقي +answer : يوناني + +context : ألبرت أينشتاين ( 14 مارس 1879 – 18 أبريل 1955 ) عالم فيزياء ألماني المولد ، [1] ( حيث تخلى عن الجنسية الألمانية لاحقا ) [2] سويسري وأمريكي الجنسية ، [3] من أبوين يهوديين ، [4] وهو يشتهر بأب النسبية كونه واضع النسبية الخاصة والنسبية العامة الشهيرتين اللتين كانتا اللبنة الأولى للفيزياء النظرية الحديثة ، [5][6] ولقد حاز في عام 1921 على جائزة نوبل في الفيزياء عن ورقة بحثية عن التأثير الكهروضوئي ، [7] ضمن ثلاثمائة ورقة علمية أخرى له في تكافؤ المادة والطاقة وميكانيكا الكم وغيرها ، [8] وأدت استنتاجاته المبرهنة إلى تفسير العديد من الظواهر العلمية التي فشلت الفيزياء الكلاسيكية في إثباتها . بدأ أينشتاين " بالنسبية الخاصة " التي خالفت نظرية نيوتن في الزمان والمكان لتحل بشكل خاص مشاكل النظرية القديمة فيما يتعلق بالأمواج الكهرومغناطيسية عامة ، والضوء خاصة ، وذلك ما بين ( 1902 - 1909 ) في سويسرا . [9][10] أما " النسبية العامة " فقد طرحها عام 1915[11] حيث ناقش فيها الجاذبية ، وتمثل الوصف الحالي للجاذبية في الفيزياء الحديثة . تعمم النسبية العامة كل من النسبية الخاصة وقانون الجذب العام لنيوتن ، بتقديمها لوصف موحد للجاذبية على أنها خاصية هندسية للزمان والمكان ، أو الزمكان . [12][13] +question : متى عاش ألبرت أينشتاين ؟ +prompt : أجب عن السؤال التالي : متى عاش ألبرت أينشتاين ؟ الجواب هو في عام +pred_answer : 1879 � +answer : 14 مارس 1879 + +context : اهتدي بنكوس الي وجود ماده كميائيه اخري إذا استخدمت فانها تقوم بكل العمل . والماده هي نورثيمثودرل . هذه المادة إذا حلت بماده كميائيه اخري فانها تاتي بالنتيجه المطلوبة . فكان تركيب هاتين المادتين معا في سنه 1955 ، وقد ادي ذلك الي صناعه حبوب انوفيد لمنع الحمل . ومضي في تجاربه علي الحيونات وعلي الناس أيضا ، حتي تاكد لديه نجاح هذه الحبوب . وفي سنه 1960 انتجت هذه الحبوب وامتلات بها الأسواق . ومن الإنصاف ان يقال ان عددا كبيرا من الا طباء والكميائيين قد ساهموا جميعا في اعداد هذه المواد الكميائيه وتجربتها ومراقبتها . ولكن بنكوس هو الوحيد الذي نذر نفسه لهذه التجربة وصبر علي ويلاتها حتي افلح في النهاية في أن يحقق هذا النصر التاريخي وهو من اجل ذلك يستحق الشرف العظيم . ولقد انعمت عليه الكثير من الهيئات بالقاب والنياشين ، ولكنه رغم ذلك لم يفز بجائزة نوبل لاهو ولا الذين عاونوه . . ! +question : متى ظهرت حبوب منع الحمل ؟ +prompt : أجب عن السؤال التالي : متى ظهرت حبوب منع الحمل ؟ الجواب هو في عام +pred_answer : 1890 +answer : 1960 + +context : أسست الأميرة الفينيقية عليسة ( أليسا أو أليسار ) قرطاج عام 814 ق م . ، حسب رواية المؤرخين القدماء . وجاءت الأميرة هاربة من أخوها مع أصحابها من مدينة صور بلبنان ، وسموا المدينة " قرت حدشت " بمعنى " المدينة الجديدة " ( من الفينيقية : قرت أي مدينة ، وحدشت أي حديثة ) ، فأصبح الاسم " قرطاج " عن طريق النطق اللاتيني . وكانوا يعبدون خاصة " ملقرت " ، واسمه يعني " ملك المدينة " . +question : من بنى قرطاج ؟ +prompt : أجب عن السؤال التالي : من بنى قرطاج ؟ الجواب هو +pred_answer : لا أحد +answer : عليسة + +context : الحمض النووي الريبوزي الصغير النووي أو الرنا الصغير النووي هو فئة من جزيئات الحمض النووي الريبوزي الصغير الموجود داخل أنوية الخلايا الحقيقية . ينسخ هذا النوع بواسطة بوليميراز الحمض النووي الريبوزي 2 أو بوليمراز الحمض النووي الريبوزي 3 ، ويشارك في مجموعة من العمليات الهامة مثل ربط الحمض النووي ( ، إزلة introns من hnRNA ) ، تنظيم عوامل النسخ 7SK RNA أو بوليمراز الحمض النووي 2 ( B2 RNA ) والحفاظ على التيلومير . [1] +question : ما هو الحمض النووي الريبوزي الصغير النووي ؟ +prompt : أجب عن السؤال التالي : ما هو الحمض النووي الريبوزي الصغير النووي ؟ الجواب هو +pred_answer : عبارة عن سلسلة طويلة من النيوكليوتيدات التي ترتبط مع بعضها البعض +answer : فئة من جزيئات الحمض النووي الريبوزي الصغير الموجود داخل أنوية الخلايا الحقيقية + +context : العظايا الحرشفية أو الليبيدوصوريات ( الاسم العلمي : Lepidosauria ) هي من الحيوانات تتبع الحبليات[1] . تنقسم العظايا الحرشفية إلى رتيبتي " سكاماتا " و " سفينودونتيداي " . ينتمي إلى السكاماتا الثعابين والسحالي والأمفيسبانيا . ويمثل رتيبة السفينودونتيداي جنسين من تواتارا تسكن الآن في نيوزيلاندا وكنت تلك الرتيبة منتشرة بكثرة في ال 200 مليون سنة الماضية ، وكانت متنوعة . وتعتبر العظايا الحرشفية أختا للأركوصورات التي تضم الطيور والتماسيح . وتعتبر عائلة التواتارا هي الوحيدة التي عاشت حتى الآن وتسمى جنس " سفينودون " . وتشكل السحالي والثعابين أكثر مجموعات العظايا الحرشفية تنوعا ويوجد منها نحو 8000 من الأنواع . [2] +question : ما هي العظايا الحرشفية ؟ +prompt : أجب عن السؤال التالي : ما هي العظايا الحرشفية ؟ الجواب هو +pred_answer : : إن العظاية الحر +answer : من الحيوانات تتبع الحبليات + +context : الرهبنة الدومينيكانية هي رهبنة أسسها القديس دومينيك عام 1215 م . [1] بدأت نشاطها ، في مدينة طولوز بفرنسا ، وكانت أول رهبنة كاثوليكية تأخذت على عاتقها التبشير بالعقيدة المسيحية ، وهي مهمة كانت تعتبر من قبل وقفا على الأساقفة ( ومندوبيهم ) وامتيازا لهم . وقد تميز الدومينيكان الأولون بثقافة تخطت اللاهوت إلى دراسة أرسطو كما عرفته أوروبا ، وإلى محاولة التوفيق بين اللاهوت والفلسفة أيضا . [1] +question : ماهو نظام الرهبان الدومينيكان ؟ +prompt : أجب عن السؤال التالي : ماهو نظام الرهبان الدومينيكان ؟ الجواب هو +pred_answer : النظام الرهباني الذي أسسه القديس فرنسيس الأس� +answer : رهبنة أسسها القديس دومينيك عام 1215 + +context : في عام 2011 ، بعد مناقصة أطلقتها تعاونية بيير دي سوريل في كيبيك ، الشركة الكندية AceTechnology بدأت في فك العزلة عن المناطق الزراعية باستخدام تقنية WiMax ، وقد وضعت احتياطات خاصة في المكان لتلبية تغيرات درجة الحرارة عالية بين الشتاء والصيف . منطقة التغطية تمتد 1000 كم 2 . +question : متى بدأ إستعمال خدمة الواي ماكس في كندا ؟ +prompt : أجب عن السؤال التالي : متى بدأ إستعمال خدمة الواي ماكس في كندا ؟ الجواب هو في عام +pred_answer : 2001 . +answer : 2011 + +context : عرفت المغرب الشبكة ( الإنترنت ) في عام 1995 حيث كان عدد مستخدمين الإنترنت قليلا ولكن الأوضاع تغيرت كثيرا مع تولى الملك " محمد السادس " الحكم حيث أعلن تأييده للوسيط الجديد وأعلن عن بداية عقد تعليمي يستمر حتى عام 2008 تكون جميع المدارس المغربية خلاله قد ارتبطت بالشابكة ( الإنترنت ) [3] ، ويبدو السبب الأساسي لهذا الاهتمام الرسمي الكبير بشبكة الإنترنت هو المراهنة على استقطاب الاستثمارات الأجنبية فيه +question : متى بدأ استخدام الإنترنت في المغرب ؟ +prompt : أجب عن السؤال التالي : متى بدأ استخدام الإنترنت في المغرب ؟ الجواب هو في عام +pred_answer : 1996 ، +answer : 1995 + +context : تأسست رويترز في آخر عام 1851 عن طريق مؤسسها رجل الأعمال الألماني جوليوس رويتر وقد بدأت بالأخبار المالية ، ثم توسعت في عام 1858 لتغطي الأخبار العامة كذلك . ومن الأخبار الأولى المهمة التي غطتها وكالة رويترز آنذاك الحرب الأهلية في الولايات المتحدة الأمريكية بين عامي 1861 و 1865 . +question : متى تأسست وكالة رويترز للانباء ؟ +prompt : أجب عن السؤال التالي : متى تأسست وكالة رويترز للانباء ؟ الجواب هو في عام +pred_answer : 1868 +answer : 1851 + +context : Coordinates : مضيق باب المندب ممر مائي يصل البحر الأحمر بخليج عدن وبحر العرب . +question : ما اسم الممر المائي الذي يصل البحر الأحمر بخليج عدن وبحر العرب ؟ +prompt : أجب عن السؤال التالي : ما اسم الممر المائي الذي يصل البحر الأحمر بخليج عدن وبحر العرب ؟ الجواب هو +pred_answer : " باب المندب +answer : مضيق باب المندب + +context : حقق المنتخب القطري لقب كأس آسيا عام 2019 للمرة الأولى في تاريخه بعد تغلبه على اليابان في النهائي 3 - 1 . [1] كما فاز ببطولة كأس الخليج ثلاث مرات ، المرة الأولى عام 1992 والمرة الثانية عام 2004 والمرة الثالثة 2014 ، والمرتين التي فاز بها كانت في الدوحة والثالثة في الرياض . استطاع المنتخب القطري للشباب عام 1981 من الوصول مع المنتخب الألماني الغربي إلى المباراة النهائية لبطولة كأس العالم للشباب التي أقيمت في أستراليا والتي فاز ببطولتها المنتخب الألماني الغربي . وفي عام 2014 حقق بطولة كأس آسيا للشباب في مينمار ضد منتخب مينمار ، كما نجح المنتخب القطري الأولمبي في الفوز بلقب دورة الألعاب الآسيوية 2006 والتي نظمت في الدوحة حيث توج فيها بلقب مسابقة كرة القدم ، وقد درب المنتخب القطري العديد من المدربين العالميين مثل الفرنسي برونو ميتسو والبرازيلي إيفرستو والبرازيلي لابولا والفرنسي فيليب تروسيه والهولندي جو بونفرير . +question : متى فازت قطر بكأس آسيا لكرة القدم لأول مرة ؟ +prompt : أجب عن السؤال التالي : متى فازت قطر بكأس آسيا لكرة القدم لأول مرة ؟ الجواب هو في عام +pred_answer : 1988 ، +answer : 2019 + +context : علامة برافرمان [1] هي علامة جلدية تتكون من توسع الأوعية الشعيرية الدقيقة حول الأظافر ، وعادة ما يترافق معها أمراض النسيج الضام . [2] +question : ما هي علامة برافرمان ؟ +prompt : أجب عن السؤال التالي : ما هي علامة برافرمان ؟ الجواب هو +pred_answer : أن يكون الشخص قادرا على القيام بما لا يستطيع الآخرون القيام به +answer : علامة جلدية تتكون من توسع الأوعية الشعيرية الدقيقة حول الأظافر + +context : جمهورية أيرلندا[1] ( بالأيرلندية : ire ) الجزء الأكبر ( خمسة أسداس ) من جزيرة أيرلندا . تقع الجزيرة في شمال شرق المحيط الأطلسي ، محاذية لجزيرة بريطانيا . يفصلها عن بريطانيا كل من : بحر الشمال ، البحر الأيرلندي ، قنال سانت جورج والبحر الكلتي . أيرلندا الشمالية ، التابعة للمملكة المتحدة ، تكون الجزء الآخر الصغير من الجزيرة . تعرف في اللغة الغيلية " أير " . كما تعرف ب " جزيرة الزمرد " لجمال ريفها الأخضر . +question : أين تقع جزيرة أيرلندا ؟ +prompt : أجب عن السؤال التالي : أين تقع جزيرة أيرلندا ؟ الجواب هو +pred_answer : في شمال غرب المحيط الأطلسي +answer : شمال شرق المحيط الأطلسي + +context : خواكين رودريغو فيدري ( بالإسبانية : Joaqu n Rodrigo Vidre ) موسيقار إسباني راحل . ( 22 نوفمبر 1901 - 6 يوليو 1999 ) كان مؤلفا للموسيقى الكلاسيكية عازفا على البيانو . رغم كونه كفيفا منذ سنين عمره الأولى ، فقد حقق نجاحا عظيما . عدت موسيقى رودريغو من بين الموسيقى الكلاسيكية الأكثر شعبية في القرن العشرين ، وخصوصا كونشيرتو دي آرانخويث Concierto de Aranjuez ، التي تعتبر قمة في الموسيقى الإسبانية وواحدة من مراجع كونشيرتات الغيتار . +question : من هو خواكين رودريغو ؟ +prompt : أجب عن السؤال التالي : من هو خواكين رودريغو ؟ الجواب هو +pred_answer : لا أحد .لكن ، ما الذي +answer : مؤلفا للموسيقى الكلاسيكية عازفا على البيانو + +context : الموزة الزرقاء أو العمود الفقري الأوروبي ; ; ; هي منطقة ذات ممر حضري غير مستمر في أوروبا الغربية ، يسكنه ما يقارب 90 مليون نسمة . يمتد من شمال انكلترا في الشمال ، إلى ميلانو في الجنوب . تغطي هذه المنطقة مدن كثيرة مثل : لندن ، بروكسل ، امستردام ، كولونيا ، فرانكفورت ، لوكسمبورغ ، شتوتغارت ، ستراسبورغ ، زيورخ وميلانو . وتغطي واحدة من أكثر التجمعات تركيزا بالسكان ، والمال ، والصناعات في العالم . [1][2] نشأت الفكرة وتطورت في عام 1989 على يد أحد المستشارين الجغرافيين الفرنسيين وهو روجر برونيه . [3] +question : ما هي الموزة الزرقاء أو العمود الفقري الأوروبي ؟ +prompt : أجب عن السؤال التالي : ما هي الموزة الزرقاء أو العمود الفقري الأوروبي ؟ الجواب هو +pred_answer : أن هذا النوع من الموز يحتوي على نسبة عالية من فيتامين ( أ ) ، وفيتامين ( ج ) ، والبوتاسيوم ، والمغنيسيوم +answer : منطقة ذات ممر حضري غير مستمر في أوروبا الغربية يسكنه ما يقارب 90 مليون نسمة يمتد من شمال انكلترا في الشمال إلى ميلانو في الجنوب + +context : فرانثيسكو فرانكو ( 4 ديسمبر 1892 - 20 نوفمبر 1975 ) ، قائد عسكري تولى رئاسة إسبانيا من أكتوبر 1936 وحتى وفاته في سنة 1975 ، وصل إلى السلطة بعد الحرب الأهلية الإسبانية ( 1936 - 1939 ) . +question : متى تولى فرانكو الحكم في إسبانيا ؟ +prompt : أجب عن السؤال التالي : متى تولى فرانكو الحكم في إسبانيا ؟ الجواب هو في عام +pred_answer : 1939 ، عندما +answer : أكتوبر 1936 + +context : ( حرفيا ؛ الهائج ) هي سلاسلة مانغا يابانية من الخيال المظلم ، مكتوبة ومصورة من قبل كينتارو ميورا . لها طابع أحداث العصور الوسطى في أوروب المظلمة . تدور القصة حول شخصيات غاتس ، ميرسينار ، جريفيث ، هو زعيم لفرقة تدعى " فريق الصقور " . المواضيع العزلية ، الصداقة ، ومسألة ما إذا كانت الإنسانية هي في الأساس من الخير أو الشر التي تسوهاد القص ، كما يستكشف أفضل أسوأ ما في الطبيعة البشرية . كل المانغا والأنمي مشهور باستخدام العنف التصويري المحتوى الجنسي . +question : ما هو نوع مانجا بيرسيرك ؟ +prompt : أجب عن السؤال التالي : ما هو نوع مانجا بيرسيرك ؟ الجواب هو +pred_answer : المانغا +answer : الخيال المظلم + +context : عصر المشروطية الثانية ، هو الفترة التي بدأ فيها إعلان الدستور العثمانى من جديد في 24 تموز 1908 م ، بعد أن ظل معلق تسعة وعشرين عاما وهي أيضا تعد فترة التصفية النهائية للدولة العثمانية في 5 نوفمبر 1922 م . فنظرا لكون المشروطية الأولى لم تنته رسميا ولم يحدث تغيير بالدستور ، فإن بعض المؤرخين اعتبروا أن هذه المشروطية واحدة وأن لها مشروطية ثانية . +question : ما هو عصر المشروطية الثانية ؟ +prompt : أجب عن السؤال التالي : ما هو عصر المشروطية الثانية ؟ الجواب هو +pred_answer : أن هذا العصر قد بدأ في عام 1789 م ، أي بعد +answer : الفترة التي بدأ فيها إعلان الدستور العثمانى من جديد في 24 تموز 1908 + +context : حالة الحفظ للنوع هي مؤشر لإمكانية بقاء النوع على قيد الوجود في الحاضر والمستقبل المنظور عبر دراسة إجمالي معدلات التزايد والتناقص للمجموعة بمرور الوقت ومهددات الوجود والتناسل وينشط في هذا المجال اتحاد الحماية العالمي الذي أصدر القائمة الحمراء للأنواع المهددة بالانقراض والذي وضع فيها 3 أصناف للأنواع المددة بالانقراض وهي : +question : ما هي حالة الحفظ للنوع ؟ +prompt : أجب عن السؤال التالي : ما هي حالة الحفظ للنوع ؟ الجواب هو +pred_answer : أن كل نوع من أنواع الحفظ يحتاج إلى طريقة خاصة به في الحفظ ، وهذه الطريقة تختلف من شخص لآخر ، ومن بيئة لأخرى ، ومن معلم لطالبه . +answer : مؤشر لإمكانية بقاء النوع على قيد الوجود في الحاضر والمستقبل المنظور عبر دراسة إجمالي معدلات التزايد والتناقص للمجموعة بمرور الوقت ومهددات الوجود والتناسل + +context : تكونت المراسلات من عشر خطابات متبادلة في الفترة من يوليو 1915 إلى مارس 1916 ، [4] بين الحسين بن علي شريف مكة والمقدم الكولونيل هنري مكماهون سفير المملكة المتحدة لدى مصر . كانت منطقة الاستقلال العربية تعتبر في الحدود التي أقرها شريف مكة باستثناء أجزاء من سوريا والتي تقع غرب ضواحي دمشق وحمص وحماة وحلب . أدت بعض التفسيرات المتضادة إلى نزاع كبير في السنوات التالية . +question : متى بدأت مراسلات الحسين – مكماهون ؟ +prompt : أجب عن السؤال التالي : متى بدأت مراسلات الحسين – مكماهون ؟ الجواب هو في عام +pred_answer : 1915 � +answer : يوليو 1915 + +context : عمر حسن أحمد البشير ( 1 يناير 1944 ) ، رئيس جمهورية السودان ورئيس حزب المؤتمر الوطني ، حيث قاد انقلابا عسكريا على الحكومة الديموقراطية المنتخبة برئاسة رئيس الوزراء المنتخب في تلك الفترة الصادق المهدي وتولى عمر البشير بعد الانقلاب منصب رئيس مجلس قيادة ثورة الإنقاذ الوطني في 30 يونيو 1989 ، وجمع بين منصب رئيس الوزراء ومنصب رئيس الجمهورية حتى 2 مارس 2017 حيث تم فصل منصب رئيس الوزراء وفقا لتوصيات الحوار الوطني السوداني وتم تعيين بكري حسن صالح رئيسا للوزراء . +question : متى تولى البشير رئاسة السودان ؟ +prompt : أجب عن السؤال التالي : متى تولى البشير رئاسة السودان ؟ الجواب هو في عام +pred_answer : 1989 � +answer : 30 يونيو 1989 + +context : مثبطات اللهب هي عبارة عن مواد كيميائية تضاف إلى المواد المصنعة مثل اللدائن والأنسجة المختلفة ، وذلك من أجل تثبيط أو منع أو تأخير تشكل اللهب في حال حدوث حريق . +question : ما هي مثبطات اللهب ؟ +prompt : أجب عن السؤال التالي : ما هي مثبطات اللهب ؟ الجواب هو +pred_answer : عبارة عن مجموعة من المواد الكيميائية التي تعمل على تثبيط عمل الإنزيم المسؤول عن أكسدة مادة معينة في الجسم .ومن هذه المثبطات +answer : مواد كيميائية تضاف إلى المواد المصنعة مثل اللدائن والأنسجة المختلفة وذلك من أجل تثبيط أو منع أو تأخير تشكل اللهب في حال حدوث حريق + +context : مؤتمر الحوار الوطني الشامل [1] هو مؤتمر جرى التحضير والإعداد له مراحل طويلة وتعرقل لأكثر من مرة وبدأت المرحلة الأخيرة بعد ثورة الشباب اليمنية بدعم خارجي غير مسبوق وبدأ أول جلساته في 18 مارس 2013 ، بالعاصمة اليمنية صنعاء ، [2] والتي تصادف الذكرى الثانية لمجزرة جمعة الكرامة بساحة التغيير في صنعاء ، [3] وأستمر لمدة عشرة أشهر حتى 25 يناير 2014 ، في سعي طموح لمداواة جروح البلد بعد الانتفاضة التي استمرت لمدة عام ، والتي أجبرت النظام السابق على ترك السلطة بعد حكم دام 33 عاما . وأنعقد تحت شعار " بالحوار نصنع المستقبل " ، رأس مؤتمر الحوار رئيس البلاد عبد ربه منصور هادي [4] ، ضم المؤتمر 565 عضوا 50 % منهم من مواطني المحافظات الجنوبية و 30 % من الجانب النسائي و 20 % من الشباب [5] ، جرى اختيارهم وترشيحهم من جميع الأطراف السياسية والفاعلة ومنظمات المجتمع المدني بنسب معينة يرد تفصيلها لاحقا . في مؤتمر القمة العربية 2013 قال الرئيس هادي ان " الشعب اليمني سيفاجئ العالم لتحقيق التغيير من خلال الحوار " . [6] +question : متى بدأ مؤتمر الحوار الوطني الشامل أول جلساته ؟ +prompt : أجب عن السؤال التالي : متى بدأ مؤتمر الحوار الوطني الشامل أول جلساته ؟ الجواب هو في عام +pred_answer : 2013 � +answer : 18 مارس 2013 + +context : سوزان هوارد ( و . 1944 – م ) هي ممثلة ، وممثلة تلفزيونية ، من الولايات المتحدة الأمريكية ، ولدت في مارشال ، تكساس ، الحزب الجمهوري . +question : متى ولدت الممثلة الأميركية سوزان هيوارد ؟ +prompt : أجب عن السؤال التالي : متى ولدت الممثلة الأميركية سوزان هيوارد ؟ الجواب هو في عام +pred_answer : 1937 . +answer : 1944 + +context : بروناي أو < b data - parsoid = ' { " dsr " : [3377 , 3397 , 3 , 3] } ' > اتحاد بروناي ( بالمالايو : نيجارا بروناي داروسلام ، بالجاوية : بروني دار السلام ) وتعرف رسميا باسم بروناي دار السلام أو أمة بروناي أو أرض السلام ، هي دولة تقع على الساحل الشمالي لجزيرة بورنيو في جنوب شرق آسيا . تنقسم بروناي إلى منطقتين تفصلهما بلدة لمبانج التابعة لولاية سراوق الماليزية التي تحيط ببروناي بشكل كامل باستثناء ساحل بروناي الشمالي المطل على بحر الصين الجنوبي . بروناي هي الدولة المستقلة الوحيدة على جزيرة بورنيو ، حيث تتقاسم ماليزيا وإندونيسيا بقية الجزيرة . +question : في أي قارة تقع بروناي ؟ +prompt : أجب عن السؤال التالي : في أي قارة تقع بروناي ؟ الجواب هو +pred_answer : أنها تقع +answer : آسيا + +context : هزة الجماع أو الإيغاف[1][2] هي ختام للعملية الجنسية والتفريغ الكامل للإثارة الجنسية التي تراكمت خلال مراحل الجماع ، حيث تحدث لكل من الذكور والإناث وهي أقصى مراحل الاستمتاع والنشوة حيث تنقبض العضلات لا إراديا في منطقة الحوض ، [3][4][5] والتي تؤدي إلى القذف عند الرجال وحدوث انقباضات في العضلات المحيطة بالمهبل عند النساء ، وتوتر عضلي شامل في جميع أنحاء الجسم ويلي هذه المرحلة عودة الجسم إلى مرحلة عدم الاستثارة وشعور عام بالارتخاء العضلي والإعياء وأحيانا بالنعاس . +question : ما هي هزة الجماع ؟ +prompt : أجب عن السؤال التالي : ما هي هزة الجماع ؟ الجواب هو +pred_answer : أن هناك عدة أنواع من هزات الجماع التي تحدث أثناء ممارسة العلاقة الحميمة بين الرجل والمرأة ، وهذه الهزات قد تكون +answer : هزة الجماع أو الإيغاف 1 2 هي ختام للعملية الجنسية والتفريغ الكامل للإثارة الجنسية التي تراكمت خلال مراحل الجماع + +context : ولد في ريو دي جانيرو عام 1947 . قبل أن يتفرغ للكتابة ، كان يمارس الإخراج المسرحي ، والتمثيل وعمل كمؤلف غنائي ، وصحفي . وقد كتب كلمات الأغاني للعديد من المغننين البرازيليين أمثال إليس ريجينا ، ريتا لي راؤول سييكساس ، فيما يزيد عن الستين أغنية . +question : اين ولد الروائي باولو كويلو ؟ +prompt : أجب عن السؤال التالي : اين ولد الروائي باولو كويلو ؟ الجواب هو +pred_answer : في البرازيل ، +answer : ريو دي جانيرو + +context : إسماعيل ولد الشيخ أحمد ( مواليد 9 نوفمبر 1960 في نواكشوط - موريتانيا ) اقتصادي ودبلوماسي موريتاني ، عين نائب مبعوث الأمم المتحدة الخاص إلى ليبيا ( 2014 ) ، [1] شغل منصب المنسق المقيم لبرنامج الأمم المتحدة الإنمائي في سوريا ( 2008 - 2012 ) ، وتولى المهمة نفسها في اليمن ( 2012 - 2014 ) . في مطلع 2014 ، عين نائبا لمبعوث الأمم المتحدة الخاص إلى ليبيا ، ثم اختاره الأمين العام للأمم المتحدة في ديسمبر 2014 ليكون مبعوثه الخاص لتنسيق جهود مكافحة فيروس " إيبولا " الذي اجتاح دولا عديدة في غرب القارة الأفريقية . في 25 أبريل 2015 عين الموريتاني ولد الشيخ مبعوثا أمميا لليمن خلفا للمغربي جمال بنعمر . +question : متى عين إسماعيل ولد الشيخ أحمد مبعوث الأمم المتحدة الخاص إلى ليبيا ؟ +prompt : أجب عن السؤال التالي : متى عين إسماعيل ولد الشيخ أحمد مبعوث الأمم المتحدة الخاص إلى ليبيا ؟ الجواب هو في عام +pred_answer : 2016 . +answer : 2014 + +context : ومنذ تأسيسها في 1986 م ، أخذت الجامعة موقعها في مقدمة مؤسسات التعليم العالي في الوطن العربي ، كما تحوز مكانة مرموقة وسمعة راقية بين جامعات الشرق الأوسط[6] . وتعتبر الجامعة مع الجامعة الأردنية معا أقدم مؤسستين تعليميتين في مجالي الطب والهندسة في الأردن[7] ، مع أن الجامعتين تضمان كليات أخرى وتخصصات علمية أخرى . +question : متى تأسست جامعة العلوم والتكنولوجيا الأردنية ؟ +prompt : أجب عن السؤال التالي : متى تأسست جامعة العلوم والتكنولوجيا الأردنية ؟ الجواب هو في عام +pred_answer : 1976 ، +answer : 1986 + +context : الحمى التيفية أو التيفوئيد أو الحمى التيفوئيدية أو حمى التيفوئيد هو مرض معدي ينتج من أكل أو شرب المواد الملوثة بأنواع معينة من السلمونيلا . +question : كيف تحدث حمى التيفوئيد ؟ +prompt : أجب عن السؤال التالي : كيف تحدث حمى التيفوئيد ؟ الجواب هو +pred_answer : أن البكتيريا التي تسبب هذا المرض تنتقل من الأمعاء إلى مجرى الدم +answer : من أكل أو شرب المواد الملوثة بأنواع معينة من السلمونيلا + +context : هذه هي قائمة الولايات الأمريكية من حيث عدد السكان اعتبارا من 1 أبريل 2010 ، تاريخ تعداد الولايات المتحدة 2010 . تحتوي الولايات التسع الأكثر سكانا على أكثر من نصف مجموع السكان تقريبا . تحتوي 25 ولاية على الأقل على أقل من سدس مجموع السكان . كاليفورنيا هي الولاية الأكثر اكتظاظا بالسكان ، إذ يبلغ مجموع سكانها أكثر من سكان أكثر من 21 ولاية مجتمعة . +question : ما هي اكبر ولاية أمريكية من حيث السكان ؟ +prompt : أجب عن السؤال التالي : ما هي اكبر ولاية أمريكية من حيث السكان ؟ الجواب هو +pred_answer : كاليفورنيا . +answer : كاليفورنيا + +context : الاسم الشائع : جامعة هايدلبرغ ، الاسم الرسمي : جامعة روبرت كارل في هايدلبرغ ( بالألمانية : Ruprecht - Karls - Universit t Heidelberg ) ومن أسمائها : ( روبرتو كارولا " Ruperto Carola " ، جامعة هايدلبرغ ) . هي جامعة ألمانية عامة بحثية تقع في مدينة هايدلبرغ ، ولاية بادن - فورتمبيرغ ، ألمانيا . أسست عام 1386 للميلاد ، فهي أقدم جامعة في ألمانيا ورابع أقدم جامعة أسست في عهد الإمبراطورية الرومانية المقدسة . تعتبر واحدة من أهم وأرقى الجامعات في ألمانيا . اعتمدت التعليم المختلط منذ 1899 . حاليا تتكون من 12 كلية فرع من الجامعة وتمنح درجات ما قبل التخرج ( بكالوريوس ) ، دراسات عليا ، في حوالى 100 تخصصا . هي جامعة تفوق ألمانية ، إضافة إلى أنها عضو مؤسس في رابطة الجامعات البحثية في أوروبا ، عضو في مجموعة كويمبرا وأيضا رابطة الجامعات الأوروبية . +question : متى تأسست جامعة هايدلبرغ ؟ +prompt : أجب عن السؤال التالي : متى تأسست جامعة هايدلبرغ ؟ الجواب هو في عام +pred_answer : 1866 +answer : 1386 + +context : يتصور البعض أن الأشجار تقوم بأخذ ثاني أكسيد الكربون وطرح الأكسجين فقط وهذا اعتقاد باطل ، فالأشجار و ( الباتات عموما ) تقوم بأخذ [[ثاني أكسيد الكربون } } وطرح ( الأكسجين ) ليلا ونهارا وفي الوقت نفسه تقوم بعملية البناء الضوئي . ولما كانت عملية البناء الضوئي أسرع من التنفس فإن الناتج الصافي بالنسبة للغازات المتبادلة هو أخذ ثاني أكسيد الكربون وطرح الأكسجين : +question : متى تستخرج النبتة الأوكسجين ؟ +prompt : أجب عن السؤال التالي : متى تستخرج النبتة الأوكسجين ؟ الجواب هو +pred_answer : : عندما +answer : ليلا ونهارا + +context : تأسست دار نشر المعرفة سنة 1988 ، وسرعان ما اتخذت لنفسها مكانة مرموقة كواحدة من أشهر دور النشر الطليعية الجادة في المملكة المغربية ومنذ بداية نشأتها ، سعت الدار إلى التركيز على المستوى العلمي والفكري الهادف لمنشوراتها ، بما يخدم في الدرجة الأولى تراثنا الحضاري العربي الإسلامي ، ثم بما يغطي كافة فروع الدراسات الإنسانية . +question : متى تأسست دار نشر المعرفة ؟ +prompt : أجب عن السؤال التالي : متى تأسست دار نشر المعرفة ؟ الجواب هو في عام +pred_answer : 1990 +answer : 1988 + +context : نهر الأردن نهر يمر في بلاد الشام ، يبلغ طوله حوالي 251 كم وطول سهله حوالي 360 كم ويتكون عند التقاء ثلاثة روافد هي بانياس القادم من سوريا واللدان القادم من شمالي فلسطين والحاصباني القادم من لبنان مشكلا نهر الأردن العلوي . [1][2] الذي يمر في بحيرة حولا في لبنان ثم يصب في بحيرة طبرية التي تكونت جراء حدوث الوادي المتصدع الكبير . وقد كون هذا الشق عدة بحار وبحيرات أخرى مهمة ، وعند خروجه من بحرية طبرية يكون نهر الأردن السفلي ويصب فيه أيضا روافد نهر اليرموك ونهر الزرقاء ووادي كفرنجة وجالوت ، ويفصل النهر بين فلسطين التاريخية والأردن إلى ان يصب في مياه البحر الميت المعروفة بملوحتها العالية . +question : كم يبلغ طول نهر الأردن ؟ +prompt : أجب عن السؤال التالي : كم يبلغ طول نهر الأردن ؟ الجواب هو +pred_answer : : 1 . +answer : 251 كم + +context : والفهود هي الممثلة الوحيدة لجنس " ثابتة المخالب " في العصر الحالي ، إذ أن جميع الأنواع المنتمية لهذا الجنس اندثرت عن وجه الأرض قبل آلاف السنين بسبب العوامل الطبيعية . تتراوح سرعة الفهد بين 112 و 120 كيلومترا في الساعة ( بين 70 و 75 ميل في الساعة ) ، [4][5] وذلك في المسافات القصيرة حتى 460 مترا ( 1 , 510 أقدام ) ، ولها القدرة على الوصول إلى سرعة 103 كيلومترات في الساعة انطلاقا من الصفر خلال 3 ثوان فقط ، وهذا يجعلها أسرع من معظم السيارات الفائقة . [6] كانت مقولة أن الفهد هو أسرع الثدييات عدوا مقولة مشكوكا بصحتها ، ذلك أن بعض الحيوانات ، مثل الوعل شوكي القرون من أمريكا الشمالية ، قادرة على مقارعة الفهود من ناحية العدو ، إلا أن بعض الدراسات أثبتت مؤخرا أن الفهود هي بالفعل أسرع الحيوانات . [7] +question : ما مدى سرعة الفهد الآسيوي ؟ +prompt : أجب عن السؤال التالي : ما مدى سرعة الفهد الآسيوي ؟ الجواب هو +pred_answer : أنه أسرع حيوان في العالم +answer : بين 112 و 120 كيلومترا + +context : أول التجارب العملية كانت في إنجلترا سنة 1917 وقد تم تطوير هذه الطائرة بدون طيار سنة 1924 كأهداف متحركة للمدفعية وكانت بداية فكرتها منذ أن سقطت طائرة التجسس الأمريكية ( U - 2 ) 1960 فوق روسيا ومشكلة الصواريخ الكوبية 1962 . أول استخدام لها عمليا في حرب فيتنام . تم استخدام الطائرات دون طيار في حرب أكتوبر 1973 . ولكن لم تحقق النتيجة المطلوبة فيها لضعف الإمكانيات في ذلك الوقت ووجود حائط الصواريخ المصري . أول مشاركة فعالة لها كانت في معركة سهل البقاع بين سوريا وإسرائيل ونتج عنها إسقاط 82 طائرة سورية مقابل صفر طائرة إسرائيلية . +question : من هي الدولة التي صنعت أول طائرة مسيرة في العالم ؟ +prompt : أجب عن السؤال التالي : من هي الدولة التي صنعت أول طائرة مسيرة في العالم ؟ الجواب هو +pred_answer : الولايات المتحدة الأمريكية +answer : إنجلترا + +context : كتاب حقائق العالم هو منشور سنوي تصدره وكالة المخابرات المركزية الأمريكية ابتداء من عام 1962 ، ويحوي حوالي صفحتين إلى ثلاثة عن كل دولة تعترف بها الولايات المتحدة . وأصبح هذا الكتاب غير سري منذ عام 1971 ، وبالرغم من أنه مخصص للاستعمال من قبل دوائر الحكومة الأميركية ، فهو كثيرا ما يستخدم من قبل المنظمات الأميركية المختلفة لسهولة الوصول إليه ولأنه ضمن الملكية العامة حيث لا تشمله حقوق الطبع . +question : متى بدأ إصدار كتاب حقائق العالم ؟ +prompt : أجب عن السؤال التالي : متى بدأ إصدار كتاب حقائق العالم ؟ الجواب هو في عام +pred_answer : 1989 +answer : 1962 + +context : حقوق الإنسان هي المبادئ الأخلاقية أو المعايير الإجتماعية التي تصف نموذجا للسلوك البشري الذي يفهم عموما بأنه حقوق أساسية لا يجوز المس بها " مستحقة وأصيلة لكل شخص لمجرد كونها أو كونه إنسان " ؛ ملازمة لهم بغض النظر عن هويتهم أو مكان وجودهم أو لغتهم أو ديانتهم أو أصلهم العرقي أو أي وضع آخر . وحمايتها منظمة كحقوق قانونية في إطار القوانين المحلية والدولية . وهي كلية تنطبق في كل مكان وفي كل وقت ومتساوية لكل الناس ، تتطلب التماهي والتشاعر وسيادة القانون وتفرض على المرء إحترام الحقوق الإنسانية للآخرين . ولا يجوز ولا ينبغي أن تنتزع إلا نتيجة لإجراءات قانونية واجبة تضمن الحقوق ووفقا لظروف محددة . فمثلا ، قد تشتمل حقوق الإنسان على التحرر من الحبس ظلما والتعذيب والإعدام . وهي تقر لجميع أفراد الأسرة البشرية قيمة وكرامة أصيلة فيهم . وبإقرار هذه الحريات فإن المرء يستطيع أن يتمتع بالأمن والأمان ، ويصبح قادرا على اتخاذ القرارات التي تنظم حياته . +question : ما هي حقوق الإنسان ؟ +prompt : أجب عن السؤال التالي : ما هي حقوق الإنسان ؟ الجواب هو +pred_answer : أن لكل إنسان الحق في الحياة ، وفي الحرية ، وفي الكرامة الإنسانية ، وفي المساواة أمام القانون ، وفي العدالة الاجتماعية ، وفي الأمن على شخصه وعلى عائلته وعلى ممتلكاته . +answer : المبادئ الأخلاقية أو المعايير الإجتماعية التي تصف نموذجا للسلوك البشري الذي يفهم عموما بأنه حقوق أساسية لا يجوز المس بها مستحقة وأصيلة لكل شخص لمجرد كونها أو كونه إنسان + +context : في عام 1911 م ، قام رسام الرسوم المتحركة الأمريكي الشهير وينسر مكاي بعرض فيلمه الأول للرسوم المتحركة المسمى نيمو الصغير بمدينة نيويورك ، وظهر أشهر أفلامه للرسوم المتحركة ، المسمى الديناصور غيرتي عام 1914 م . وقد نجح ماكي في إنتاج أفلام عالية الجودة بشخصيات تميزت بمرونة في الحركة وسمات سلوكية واضحة ، مما أسهم في ابتداع الأساليب التقنية ، ومؤثرات الإقناع الحسي التي قامت عليها معايير الجودة التشخيصية لأفلام الرسوم المتحركة . وأصبحت أعماله ذات تأثير على إنتاج أفلام الرسوم المتحركة لأنها اشتهرت بانسياب حركتها ، ومستوى رسوماتها ذات الجودة العالية ، والحس المرهف بالكتلة ، إضافة إلى السمات الذاتية الفريدة للشخصيات في هذه الأفلام . +question : متى كانت أول رسوم المتحركة ؟ +prompt : أجب عن السؤال التالي : متى كانت أول رسوم المتحركة ؟ الجواب هو في عام +pred_answer : 1937 ، +answer : 1911 + +context : البكتيريا سالبة غرام[1][2] أو بكتيريا سلبية الغرام هي البكتيريا التي لا تحتفظ بصبغة الكريستال البنفسجي في بروتوكول صبغة غرام . نجد بينها : +question : ما هي البكتيريا سلبية الغرام ؟ +prompt : أجب عن السؤال التالي : ما هي البكتيريا سلبية الغرام ؟ الجواب هو +pred_answer : أن البكتيريا موجبة الغرام تعيش في الأمعاء الغليظة ، أما البكتيريا س +answer : البكتيريا التي لا تحتفظ بصبغة الكريستال البنفسجي في بروتوكول صبغة غرام + +context : يجمع الخطل النومي بين مجموعة من اضطرابات النوم التي تترافق عادة مع فرط النوم أو نقصه . تشمل هذه الاضطرابات حركات جسدية غير طبيعية ، على غرار الحديث والصراخ وتخيل تصورات وأحلام ( مثل الكوابيس ) لا وجود لها في بداية النوم أو النعاس ، أو أثناء النوم أو عند الاستيقاظ . معظم حالات الخطل النومي تحدث خلال حالات نوم منفصلة ، تكون عبارة عن عوارض جزئية أثناء التحول من اليقظة إلى نوم حركة العين غير السريعة ، أو من اليقظة إلى مرحلة نوم حركة العين السريعة . +question : ما هو الخطل النومي ؟ +prompt : أجب عن السؤال التالي : ما هو الخطل النومي ؟ الجواب هو +pred_answer : أن ينام الإنسان على جنبه الأيمن ، أو الأيسر ، أو على بطنه ، +answer : مجموعة من اضطرابات النوم التي تترافق عادة مع فرط النوم أو نقصه + +context : زيمبابوي لديها حكومة مركزية في العاصمة هراري ، وتنقسم البلاد إداريا إلى 8 مقاطعات ، ومدينتين في وضع المقاطعات لأغراض إدارية . كل مقاطعة لديها عاصمة يتخذ منها القرار الخاص بالمقاطعة باسم الدولة . [6] +question : ما هي عاصمة زيمبابوي ؟ +prompt : أجب عن السؤال التالي : ما هي عاصمة زيمبابوي ؟ الجواب هو +pred_answer : هراري +answer : هراري + +context : { { رسالة توضيح | بلاد الروس في اليمن | مديرية بلاد الروس إحدى مديريات محافظة صنعاء في الجمهورية اليمنية ، تقع على بعد 32 كيلو متر جنوب العاصمة . +question : في اي محافظة يمنية توجد مديرية بلاد الروس ؟ +prompt : أجب عن السؤال التالي : في اي محافظة يمنية توجد مديرية بلاد الروس ؟ الجواب هو +pred_answer : مديرية بلاد +answer : صنعاء + +context : الخور[1] أو مصب النهر[2] هو مسطح مائي ساحلي يأخذ شكل خليج شبه مغلق ، يصب فيه نهر أو مجرى مائي من جهة ، ويتصل بالبحر من الجهة الأخرى ، تمتزج فيه المياه المالحة بالمياه العذبة . تصغير | محمية « رأس الخور » بالإمارات +question : ما معنى اسم الخور ؟ +prompt : أجب عن السؤال التالي : ما معنى اسم الخور ؟ الجواب هو +pred_answer : : ( الخور ) +answer : مسطح مائي ساحلي + +context : في هذه المرحلة وتحديدا بداية من سنة 1923 وقع تأسيس معهد العلوم الاجتماعية في فراكفورت بألمانيا علي يد مجموعة من النشطاء الماركسين الذين يريدون إعادة احياء البعد النقدي في الفلسفة الماركسية إزاء الجمود الذي لحقها جراء تحولها الي أرثودوكسية جامدة عند أغلب المفكرين الألمان . إعادة الإحياء هذه تهدف إلي تفعيل البعد النقدي التحرري في الفلسفة الماركسية باعتباره رافدا أساسيا للحركة الاجتماعية ، ومن هذا المنطلق يهدف المعهد إلى بحث شروط الثورة ( ثورة البروليتاريا ) والعمل علي تحفيزها . +question : من قام بتأسيس مدرسة فرانكفورت ؟ +prompt : أجب عن السؤال التالي : من قام بتأسيس مدرسة فرانكفورت ؟ الجواب هو +pred_answer : الفيلسوف الألماني يورغن هابرم +answer : مجموعة من النشطاء الماركسين + +context : فرانكلين ديلانو روزفلت ( أو روزافالت حسب نطقه الخاص[1] ) ، ( 30 يناير 1882 - 12 أبريل 1945 ) ، المعروف أيضا باختصار " إف دي آر " ، هو رجل دولة وزعيم سياسي أمريكي شغل منصب الرئيس الثاني والثلاثين للولايات المتحدة من عام 1933 حتى وفاته في عام 1945 . روزفلت هو سياسي ديمقراطي ، وفاز في أربعة انتخابات رئاسية متتالية وبرز كشخصية مركزية في الأحداث العالمية خلال منتصف القرن العشرين . قاد حكومة الولايات المتحدة خلال الكساد الكبير والحرب العالمية الثانية . اعتبر قائدا مهيمنا على الحزب ، وقام ببناء تحالف الصفقة الجديدة ، وأعاد تنظيم السياسة الأمريكية في نظام الحزب الخامس ، وأعاد تحديد الليبرالية الأمريكية خلال الثلث الأوسط من القرن العشرين . وغالبا ما يصنفه الباحثون كأحد أكبر ثلاثة رؤساء أمريكيين ، إلى جانب جورج واشنطن وأبراهام لينكون . [2] +question : من هو فرانكلين روزفلت ؟ +prompt : أجب عن السؤال التالي : من هو فرانكلين روزفلت ؟ الجواب هو +pred_answer : الرئيس الأمريكي الخامس والثلاثين ، الذي ولد عام 1881 م +answer : رجل دولة وزعيم سياسي أمريكي شغل منصب الرئيس الثاني والثلاثين للولايات المتحدة + +context : في تشرين الثاني نوفمبر 2012 ؛ وحسب تقرير مطول أعدته صحيفة هافينغتون بوست الأمريكية فإن جبهة النصرة باتت لاعبا قويا في المنطقة خاصة بعدما حصلت على مقاتلين أكثر خبرة من صفوف الثوار السوريين . [10] وفقا لمتحدث باسم الجيش السوري الحر ؛ فإن عدد مقاتلي الجبهة قد بلغ في تشرين الثاني نوفمبر 2012 ما بين 6000 حتى 10000 مقاتل وهو ما يمثل 7 - 9 % من مجموع مقاتلي الجيش الحر . [11] في ذات السياق وغير بعيد عن ذلك ؛ وصف المعلق ديفيد إغناتيوس لواشنطن بوست جبهة النصرة بأنها المجموعة الأكثر عدوانية في سوريا . أما وزارة الخارجية الأمريكية فقد نشرت بيانا ذكرت فيه : بحلول العاشر من كانون الأول ديسمبر 2012 ؛ صنفت الولايات المتحدة جبهة النصرة كمنظمة إرهابية واتهمتها بكونها امتدادا لتنظيم القاعدة في العراق ثم سرعان ما صدر قرار يحظر على الأمريكيين التعامل ماليا مع النصرة . ليس هذا فقط بل إن السفير الأمريكي إلى سوريا ر . فورد قد حذر من هذه الجماعة حيث قال : +question : متى تم اعتبار جبهة النصرة جماعة إرهابية ؟ +prompt : أجب عن السؤال التالي : متى تم اعتبار جبهة النصرة جماعة إرهابية ؟ الجواب هو في عام +pred_answer : 2013 ، عندما قامت الولايات المتحدة بقصف +answer : العاشر من كانون الأول ديسمبر 2012 + +context : العالم الجديد هو مصطلح أطلق على القارتين الأمريكيتين من قبل المستوطنين الأوروبيين الأوائل الذين اعتقدوا حينئذ أن العالم يتألف فقط من أوروبا وآسيا وأفريقيا ، والذي أطلق عليه مصطلح العالم القديم . [1][2][3] والعالم القديم هو العالم ما قبل رحلة كريستوفر كولومبوس ، في حين أن أوقيانوسيا وأنتاركتيكا ( القارة القطبية الجنوبية ) لا يعتبران ضمن مصطلح العالم القديم ولا العالم الجديد . +question : ما هو العالم الجديد ؟ +prompt : أجب عن السؤال التالي : ما هو العالم الجديد ؟ الجواب هو +pred_answer : أن هناك عالما جديدا يتشكل الآن ، وهو عالم متعدد الأقطاب . +answer : مصطلح أطلق على القارتين الأمريكيتين من قبل المستوطنين الأوروبيين الأوائل + +context : ماكسميليان روبسبير ( 1758 - 1794 ) ، محامي وزعيم سياسي فرنسي ، أصبح أحد أهم الشخصيات المؤثرة في الثورة الفرنسية ، و أحد الوجوه الرئيسية لعهد الإرهاب . [1] +question : من هو ماكسميليان روبسبيار ؟ +prompt : أجب عن السؤال التالي : من هو ماكسميليان روبسبيار ؟ الجواب هو +pred_answer : : ماكسيميليان روبسبير ( 1794 - 1832 ) .ولد في باريس عام 1794 +answer : محامي وزعيم سياسي فرنسي أصبح أحد أهم الشخصيات المؤثرة في الثورة الفرنسية و أحد الوجوه الرئيسية لعهد الإرهاب + +context : التوراة والإنجيل والقرآن والعلم ( بالإنجليزية The Bible , the Qur ' an , and Science ) هو كتاب في علم من تأليف الطبيب الفرنسي موريس بوكاي بعد إسلامه ، ألفه عام 1976 ، قام فيه الكاتب بدراسة علمية للكتب السماوية الثلاثة التوراة والانجيل والقرآن بمقياس العلم الحديث ، وترجم الكتاب لسبع عشرة لغة تقريبا منها العربية . [1] وخرج المؤلف من خلال دراسته للكتب الثلاثة بأن الكتاب الذي هو من عند الله هو القرآن وحده ، لأنه لم يأت فيه ما يعارض حقائق العلم ، في حين أنه وفقا للمؤلف فإن ما بأيدي الناس اليوم من كتب يصفونها بأنها مقدسة ويدعونها التوراة والإنجيل فهي مملوءة بخرافات وأخطاء وتناقضات لا يمكن أن تكون منزلة من عند الله . وقد ترجم الكتاب مرتين في وقت واحد سنة 1398 ه ( 1978 م ) إحداهما في بيروت بعنوان : " التوراة والإنجيل والقرآن والعلم " والأخرى في القاهرة ( دار المعارف ) بعنوان : " دراسة الكتب المقدسة في ضوء المعارف الحديثة " ولم تذكر أسماء المترجمين في الطبعتين . ثم ترجمه الشيخ حسن خالد ( مفتي لبنان ) وطبعه المكتب الإسلامي في بيروت سنة 1407 ه بعنوان : " التوراة والإنجيل والقرآن والعلم " . [2] +question : في أي عام ألف موريس بوكاي كتاب التوراة والإنجيل والقرآن والعلم ؟ +prompt : أجب عن السؤال التالي : في أي عام ألف موريس بوكاي كتاب التوراة والإنجيل والقرآن والعلم ؟ الجواب هو في عام +pred_answer : 1968 +answer : 1976 + +context : بروناي أو < b data - parsoid = ' { " dsr " : [3377 , 3397 , 3 , 3] } ' > اتحاد بروناي ( بالمالايو : نيجارا بروناي داروسلام ، بالجاوية : بروني دار السلام ) وتعرف رسميا باسم بروناي دار السلام أو أمة بروناي أو أرض السلام ، هي دولة تقع على الساحل الشمالي لجزيرة بورنيو في جنوب شرق آسيا . تنقسم بروناي إلى منطقتين تفصلهما بلدة لمبانج التابعة لولاية سراوق الماليزية التي تحيط ببروناي بشكل كامل باستثناء ساحل بروناي الشمالي المطل على بحر الصين الجنوبي . بروناي هي الدولة المستقلة الوحيدة على جزيرة بورنيو ، حيث تتقاسم ماليزيا وإندونيسيا بقية الجزيرة . +question : أين تقع جمهورية بروناي ؟ +prompt : أجب عن السؤال التالي : أين تقع جمهورية بروناي ؟ الجواب هو +pred_answer : في جنوب شرق +answer : جنوب شرق آسيا + +context : جمهورية الغابون هي دولة تقع في غرب وسط أفريقيا يحدها خليج غينيا إلى الغرب وغينيا الاستوائية إلى الشمال الغربي والكاميرون إلى الشمال وجمهورية الكونغو نحو الشرق والجنوب . وتبلغ مساحتها 270 , 000 كم 2 تقريبا كما يقدر عدد سكانها ب 1 , 500 , 000 نسمة . وعاصمتها وأكبر مدنها هي مدينة ليبرفيل . +question : أين تقع جمهورية الغابون ؟ +prompt : أجب عن السؤال التالي : أين تقع جمهورية الغابون ؟ الجواب هو +pred_answer : في العاصمة ليبر +answer : غرب وسط أفريقيا + +context : File : Historical map of Yemen AD 1839 . svg احتلال عدن يشير إلى الاحتلال البريطاني لمدينة عدن في 19 يناير 1839 م وحتى جلاء المستعمر منها في 30 نوفمبر 1967 م بعد 128 عاما من الاحتلال . +question : متى استقل جنوب اليمن من الاحتلال البريطاني ؟ +prompt : أجب عن السؤال التالي : متى استقل جنوب اليمن من الاحتلال البريطاني ؟ الجواب هو في عام +pred_answer : 1967 � +answer : 30 نوفمبر 1967 + +context : Coordinates : نهر الزمبيزي هو أحد الأنهار الكبيرة في أفريقيا ، ورابع أطول نهر في هذه القارة ، ويعد من أكبر الأنهار الأفريقية التي تصب في المحيط الهندي . ومساحة حوض هذا النهر 1 , 390 , 000 كيلومتر مربع[1][2] أي أقل من نصف مساحة حوض نهر النيل . +question : أين يقع نهر زمبيزي ؟ +prompt : أجب عن السؤال التالي : أين يقع نهر زمبيزي ؟ الجواب هو +pred_answer : في جنوب +answer : أفريقيا + +context : بورشه شركة ألمانية مختصة بصناعة السيارات الرياضية الفاخرة ذات الأداء العالي . أنشئت الشركة عام 1931 على يد المهندس النمساوي فارديناند بورشيه الذي صمم أولى سيارات فولكسواجن ، يقع مقرها في شتوتغارت ، بادن - فورتمبيرغ ، ألمانيا . تم تأسيسها بواسطة فارديناند بورشيه . +question : أين تصنع سيارات بورش ؟ +prompt : أجب عن السؤال التالي : أين تصنع سيارات بورش ؟ الجواب هو +pred_answer : في مدينة +answer : ألمانية + +context : شمر قبيلة عربية مساكنها حائل في نجد ، وتتواجد القبيلة أيضا في عدة دول الكويت العراق سوريا الأردن وسلطنة عمان نزولا إلى قطر وشرق المملكة العربية السعودية والإمارات ، والعديد من الدول العربية والقليل من الأجنبية . [1][2] تكونت قبيلة شمر من حلف قبلي قبل خمسة قرون شمل قبائل زوبع والأسلم وعبدة من طيء[3] ، تنحدر القبيلة من طيء التي كانت تسكن في حائل ، اما قبيلة طيء المتواجدة في العراق وسوريا فهي قبيلة مستقلة عن شمر والرابط هو النسب فقط . +question : أين تقع مساكن قبيلة شمرالعربية ؟ +prompt : أجب عن السؤال التالي : أين تقع مساكن قبيلة شمرالعربية ؟ الجواب هو +pred_answer : في شمال الجزيرة العربية +answer : حائل في نجد + +context : تأثير زيمان هو ظاهرة إنشقاق خطوط الطيف لمصدر تحت تأثير مجال مغناطيسي ثابت إلى عدة خطوط ؛ اي ان تأثير زيمتن يشق خطوط الطيف إلى خطوط متوازية عندما يوضع مصدر الضوء في مجال مغناطيسي شديد . [1][2][3] وهو تاثير يرجع إلى العالم الهولندي بيتر زيمان الذي اكتشف هذه الظاهرة في عام 1896 م . وهذا التأثير مشابه لتأثير آخر يسمى تأثير شتارك وهو انشقاق خطوط الطيف إلي عدة خطوط في حالة تعرض مصدر الضوء إلى مجال كهربائي . +question : ما هو تأثير زيمان ؟ +prompt : أجب عن السؤال التالي : ما هو تأثير زيمان ؟ الجواب هو +pred_answer : لا شيء تقريبا .فهو لم يفعل شيئا ، ولم يكن له أي تأثير +answer : ظاهرة إنشقاق خطوط الطيف لمصدر تحت تأثير مجال مغناطيسي ثابت إلى عدة خطوط + +context : دورة الألعاب الأولمبية الشتوية : حدث رياضي دولي كبير يعقد مرة واحدة كل أربع سنوات ، للرياضات التي تمارس على الثلج والجليد . عقدت أول دورة للألعاب الأولمبية الشتوية ، دورة عام 1924 ، في شاموني في فرنسا . أستلهمت الألعاب الأولمبية من الألعاب الأولمبية القديمة ، التي عقدت في أولمبيا ، اليونان ، من القرن الثامن قبل الميلاد إلى القرن الرابع الميلادي . أسس البارون بيير دي كوبرتين اللجنة الأولمبية الدولية في عام 1894 ، مما أدى إلى أولى الألعاب الحديثة في أثينا في عام 1896 . اللجنة الأولمبية الدولية هي الهيئة الحاكمة للحركة الأولمبية ، مع الميثاق الأولمبي الذي يحدد هيكلها وسلطتها . وكانت الرياضات الخمسة الأصلية ( مقسمة إلى تسعة تخصصات ) وهي الزلاجة الجماعية والكيرلنغ وهوكي الجليد والتزلج الشمالي ( تتكون من تخصصات الدوريات العسكرية والتزلج عبر البلاد والتزلج النوردي المزدوج وتزلج القفز ) والتزلج على الجليد ( تتكون من التزلج السريع والتزلج الفني على الجليد ) . تم إقامة الألعاب الأولمبية الشتوية كل أربع سنوات من 1924 إلى 1936 ، توقفت في 1940 و 1944 بسبب الحرب العالمية الثانية ، واستؤنفت في عام 1948 . حتى عام 1992 عقدت دورات الألعاب الأولمبية الشتوية والألعاب الأولمبية الصيفية في نفس السنوات ، ولكن وفقا للقرار الذي اتخذته اللجنة الأولمبية الدولية عام 1986 بوضع الألعاب الصيفية والشتوية في دورات منفصلة مدتها أربع سنوات بالتناوب مع سنوات متساوية ، كانت دورة الألعاب الأولمبية الشتوية التالية بعد عام 1992 في عام 1994 . +question : متى تاسست الألعاب الأولمبية الشتوية ؟ +prompt : أجب عن السؤال التالي : متى تاسست الألعاب الأولمبية الشتوية ؟ الجواب هو في عام +pred_answer : 1896 +answer : 1924 + +context : ولدت نبوية موسى محمد بدوية في 17 ديسمبر 1886 بقرية كفر الحكما بندر الزقازيق ، محافظة الشرقية . كان والدها ضابطا بالجيش المصري برتبة يوزباشي ، وكان يمتلك في بلدته بمديرية القليوبية منزلا ريفيا كبيرا وبضعة فدادين يؤجرها حين يعود لمقر عمله . ويشار إلى سفر والد نبوية إلى السودان قبل ميلادها بشهرين ؛ فنشأت يتيمة الأب ولم تره كما تقول إلا في المنام . عاشت هي ووالدتها وشقيقها محمد موسى ، الذي يكبرها بعشر سنوات ، في القاهرة ؛ لوجود أخيها بالمدرسة ، واعتمدت الأسرة على معاش الأب وما تركه من أطيان . وفي طفولتها ساعدها شقيقها على تعلم القراءة [والكتابة في المنزل ، فتعلمت نبوية مبادئ القراءة والكتابة ، وعلمت نفسها مبادئ الحساب ، وعلمها أخوها اللغة الإنجليزية . ويشار إلى تعلمها الكتابة عن طريق محاكاة النصوص المكتوبة . ولما بلغت نبوية الثالثة عشرة من عمرها تطلعت لاستكمال تعليمها ، غير أنها لم تجد أي مساندة من عائلتها عند اتخاذها هذا القرار ، وجاء بعض من ردود كبار العائلة لنبوية صادمة ومنها : " عيب ، مش أصول بنات العائلات ، سفور وقلة حياء " . و قال لها عمها " البنت للغزل مش للخط . " +question : متى ولدة نبوية موسى محمد بدوية ؟ +prompt : أجب عن السؤال التالي : متى ولدة نبوية موسى محمد بدوية ؟ الجواب هو في عام +pred_answer : 1919 م +answer : 17 ديسمبر 1886 + +context : كانت أول زيارة من قبل الأوروبيين خلال سيباستيان دي أوكامبوللجزيرة في عام 1509 . وبعد ذلك بقليل ، في 1510 قام المستعمرين الأسبان القادمون من هيسبانيولا في غزو كوبا . و قام الغازي دييغو فيلازكيز دي كويلار في تأسيس هافانا في 25 أغسطس 1515 على الساحل الجنوبي للجزيرة ، بالقرب من بلدة حالية تسمي سيرجادريوادي باتابانو . بين 1514 و 1519 في هافانا كان ما لا يقل عن اثنين من مؤسسات مختلفة . كل المحاولات لتأسيس المدينة على الساحل الجنوبي لكوبا فشلت . في المدينة كان موقع مجاور لميناء رائع عند مدخل خليج المكسيك ومع سهولة الوصول إلى تيار الخليج والمحيطات الرئيسية الحالية التي يتبعها الملاحين عند السفر من الأمريكتين إلى أوروبا . وكل ذلك أدي في وقت مبكر لتطوير الميناء الرئيسي للمستعمرات الإسبانية في العالم الجديد . +question : متى تأسست مدينة هافانا ؟ +prompt : أجب عن السؤال التالي : متى تأسست مدينة هافانا ؟ الجواب هو في عام +pred_answer : 1821 ، عندما +answer : 25 أغسطس 1515 + +context : متلازمة الأيض ( Metabolic syndrome ) هي مزيج من الاضطرابات الصحية تنتج بصفة رئيسية عن زيادة الوزن والسمنة . وهي تزيد من خطر الإصابة بامراض القلب والشرايين وداء السكري . [1] تصيب واحد من كل خمسة أشخاص ، وتزيد في الانتشار مع تقدم العمر . تقدر بعض الدراسات معدل الانتشار في الولايات المتحدة الأمريكية بنسبة 25 % من السكان . [2] +question : ما هي متلازمة الأيض ؟ +prompt : أجب عن السؤال التالي : ما هي متلازمة الأيض ؟ الجواب هو +pred_answer : أن متلازمة الأيض ( Metabolic Syndrome ) +answer : مزيج من الاضطرابات الصحية تنتج بصفة رئيسية عن زيادة الوزن والسمنة + +context : هيرودوت أو هيرودوتس ، باللاتينية : Herodotus ) كان مؤرخا إغريقيا يونانيا آسيويا عاش في القرن الخامس قبل الميلاد ( حوالي 484 ق . م - 425 ق . م ) . اشتهر بالأوصاف التي كتبها لأماكن عدة زارها حول العالم المعروف آنذاك ، وأناس قابلهم في رحلاته وكتبه العديدة عن السيطرة الفارسية على اليونان . +question : في أي قرن عاش المؤرخ هيرودوت ؟ +prompt : أجب عن السؤال التالي : في أي قرن عاش المؤرخ هيرودوت ؟ الجواب هو +pred_answer : القرن الخامس قبل الميلاد +answer : الخامس قبل الميلاد + +context : ولدت عام 1755 في فيينا ، ثم انتقلت إلى فرنسا لتتزوج ، وهي أصغر أبناء الملكة ماريا تيريزا ملكة . تزوجت ماري أنطوانيت من الملك لويس السادس عشر وهي في الرابعة عشر من عمرها وكان هو في الخامسة عشرة من عمره . +question : اين ولدت ماري انطوانيت ؟ +prompt : أجب عن السؤال التالي : اين ولدت ماري انطوانيت ؟ الجواب هو +pred_answer : انها ولدت +answer : فيينا + +context : تأسس أول البنوك المركزية في العالم عام 1609 في مدينة أمستردام ، حيث كانت هولندا تمثل في ذلك الوقت إحدى أقوى الدول في مجال التجارة عبر البحار . يعد البنك المركزي من الناحية القانونية مؤسسة مستقلة لا تتبع الحكومة على الرغم من وجود علاقة وثيقة بين عمله وعمل الحكومة كسلطة تنفيذية ، إلا أن تبعيته للحكومة يمكن أن تؤدي إلى انتهاجه سياسات نقدية لمساعدة الحكومة على حل بعض المشكلات الاقتصادية الطارئة على حساب التوازن النقدي يرتبط بمصالح المواطنين وقيمة أموالههم ومدخراتهم ، الأمر الذي يشكل أحيانا أسبابا للتنازع بين الحكومات والبنوك المركزية حول بعض الأمور ، والأصل أن يكون البنك المركزي أحد مؤسسات الدولة التي لا تخضع للتوجهات حكومية مؤقتة إلا إذا كانت مستندة على أساس تشريعي وقانوني من السلطة التشريعية . بالنسبة للقطاع المصرفي ، يقوم البنك المركزي بالرقابة على أعمال البنوك والتأكد من أنها تقوم بإقراض الأموال المتوفرة لديها واستثمارها بطريقة لا تضر بأموال المودعين وضمن السياسات التي تتبع إجراءات التحوط والحذر . والبنك المركزي هو الذي يصدر تراخيص البنوك ويمكنه أن يسحب هذه التراخيص أو يوقع عقوبات على البنوك المخالفة . +question : متى تأسس اول بنك مركزي في العالم ؟ +prompt : أجب عن السؤال التالي : متى تأسس اول بنك مركزي في العالم ؟ الجواب هو في عام +pred_answer : 1875 ، +answer : 1609 + +context : قصر باكنغهام ( بالإنجليزية : Buckingham Palace ) هو المقر الرسمي لملوك بريطانيا . يقع في لندن ، ويعتبر مكانا لجل الأحداث المتصلة بالعائلة البريطانية المالكة ، ومكانا لانعقاد العديد من الإجتماعات وزيارات قادة الدول ، إضافة لكونه نقطة جذب سياحية رئيسية . +question : ما هو المقر الرسمي لملوك بريطانيا ؟ +prompt : أجب عن السؤال التالي : ما هو المقر الرسمي لملوك بريطانيا ؟ الجواب هو +pred_answer : قصر ب +answer : لندن + +context : أخيرا ذهب إلى الكويت لتلقي العلاج في المستشفى الأميري في دولة الكويت حيث قامت هذه المستشفى برعايته وأنفقت عليه خلال مدة علاجه . فتوفي بالمستشفى هناك في 24 كانون الأول عام 1964 عن 38 عاما ونقل جثمانه إلى البصرة وعاد إلى قرية ( جيكور ) في يوم من أيام الشتاء الباردة الممطرة . وقد شيعه عدد قليل من أهله وأبناء محلته ، ودفن في مقبرة الحسن البصري في الزبير . +question : أين دفن بدر شاكر السياب ؟ +prompt : أجب عن السؤال التالي : أين دفن بدر شاكر السياب ؟ الجواب هو +pred_answer : في قرية +answer : الزبير + +context : العدو على الأبواب أو ستالينغراد في الدول الأوروبية . [1][2][3] هو فيلم حربي صدر في 2001 من إخراج جون جاك أنو وبطولة جود لو واد هاريس تدور أحداثه في إطار معركة ستالينغراد في الحرب العالمية الثانية . يسرد الفيلم قصة مطاردة ثنائية أثناء المعركة بين القناص السوفياتي فاسيلي زايتسيف وعدوه القناص الألماني إرفين كونيج . +question : متى صدر فيلم العدو على الابواب ؟ +prompt : أجب عن السؤال التالي : متى صدر فيلم العدو على الابواب ؟ الجواب هو في عام +pred_answer : 1967 ، +answer : 2001 + +context : الراغب الأصفهاني ( توفي 502 ه 1108 م ) هو أديب وعالم ، أصله من أصفهان ، وعاش ببغداد . ألف عدة كتب في التفسير والأدب والبلاغة . [1] +question : من هو الراغب الأصفهاني ؟ +prompt : أجب عن السؤال التالي : من هو الراغب الأصفهاني ؟ الجواب هو +pred_answer : : أبو الحسن علي بن الحسين بن محمد بن أحمد بن طباطبا العلوي ، +answer : أديب وعالم أصله من أصفهان وعاش ببغداد ألف عدة كتب في التفسير والأدب والبلاغة + +context : حاشد ( خط المسند : 13px13px13px13px ) قبيلة يمنية قديمة من قبائل همدان وأقدم ذكر يشير إليها يعود للقرن الرابع قبل الميلاد . [1] هي أكثر القبائل نفوذا سياسيا في الجمهورية اليمنية منذ سقوط الملكية عام 1962 وبعد الوحدة اليمنية[2] تشكل هي وقبائل بكيل قسمي قبائل همدان اليمنية من عصور قديمة . +question : ما هي قبيلة حاشد ؟ +prompt : أجب عن السؤال التالي : ما هي قبيلة حاشد ؟ الجواب هو +pred_answer : : حاشد بن جشم بن خيران بن نوف بن همدان بن مالك بن زيد +answer : قبيلة يمنية قديمة من قبائل همدان وأقدم ذكر يشير إليها يعود للقرن الرابع قبل الميلاد + +context : الآس الشائع أو الحمبلاس أو القمام أو المرسين نوع نباتي من جنس الآس من الفصيلة الآسية . +question : ما هو شجر الآس ؟ +prompt : أجب عن السؤال التالي : ما هو شجر الآس ؟ الجواب هو +pred_answer : شجرة دائمة الخضرة يصل ارتفاعها إلى حوالي 30 مترا ، +answer : نوع نباتي من جنس الآس من الفصيلة الآسية + +context : اللحمة المتوسطة هي نوع من الأنسجة التي تمتاز بأنها خلايا مرتبطة بشكل ضعيف وتفتقد لقطبية الخلية ومحاطة بالكثير من النسيج خارج الخلوي . +question : ما هي اللحمة المتوسطة ؟ +prompt : أجب عن السؤال التالي : ما هي اللحمة المتوسطة ؟ الجواب هو +pred_answer : لحم الضأن ، ولحم البقر ، ولحم الدجاج ، ولحم العجل ، ولحم الجمل ، ولحم الديك الرومي ، ولحم الخنزير . +answer : نوع من الأنسجة التي تمتاز بأنها خلايا مرتبطة بشكل ضعيف وتفتقد لقطبية الخلية ومحاطة بالكثير من النسيج خارج الخلوي + +context : خليج ماليان ( باليونانية : ) هو خليج يقع غرب بحر إيجة . ويشكل جزءا من الشريط الساحلي لمنطقة فثيوتيس اليونانية . يمتد الخليج من الشرق إلى الغرب بمسافة قدرها 15 حتى 22 كيلومتر ( 9 . 3 حتى 13 . 7 ميل ) ، وتختلف هذه المسافة بالاعتماد على التعريف التحديدي . يعد خليج ماليان خليجا قليل العمق إلى حد كبير حيث يبلغ الحد الأقصى للعمق 27 متر ( 89 قدم ) . ويوجد فيه مرفأ وحيد ألا وهو ستيليدا والذي يخدم مدينة لمياء . ويوجد رأس ليخادا إلى شرق الخليج وهي أبعد نقطة من جهة الشمال الغربي لجزيرة وابية . +question : أين يقع خليج ماليان ؟ +prompt : أجب عن السؤال التالي : أين يقع خليج ماليان ؟ الجواب هو +pred_answer : في شمال شرق جزيرة +answer : غرب بحر إيجة + +context : أسسها ثلاث موظفين سابقين من شركة باي بال ، في 14 فبراير سنة 2005 م ، هم تشاد هيرلي وستيف تشين وجاود كريم ، في مدينة سان برونو . تستخدم تقنية برنامج أدوبي فلاش لعرض المقاطع المتحركة . ومحتوى الموقع يتنوع بين مقاطع الأفلام ، والتلفاز ، والموسيقى ، وكذلك الفيديو المنتج من قبل الهواة ، وغيرها . وهو حاليا مزود ب 67 موظف . في أكتوبر 2006 ، أعلنت شركة Google التوصل لاتفاقية لشراء الموقع مقابل 1 . 65 مليار دولار أمريكي ، أي ما يعادل 1 . 31 مليار يورو . ويعتبر الموقع من مواقع ويب 2 . 0 . +question : متى تأسس اليوتوب ؟ +prompt : أجب عن السؤال التالي : متى تأسس اليوتوب ؟ الجواب هو في عام +pred_answer : 1998 م +answer : 14 فبراير سنة 2005 + +context : قحطانيون أو العرب العاربة هي القبائل التي تعود بأصلها إلى جد مشترك عرف عند النسابة والإخباريين العرب باسم قحطان [1] وهو حسب المؤرخين العرب ومن احتك بهم من أهل الكتاب يقطان الذي ورد ذكره في العهد القديم وهو الرأي الذي اختاره ابن خلدون من بين آراء كثيرة بعضها جعلها من نسل الشخصية التوراتية إسماعيل [2] ورد اسم قحطان بصيغة قحطن في كتابات خط المسند بكثير من الاختصار وكانت أرضا صحرواية في قرية الفاو ، فالنون في آخر الأعلام هي أداة التعريف في العربية الجنوبية القديمة [3] مما يجعل ترجمة " قحطان " الحرفية هي القحط فهو مسمى لأرض وليس جدا وأغلب الظن أن المؤرخين بعد الإسلام وفي أواسط العصر الأموي تحديدا مثل ابن إسحاق وابن السائب الكلبي لاحظوا التشابه بين يقطان في العهد القديم وأرض قحطان التابعة لمملكة كندة البدوية فجعلوا قحطان جدا أكبر للعرب العاربة وتلك التي يعتقد أنها إما خرجت من اليمن أو كانت ذات علاقة قوية بممالك اليمن القديم [4] وجعل عدنان على وزنه بلا شك ولا معنى لاسمه على الإطلاق فأبنائه ( في عرف النسابة ) لم يستعملوا أداة التعريف الجنوبية ( النون أخر العلم ) . كذلك يلاحظ أن أغلب القبائل التي عدها " علماء " علم الأنساب العرب قحطانية هي قبائل متحضرة وليست بدوية من الناحية التاريخية [5] +question : من هم القحطانيون ؟ +prompt : أجب عن السؤال التالي : من هم القحطانيون ؟ الجواب هو +pred_answer : : محمد بن سلمان ، ومحمد بن زايد ، والسيسي ، وعبد الفتاح السيسي .هؤلاء +answer : لقبائل التي تعود بأصلها إلى جد مشترك عرف عند النسابة والإخباريين العرب + +context : الاتحاد الدولي لكرة القدم ، ويعرف اختصارا باسم الفيفا ، هي الهيئة المنظمة للعبة كرة القدم في العالم ، تأسست في 21 مايو من العام 1904 في باريس ، ويقع مقرها بمدينة زيورخ في سويسرا . ويضم 211 من اتحادات كرة القدم في العالم ، ويرأس الفيفا السويسري جوزيف بلاتر إلى أن استقال في 2 يونيو 2015 ، في 26 فبراير 2016 انتخب جياني إنفانتينو كرئيس للفيفا . +question : متى تأسست الفيفا ؟ +prompt : أجب عن السؤال التالي : متى تأسست الفيفا ؟ الجواب هو في عام +pred_answer : 1904 م ، +answer : 21 مايو من العام 1904 + +context : أدب الرعب ( horror fiction ) نوع خاص جدا من الأدب يهدف من خلال مجموعة من الأحداث المتشابكة إلى إثارة شعور الرعب والخوف . [1][2][3] +question : ما هو أدب الرعب ؟ +prompt : أجب عن السؤال التالي : ما هو أدب الرعب ؟ الجواب هو +pred_answer : أنه نوع من أنواع الأدب الذي يتناول مواضيع الخوف والرعب ، وهو فن قائم بحد ذاته له قواعده +answer : نوع خاص جدا من الأدب يهدف من خلال مجموعة من الأحداث المتشابكة إلى إثارة شعور الرعب والخوف + +context : حلف وارسو أو معاهدة وارسو ( اسمها الرسمي معاهدة الصداقة والتعاون والمساعدة المشتركين ) هو منظمة عسكرية سابقة لدول أوروبا الوسطى والشرقية الشيوعية . [1][2][3] أسست هذه المنظمة عام 1955 م لتواجه التهديدات الناشئة من أعضاء حلف شمال الأطلسي ( الناتو ) وكان من أبرز المحفزات لإنشائها هو انضمام ألمانيا الغربية لحلف الناتو بعد إقرار اتفاقات باريس . استمرت المنظمة في عملها خلال فترة الحرب الباردة حتى سقوط الأنظمة الشيوعية الأوروبية وتفكك الاتحاد السوفيتي ( عام 1991 م ) ووقتها بدأت الدول تنسحب منها واحدة تلو أخرى . حل الحلف رسميا في يوليو 1991 م . +question : في أي عام تأسست منظمة حلف وارسو ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست منظمة حلف وارسو ؟ الجواب هو في عام +pred_answer : 1955 . +answer : 1955 + +context : فرانكلين ديلانو روزفلت ( أو روزافالت حسب نطقه الخاص[1] ) ، ( 30 يناير 1882 - 12 أبريل 1945 ) ، المعروف أيضا باختصار " إف دي آر " ، هو رجل دولة وزعيم سياسي أمريكي شغل منصب الرئيس الثاني والثلاثين للولايات المتحدة من عام 1933 حتى وفاته في عام 1945 . روزفلت هو سياسي ديمقراطي ، وفاز في أربعة انتخابات رئاسية متتالية وبرز كشخصية مركزية في الأحداث العالمية خلال منتصف القرن العشرين . قاد حكومة الولايات المتحدة خلال الكساد الكبير والحرب العالمية الثانية . اعتبر قائدا مهيمنا على الحزب ، وقام ببناء تحالف الصفقة الجديدة ، وأعاد تنظيم السياسة الأمريكية في نظام الحزب الخامس ، وأعاد تحديد الليبرالية الأمريكية خلال الثلث الأوسط من القرن العشرين . وغالبا ما يصنفه الباحثون كأحد أكبر ثلاثة رؤساء أمريكيين ، إلى جانب جورج واشنطن وأبراهام لينكون . [2] +question : متي ولد فرانكلين ديلانو روزفلت ؟ +prompt : أجب عن السؤال التالي : متي ولد فرانكلين ديلانو روزفلت ؟ الجواب هو +pred_answer : : في +answer : 1882 + +context : القلوي هي كلمة ذات أصل عربي أي ملح أيوني قاعدي لفلز قلوي أو لفلز قلوى ترابي . [1][2][3] تصنف المواد القلوية في الكيمياء ضمن القواعد . +question : ما هي القلوية ؟ +prompt : أجب عن السؤال التالي : ما هي القلوية ؟ الجواب هو +pred_answer : أن هناك نوعين من القلوية هما : قلوية الدم و قلوية البول . +answer : ملح أيوني قاعدي لفلز قلوي أو لفلز قلوى ترابي + +context : العديد من المؤسسات تقدم درجة لا تقدم تدريبا مكثفا في الكلاسيكية الواقعية وأكاديمية الرسم والرسم . وتعتبر كلية Lyme أكاديمية للفنون الجميلة صيغة جماعية لهذا النموذج التعليمي . هو سد هذه الفجوة بمدارس الفن حلقة العمل ( المدارس الموجودة داخل الاستوديو لفنان ) أو في مواقع منفصلة ، مثل أكاديمية نيويورك للفنون ، أنشأت الأكاديمية الوطنية للتصميم ، مدرسة استوديو نيويورك ، وبنسلفانيا أكاديمية " الفنون الجميلة " ( بافا ) ، 1805 ، في الفن طلاب جامعة نيويورك ، أنشئت في عام 1875 ، و[أكاديمية للتصميم الكلاسيكي] . +question : متى تأسست أكاديمية بنسلفانيا للفنون الجميلة ؟ +prompt : أجب عن السؤال التالي : متى تأسست أكاديمية بنسلفانيا للفنون الجميلة ؟ الجواب هو في عام +pred_answer : 1891 ، +answer : 1805 + +context : ولد الناصر بن شهرة بعشيرة الأرباع من قبائل بني هلال قرب الأغواط عام 1804 وكان أبوه شهرة وجده فرحات قائدين وشيخين بالتوالي على الأرباع فنشأ بن شهرة في جو ملؤه الحياة العربية القحة بما يروي فيها من أخبار الفروسية والكرم وأحداث الكر والفر في الحرب والنزال متمسكا بسيرة أسلافه شيوخ الأرباع وزعماء الصحراء منتميا إلى الطريقة القادرية . +question : أين ولد بن ناصر بن شهرة ؟ +prompt : أجب عن السؤال التالي : أين ولد بن ناصر بن شهرة ؟ الجواب هو +pred_answer : أنه ولد في +answer : الأغواط + +context : الجرافة هي آلية مزود بسلسلة معدنية للسير ومجهز بلوح معدني كبير ( يعرف باسم الشفرة ) يستخدم لدفع كميات كبيرة من التربة ، والرمل ، والحصى ، وما إلى ذلك ، خلال أعمال البناء وعادة ما تكون الجرافة مزودة من الخلف بأداة تشبه المخلب لخلخلة المواد الكثيفة والمضغوطة . [1][2] +question : ما هو البلدوزر ؟ +prompt : أجب عن السؤال التالي : ما هو البلدوزر ؟ الجواب هو +pred_answer : أن هذا النوع من الآلات قادر على حفر الأرض بعمق يصل إلى أكثر من متر ونصف المتر ، كما أنه قادر على الحفر في التربة الطينية أو الحصوية .هذا النوع من الجرافات يتمتع بقدرة عالية على تحمل الظروف المناخية القاسية مثل درجات الحرارة المرتفعة والرياح العاتية +answer : آلية مزود بسلسلة معدنية للسير ومجهز بلوح معدني كبير يعرف باسم الشفرة يستخدم لدفع كميات كبيرة من التربة والرمل والحصى وما إلى ذلك خلال أعمال البناء وعادة ما تكون الجرافة مزودة من الخلف بأداة تشبه المخلب لخلخلة المواد الكثيفة والمضغوطة + +context : فرنسا 5 ( بالفرنسية : France 5 ) هي قناة تلفزيونية فرنسية ، تنتمي إلى تلفزيون فرنسا . [1][2][3] تبث بشكل أساسي البرامج التعليمية والوثائقية . بدأت قناة فرنسا 5 بث برامجها في 13 ديسمبر 1994 وكان هذا بعد مرور أكثر من عام على توقف القناة الخامسة بث إرسالها . تبث القناة برامجها لمدة 24 ساعة يوميا . +question : متى تأسست قناة فرنسا 5 ؟ +prompt : أجب عن السؤال التالي : متى تأسست قناة فرنسا 5 ؟ الجواب هو في عام +pred_answer : 2005 ، أي +answer : 13 ديسمبر 1994 + +context : لد زبلين ( بالإنجليزية : Led Zeppelin ) كانت فرقة روك إنجليزية تشكلت في عام 1968 وتعتبر واحدة من أكثر فرق الروك نجاحا وأبتكارا وتأثيرا في التاريخ ، تكونت الفرقة من جيمي بايج ( غيتار ) ، روبرت بلانت ( مغني ) ، جون بول جونز ( عازف جهير ( بيس ) ولوحةالمفاتيح ) وجون بونهام ( قارع طبول ) . [1][2][3] +question : متى تأسست فرقة الروك لد زبلين ؟ +prompt : أجب عن السؤال التالي : متى تأسست فرقة الروك لد زبلين ؟ الجواب هو في عام +pred_answer : 1970 . +answer : 1968 + +context : أعلن عن قيام جمهورية تشيكوسلوفاكيا رسميا يوم 28 أكتوبر 1918 نتيجة اتحاد خمسة مناطق مستقلة عن الإمبراطورية النمساوية المجرية وهذه المناطق هي : بوهيميا ومورافيا وأجزاء من سيليزيا ( كلها في التشيك حاليا ) وسلوفاكيا وروثينيا الكارباتية ( في أوكرانيا حاليا ) وكان أول رؤسائها توماس ماساريك وتلاه إدوارد بينيش . +question : متى أعلن عن قيام جمهورية تشيكوسلوفاكيا ؟ +prompt : أجب عن السؤال التالي : متى أعلن عن قيام جمهورية تشيكوسلوفاكيا ؟ الجواب هو في عام +pred_answer : 1918 ، عندما +answer : 28 أكتوبر 1918 + +context : مذهب الأحادية المحايدة في الفلسفة عبارة عن رؤية الميتافيزيقا والتي تنادي بأن النفس والجسد هما سبيلان لتنظيم أو وصف نفس العناصر والتي هي في ذاتها " محايدة " فلا تعتبر جسدية ولا نفسية . وهذه الرؤية ترفض اعتبار أن النفس والجسد شيئان مختلفان في الأساس . على الأحرى ، يزعم مذهب الأحادية المحايدة أن الكون يتكون من مادة واحدة فقط في صورة عناصر محايدة والتي في ذاتها لا تعتبر نفسية ولا جسدية . وهذه العناصر المحايدة يمكن أن تتميز بخصائص الألوان والأشكال بنفس الطريقة التي عهدنا بها تلك الخصائص . ولكن هذه العناصر ذات الألوان والأشكال لا توجد في العقل ( ككيان جوهري سواء ثنائيا أم ليس له نظير ) ولكنها توجد بذاتها . +question : ما هو مذهب الأحادية المحايدة في الفلسفة ؟ +prompt : أجب عن السؤال التالي : ما هو مذهب الأحادية المحايدة في الفلسفة ؟ الجواب هو +pred_answer : : لا يوجد مذهب أحادي محايد في الفلسفة ، بل توجد مدارس فلسفية مختلفة . كل مدرسة لها طريقتها الخاصة في النظر إلى المسائل الفلسفية ؛ وكل واحدة منها +answer : الفلسفة عبارة عن رؤية الميتافيزيقا والتي تنادي بأن النفس والجسد هما سبيلان لتنظيم أو وصف نفس العناصر والتي هي في ذاتها محايدة فلا تعتبر جسدية ولا نفسية + +context : الشونيز المحدب نوع نباتي يتبع جنس الشونيز من الفصيلة الحوذانية . +question : ما هو الشونيز المحدب ؟ +prompt : أجب عن السؤال التالي : ما هو الشونيز المحدب ؟ الجواب هو +pred_answer : أن هذا النوع من المكسرات يحتوي على نسبة عالية من الدهون المشبعة +answer : نوع نباتي يتبع جنس الشونيز من الفصيلة الحوذانية + +context : مات المستشار الألماني أدولف هتلر في 30 أبريل 1945 منتحرا عن طريق تناول مادة السيانيد السامة وإطلاق النار على نفسه وهي الرواية العامة المقبولة لطريقة موت الزعيم النازي . ولكن هذه الطريقة المزدوجة في الانتحار والظروف الأخرى التي أحاطت بالحادثة شجعت البعض على إطلاق الشائعات بأن هتلر لم ينتحر وأنه عاش حتى نهاية الحرب العالمية الثانية مع الاختلاف حول ما حدث لجثته . وقد أكدت الوثائق السوفيتية المفرج عنها من جهازي كي جي بي وجهاز الأمن الفيدرالي الروسي سنة 1993 الرواية التي تقول بانتحاره . ولكنها لم تظهر ما حدث لبقايا جثته بعد حرقها . +question : كيف توفي أدولف هتلر ؟ +prompt : أجب عن السؤال التالي : كيف توفي أدولف هتلر ؟ الجواب هو +pred_answer : أنه مات منتحرا ، +answer : إطلاق النار على نفسه + +context : الإعلان العالمي لحقوق الإنسان هو وثيقة حقوق دولية تمثل الإعلان الذي تبنته الأمم المتحدة 10 ديسمبر 1948 في قصر شايو في باريس . الإعلان يتحدث عن رأي الأمم المتحدة عن حقوق الإنسان المحمية لدى كل الناس . +question : متى تم اول اعلان لحقوق الأنسان ؟ +prompt : أجب عن السؤال التالي : متى تم اول اعلان لحقوق الأنسان ؟ الجواب هو في عام +pred_answer : 1789 +answer : 10 ديسمبر 1948 + +context : قمرين هو الألبوم السابع عشر للفنان المصري عمرو دياب ، تم إصداره عام 1999 . تضمن الألبوم دويتوهات مع الشاب خالد وأنجيلا ديميتريو . +question : من غنى أغنية قمرين ؟ +prompt : أجب عن السؤال التالي : من غنى أغنية قمرين ؟ الجواب هو +pred_answer : : جورج وسوف +answer : عمرو دياب + +context : توماس أديسون ( أبريل 1793 29 يونيو 1860 ) هو أحد أعلام الطب الإنجليزي في القرن التاسع عشر . اكتشف عددا من الأمراض من بينها القصور الكظري الأولي ( الذي أطلق عليه اسمه ، فسمي بداء أديسون ) وفقر الدم الخبيث . +question : من هو الطبيب الذي اكتشف مرض القصور الكظري الأولي ؟ +prompt : أجب عن السؤال التالي : من هو الطبيب الذي اكتشف مرض القصور الكظري الأولي ؟ الجواب هو +pred_answer : د . جايمس +answer : توماس أديسون + +context : لوشيوس أبوليوس [1] أو لوسيوس أبوليوس [2] أو لوكيوس أبوليوس و بالأمازيغية أفولاي ( 125 م - 180 م ) ترعرع في مداوروش هو كاتب لاتيني وخطيب أمازيغي نوميدي وفيلسوف وعالم طبيعي وكاتب أخلاقي وروائي ومسرحي وملحمي وشاعر غنائي . ولد في حوالي عام 125 م ، في مدينة مادور ، والتي يطلق عليها اليوم مداوروش في ولاية سوق أهراس ، الجزائر . كان يسمي نفسه في مخطوطاته أحيانا " أبوليوس المادوري الأفلاطوني " و " الفيلسوف الأفلاطوني " أحيانا أخرى . يعتبر صاحب أول رواية في التاريخ وتوفى سنة 180 م +question : ما هو لوكيوس أبوليوس ؟ +prompt : أجب عن السؤال التالي : ما هو لوكيوس أبوليوس ؟ الجواب هو +pred_answer : أن هذا الكاتب الروماني الذي عاش في القرن الأول قبل الميلاد ، والذي يعد من أعظم الكتاب الرومان ، قد كتب العديد من الأعمال الأدبية +answer : كاتب لاتيني وخطيب أمازيغي نوميدي وفيلسوف وعالم طبيعي وكاتب أخلاقي وروائي ومسرحي وملحمي وشاعر غنائي + +context : العيون ( بالأمازيغية : ) هي أكبر مدن الصحراء الغربية ، وهي مدينة متنازع عليها . وتديرها الحكومة المغربية حاليا بعدما أخضعتها لسيطرتها خلال حرب الصحراء الغربية عام 1975 ، [1] وهي مركز منطقة جهة العيون الساقية الحمراء التي ضمتها المغرب إلى الجهات الاثنا عشرة بالمملكة المغربية وتقع المنطقة تحت متابعة فريق حفظ السلام وإجراء استفتاء الاستقلال التابع للأمم المتحدة الخاص بالصحراء الغربية ( المينورسو ) . أسس المدينة المستعمر الإسباني أنطونيو دي أورو في عام 1938 كقاعدة عسكرية . وأعلنت إسبانيا عام 1940 المدينة عاصمة الصحراء الإسبانية تطل مدينة العيون على المحيط الأطلسي غربا وتتميز بمناخها المعتدل عموما الواقع تحت تأثير البحر من الغرب والتيارات الصحراوية من الجنوب والشرق . وعملت حكومة المغرب منذ اقتطاع الصحراء على استيطان المدينة بالسكان غير الأصليين حيث جاءت بالمغاربة ليصبح عددهم يفوق عدد الشعب الصحراوي . +question : أين تقع مدينة العيون ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة العيون ؟ الجواب هو +pred_answer : في الجنوب الغربي من +answer : الصحراء الغربية + +context : الأصول المتداولة هي الأصول التي يسهل تحويلها إلى نقدية ، ويمكن استخدامها للوفاء بالالتزامات المتداولة ، أي المستحقة على الفور ، أو خلال الدورة التشغيلية . +question : ما هي الأصول المتداولة ؟ +prompt : أجب عن السؤال التالي : ما هي الأصول المتداولة ؟ الجواب هو +pred_answer : أن الأصول المتداولة عبارة عن الأموال التي يتم تداولها في سوق الأوراق المالية ( البورصة ) خلال فترة زمنية معينة . +answer : الأصول التي يسهل تحويلها إلى نقدية ويمكن استخدامها للوفاء بالالتزامات المتداولة أي المستحقة على الفور أو خلال الدورة التشغيلية + +context : ولد الراعي في قرية حملايا في قضاء المتن محافظة جبل لبنان ، في 25 فبراير 1940 ، والده هو يوسف الراعي ووالدته ثمينة . [4] انخرط في صفوف الرهبنة المريمية المارونية ، ثاني أكبر رهبنات لبنان بعد الرهبنة اللبنانية المارونية عام 1953 وأبرز نذوره المؤقتة في أكتوبر 1957 وتابع دراسته في اللاهوت والفلسفة في كلية دير سيدة الجمهور التابعة للآباء اليسوعيين ، [5] حتى إبرازه النذور الدائمة في 31 يوليو 1962 . [4] +question : أين ولد بشارة بطرس الراعي ؟ +prompt : أجب عن السؤال التالي : أين ولد بشارة بطرس الراعي ؟ الجواب هو +pred_answer : في لبنان +answer : حملايا + +context : حيث اقتحم مسلحين مسرح باتاكلان واطلقوا النار بشكل عشوائي ، واحتجزوا رهائن ، ومن ثم داهمت الشرطة المسرح وأنهت عملية الاحتجاز في المسرح ، بعد تفجير ثلاثة من المهاجمين أنفسهم ، [3] كانت الحصيلة الأعلى للخسائر البشرية في مسرح باتاكلان حيث قام المهاجمين باحتجاز رهائن قبل دخولهم في مواجهة مع الشرطة حتى 00 : 58 يوم 14 نوفمبر . أسفرت الهجمات عم مقتل 130 شخص : [4][5] 89 منهم كانوا في مسرح باتاكلان . [6] وجرح 368 شخص . [7][8] سبعة من المهاجمين لقوا حتفهم ، في حين واصلت السلطات البحث عن أي من المتواطئين معهم . [9] +question : كم كان عدد ضحايا هجمات باريس ؟ +prompt : أجب عن السؤال التالي : كم كان عدد ضحايا هجمات باريس ؟ الجواب هو +pred_answer : أكثر من +answer : 130 + +context : إجمالي الناتج المحلي ( GDP ) : هو عبارة عن القيمة السوقية لكل السلع النهائية والخدمات المعترف بها بشكل محلي والتي يتم إنتاجها في دولة ما خلال فترة زمنية محددة . غالبا ما يتم اعتبار إجمالي الناتج المحلي للفرد مؤشرا لمستوى المعيشة في الدولة . [2] ولا يعد إجمالي الناتج المحلي للفرد مقياسا لدخل الفرد . وبموجب النظرية الاقتصادية ، يساوي إجمالي الناتج المحلي للفرد تماما إجمالي الدخل المحلي للفرد GDI . ويتعلق إجمالي الناتج المحلي بالحسابات القومية ، وهي مادة في الاقتصاد الكلي . ويجب ألا يتم الخلط بين إجمالي الناتج المحلي وإجمالي الناتج القومي ( GNP ) الذي يخصص الإنتاج حسب الملكية . +question : ما هو مؤشر الناتج العام المحلي ؟ +prompt : أجب عن السؤال التالي : ما هو مؤشر الناتج العام المحلي ؟ الجواب هو +pred_answer : أن معدل النمو السنوي للناتج المحلي الإجمالي ( GDP ) يتراوح بين 2 . 5 % و +answer : القيمة السوقية لكل السلع النهائية والخدمات المعترف بها بشكل محلي والتي يتم إنتاجها في دولة ما خلال فترة زمنية محددة + +context : القطاع الخاص في اقتصاد دولة يتكون من مؤسسات وشركات خاصة لا تملكها الحكومة . [1][2] وهو مجموع المؤسسات التي تكون خاضعة لرأس مال الأفراد أو الشركات . +question : ما هو القطاع الخاص ؟ +prompt : أجب عن السؤال التالي : ما هو القطاع الخاص ؟ الجواب هو +pred_answer : أن كل قطاع خاص في أي بلد +answer : مؤسسات وشركات خاصة لا تملكها الحكومة + +context : رئيس : ناجي البغوري كاتب عام : سكينة عبد الصمد كاتب عام مساعد مكلف بالحريات الصحفية : عائدة الهيشري أمين مال : خميس العرفاوي عضو مكلف بالنظام الداخلي : يوسف الوسلاتي عضو مكلف بالشؤون الاجتماعية : كريم اللطيفي عضو مكلف بالشؤون المهنية والرسكلة والثقافة : سيدة الهمامي عضو مكلف بالعلاقات الخارجية : زياد دبار مكلف بالجهات : حاتم بلحوش +question : من هو رئيس النقابة الصحفية التونسية حاليا ؟ +prompt : أجب عن السؤال التالي : من هو رئيس النقابة الصحفية التونسية حاليا ؟ الجواب هو +pred_answer : السيد ناجي البغوري +answer : ناجي البغوري + +context : الكمة أو القحفية كما يطلق عليها في بعض دول الخليج ، هي قطعة من القماش المقوى المطرز بنقوش جميلة تصنعها النساء ويلبسها الرجال . ويعتقد أن الكمة ظهرت في سلطنة عمان في خمسينيات القرن الماضي إلا أنها في الحقيقة ظهرت قبل ذلك بكثير . [1] +question : ماهي الكمة العمانية ؟ +prompt : أجب عن السؤال التالي : ماهي الكمة العمانية ؟ الجواب هو +pred_answer : أن الكمة هي عبارة عن قطعة قماش مصنوعة من القطن أو الصوف ، يتم ارتداؤها +answer : قطعة من القماش المقوى المطرز بنقوش جميلة تصنعها النساء ويلبسها الرجال + +context : والدة ترامب ماري آن ولدت في جزيرة لويس . غادرت تونغ ، اسكتلندا في عام 1930 عندما كان عمرها 18 عاما لقضاء عطلة في نيويورك ، التقت بناء محلي ، وبقيت . ولد ترامب في حي كوينز في نيويورك في الولايات المتحدة ، له أربعة أشقاء — شقيقين ( فريد الابن ، الذي هو الميت ، وروبرت ) وشقيقتيه ( ماريان واليزابيث ) . الأخت الأكبر سنا ، ماريان ترامب باري ، قاضية محكمة استئناف اتحادية والدة ديزموند ديفيد ، وهو كاتب وطبيب أعصاب . +question : أين ولد دونالد ترامب ؟ +prompt : أجب عن السؤال التالي : أين ولد دونالد ترامب ؟ الجواب هو +pred_answer : في الولايات المتحدة الأميركية ، وتحديدا في +answer : حي كوينز في نيويورك في الولايات المتحدة + +context : منظمة الجيش السري بالفرنسية L ' Organisation de l ' Arm e secr te ( OAS ) هي منظمة إرهابية فرنسية أسست في 11 فبراير 1961 بعد لقاء مدريد بين جون جاك سوسيني وبيير لاغيارPierre Lagaillarde . وهي تضم المواليين لأطروحة الجزائر الفرنسية l ' « Alg rie fran aise » بالاعتماد على العمل المسلح . أول ظهور لعلامة OAS كان على جدران الجزائر العاصمة مصحوبة بشعارات « الجزائر فرنسية وستبقى فرنسية » . « L ’ Alg rie est fran aise et le restera » . +question : متى تأسست منظمة الجيش السري الفرنسية ؟ +prompt : أجب عن السؤال التالي : متى تأسست منظمة الجيش السري الفرنسية ؟ الجواب هو في عام +pred_answer : 1940 ، عندما +answer : 11 فبراير 1961 + +context : فرض الكفاية في الفقه الإسلامي أحد الأحكام الشرعية . وتعريفه في : علم أصول الفقه هو : " كل أمر مهم يقصد في الشرع تحصيله على جهة الإلزام ، من غير تعيين فاعله " وفي علم فروع الفقه هو : المفروض شرعا من غير تعيين فاعله ، فيثاب فاعله ، وإذا تركه الجميع أثموا ، وإذا فعله البعض كفى . ويسمى فرض كفاية لأن فعل البعض يكفي لحصول المقصود . +question : ما هو فرض الكفاية ؟ +prompt : أجب عن السؤال التالي : ما هو فرض الكفاية ؟ الجواب هو +pred_answer : أن تقوم جماعة من +answer : أحد الأحكام الشرعية + +context : لايتكوين ( بالإنجليزية : Litecoin ؛ واختصارا : LTC أو [1] ) : من أشهر العملات الرقمية المشفرة في وقتنا الحالي ، وهي تقوم على أساس peer - to - peer ( ند لند ) كمشروع للبرمجيات مفتوحة المصدر تحت ترخيص MIT X11 . [2] يتم تخليق وانتقال العملة على أساس بروتوكول التشفير مفتوح المصدر ، ولا تتحكم فيه أي سلطة مركزية . [3] استوحيت هذه العملة عند نشأتها في عام 2011 من عملة Bitcoin الشهيرة وتكاد تتطابق معها في العديد من التفاصيل التقنية . +question : ما هي لايتكوين ؟ +prompt : أجب عن السؤال التالي : ما هي لايتكوين ؟ الجواب هو +pred_answer : أن لايتكوين عبارة عن عملة رقمية مشفرة +answer : من أشهر العملات الرقمية المشفرة في وقتنا الحالي + +context : بالرغم أن صدام كان نائبا للرئيس أحمد حسن بكر إلا أنه كان الطرف الأقوى في الحزب . كان أحمد حسن البكر الأكبر سنا ومقاما ولكن وبحلول عام 1968 م كان لصدام القوة الكبرى في الحزب . في عام 1979 م بدأ الرئيس أحمد حسن البكر بعقد معاهدات مع سوريا التي يتواجد بها حزب البعث كانت ستقود إلى الوحدة بين الدولتين . وسيصبح الرئيس السوري حافظ الأسد نائبا للرئيس في ذلك الاتحاد ولكن قبل حدوث ذلك استقال أحمد حسن البكر في 16 يوليو عام 1979 م وأصبح صدام بشكل رسمي الرئيس الجديد للعراق . بعد ذلك بفترة وجيزة جمع قيادات حزب البعث في 22 يوليو عام 1979 م بقاعة الخلد ببغداد وخلال الاجتماع الذي أمر بتصويره قال صدام بأنه وجد جواسيس ومتآمرين ضمن حزب البعث وقرأ أسماء هؤلاء الذين كانو ارتبطوا سرا مع حافظ الأسد . وتم وصف هؤلاء بالخيانة وتم اقتيادهم واحدا تلو الآخر ليواجهوا الإعدام رميا بالرصاص خارج قاعة الاجتماع وعلى مسامع الحاضرين . [65] +question : متى تولى صدام حسين رئاسة العراق ؟ +prompt : أجب عن السؤال التالي : متى تولى صدام حسين رئاسة العراق ؟ الجواب هو في عام +pred_answer : 1979 م +answer : 16 يوليو عام 1979 + +context : آخن ( بالألمانية : Aachen ) هي مدينة تقع في أقصى غرب ولاية شمال الراين - وستفاليا في غرب ألمانيا تبعد 60 كم إلى الجنوب الغربي من مدينة كولونيا . يبلغ عدد سكانها حوالي 254 . 000 نسمة ( 2015 ) . تقع على الحدود الألمانية مع كل من هولندا و بلجيكا و هي قد عدت أكبر مدينة واقعة على الحدود الغربية القصوى في ألمانيا بعد تخطي عدد سكانها حاجز ال 100 . 000 نسمة عام 1890 . تقع فيها الجامعة التقنية الراينية الفستفالية ( بالألمانية : Die ( Rheinisch - Westf lische Technische Hochschule Aachen , و التي تعد واحدة من الجامعات الرائدة في المجال التقني على مستوى ألمانيا . +question : أين تقع مدينة آخن ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة آخن ؟ الجواب هو +pred_answer : في ألمانيا +answer : غرب ألمانيا + +context : تصغير | لاعبو النادي أثناء التدريب نادي الهلال السعودي هو ناد رياضي ، ثقافي ، اجتماعي سعودي أسس عام 1957 ، مقره في العاصمة السعودية الرياض ويعتبر الفريق الأول في السعودية من حيث عدد البطولات المحلية ، وأكثر الأندية الآسيوية فوزا بالبطولات القارية بمختلف مسمياتها ، إذ تبلغ عدد بطولاته الرسمية على المستوى المحلي والإقليمي والقاري 61 بطولة [1] ، والاجمالية سواء كانت رسمية أو ودية 97 بطولة . ويحتل الفريق الأول لكرة القدم نادي الهلال السعودي المرتبة التاسعة والسبعين عالميا في قائمة أفضل 100 فريق كرة قدم في العالم خلال فترة القرن العشرين من حيث تحقيق البطولات المحلية والقارية من قبل الاتحاد الدولي لتاريخ وإحصاءات كرة القدم . +question : متى تأسس نادي الهلال السعودي ؟ +prompt : أجب عن السؤال التالي : متى تأسس نادي الهلال السعودي ؟ الجواب هو في عام +pred_answer : 1377 +answer : 1957 + +context : في المسيحية والإسلام ، المجيء الثاني للمسيح أو الظهور الثاني يعرف أحيانا ب باروسيا ، وهو العودة المتوقعة ليسوع المسيح للأرض . ويستند اعتقاد المجيء الثاني على نبوءات موجودة في الإنجيل الكنسي ( canonical gospels ) وفي معظم علم الأخرويات الإسلامية والمسيحية . ( وعلم الأخرويات هو الإيمان بالبعث والحساب ) ويؤمن المسيحيون عموما بأن هذا الحدث المتوقع كان متنبئا به في النبوءات المسيحية التوراتية . وجهات النظر حول طبيعة مجيء المسيح الثاني تختلف بين الطوائف المسيحية ، وفي بعض الأوقات بين الأفراد المسيحيين داخل هذه الطوائف . +question : ماهو المجيء الثاني للمسيح ؟ +prompt : أجب عن السؤال التالي : ماهو المجيء الثاني للمسيح ؟ الجواب هو +pred_answer : أن المسيح سوف يأتي في نهاية الزمان +answer : العودة المتوقعة ليسوع المسيح للأرض + +context : في الرياضيات الكلاسيكية ، الهندسة التحليلية وتدعى أيضا الهندسة الإحداثية أو التنسيقية وسابقا الهندسة الديكارتية ، هي فرع المعرفة الرياضية الذي يدرس الهندسة باستعمال نظام الإحداثيات ومبادئ الجبر والتحليل الرياضي . تستعمل الهندسة التحليلية بشكل واسع في الفيزياء والهندسة التطبيقية كما تمثل الأساس الذي بني عليه باقي مجالات الهندسة كالهندسة الجبرية والهندسة التفاضلية والهندسة المتقطعة والهندسة الحاسوبية . +question : ما هي الهندسة التحليلية ؟ +prompt : أجب عن السؤال التالي : ما هي الهندسة التحليلية ؟ الجواب هو +pred_answer : أنها فرع من فروع الرياضيات التي تتعامل مع حل المعادلات ذات الدرجة الثانية بطرق جبرية وهندسية . في هذا المقال +answer : فرع المعرفة الرياضية الذي يدرس الهندسة باستعمال نظام الإحداثيات ومبادئ الجبر والتحليل الرياضي تستعمل الهندسة التحليلية بشكل واسع في الفيزياء والهندسة التطبيقية + +context : الاستسقاء الجنيني او موه الجنين أو الخزب الجنيني هو التجمع المفرط للسوائل ضمن الأنسجة الرخوة للجنين ( وذمة نسيجية ) وأجواف جسمه ( انصبابات ) . [1] وهو يختلف عن الموه السلوي والذي هوي زيادة تجمع سائل السلى حول الجنين ( بداخل الكيس السلوي ) . +question : ما هو الاستسقاء الجنيني ؟ +prompt : أجب عن السؤال التالي : ما هو الاستسقاء الجنيني ؟ الجواب هو +pred_answer : أن السائل المنوي يحتوي على عدد كبير من الحيوانات المنوية ، +answer : التجمع المفرط للسوائل ضمن الأنسجة الرخوة للجنين + +context : رئيس وزراء المملكة المتحدة هو رئيس حكومة المملكة المتحدة ويرأس اجتماعات مجلس الوزراء . ليس هناك تاريخ محدد عندما ظهر مكتب رئيس الوزراء لأول مرة ، حيث لم يتم إنشاء الدور ولكن تطور على مدى فترة من الزمن . [1] وقد استخدم هذا المصطلح في مجلس العموم في عام 1805 , [2] وكان بالتأكيد في الاستخدام البرلماني بحلول عام 1880 , [3] وفي عام 1905 اعترف رسميا بمنصب رئيس الوزراء في ترتيب الأسبقية . [4] يعد المؤرخون الحديثون عموما السير روبرت والبول ، الذي قاد حكومة بريطانيا العظمى لمدة 21 عاما في 1721 - 42 , [5][6] كأول رئيس وزراء يخدم ، والبول هو أيضا أطول رئيس وزراء بريطاني . [7] ومع ذلك ، كان السير هنري كامبل - بانرمان أول رئيس وزراء موقر ومارغريت تاتشر رئيس الوزراء الذي يخدم على المدى الطويل ليشار إليها رسميا على هذا النحو . +question : من هو أول رئيس وزراء للمملكة المتحدة ؟ +prompt : أجب عن السؤال التالي : من هو أول رئيس وزراء للمملكة المتحدة ؟ الجواب هو +pred_answer : جورج الثالث ، الذي +answer : روبرت والبول + +context : الأمن الداخلي هو فعل حفظ السلم داخل حدود دولة ذات سيادة أو غيرها من مناطق الحكم الذاتي ويتم ذلك عموما من خلال الحفاظ على القانون الوطني والتصدي لمخاطر الأمن الداخلي . ويتراوح تحمل مسؤولية الأمن الداخلي بين الشرطة والقوات شبه العسكرية ، وفي حالات استثنائية توكل المهمة ل القوات المسلحة نفسها . +question : ما هو الأمن الداخلي ؟ +prompt : أجب عن السؤال التالي : ما هو الأمن الداخلي ؟ الجواب هو +pred_answer : أن يكون المواطن آمنا على نفسه ، وعلى ماله ، وعلى عرضه ، وعلى بيته ، وعلى أولاده ، وعلى أرضه ، وعلى كل شيء في هذا +answer : فعل حفظ السلم داخل حدود دولة ذات سيادة أو غيرها من مناطق الحكم الذاتي ويتم ذلك عموما من خلال الحفاظ على القانون الوطني والتصدي لمخاطر الأمن الداخلي + +context : آلة إنجما هو اسم يطلق على أي آلة من عائلة الآلات الكهروميكانيكية الدوارة التي تستخدم لإنتاج الشيفرة السرية ، حيث أن هذه العائلة تشمل أنواعا متعددة ومختلفة من الطرازات تستخدم لتعمية وفك تعمية الرسائل السرية . وكلمة إنجما كلمة إنجليزية تعني " لغز " . +question : ما هي آلة إنجما ؟ +prompt : أجب عن السؤال التالي : ما هي آلة إنجما ؟ الجواب هو +pred_answer : أنها عبارة عن مركبة فضائية صممتها وكالة الفضاء الأمريكية +answer : آلة من عائلة الآلات الكهروميكانيكية الدوارة + +context : كلوفيس الأول ( Clovis I ) ( حوالي سنة 466 — 27 تشرين الثاني نوفمبر 511 ) كان أول ملك للفرنكيين يوحد جميع القبائل تحت حاكم واحد . +question : من هو الملك كلوفيس الأول ؟ +prompt : أجب عن السؤال التالي : من هو الملك كلوفيس الأول ؟ الجواب هو +pred_answer : الإمبراطور البيزنطي ميخائيل الثامن باليولوج ، الذي حكم بين عامي +answer : أول ملك للفرنكيين يوحد جميع القبائل تحت حاكم واحد + +context : تصغير | يسار | 160 بك | بورصة هونغ كونغ البورصة أو سوق الأوراق المالية ، سوق لكنها تختلف عن غيرها من الأسواق ، فهي لا تعرض ولا تملك في معظم الأحوال البضائع والسلع ، فالبضاعة أو السلعة التي يتم تداولها بها ليست أصول حقيقية بل أوراق مالية أو أصول مالية ، وغالبا ما تكون هذه البضائع أسهم وسندات . [1][2][3] والبورصة سوق لها قواعد قانونية وفنية تحكم أدائها وتحكم كيفية أختيار ورقة مالية معينة وتوقيت التصرف فيها وقد يتعرض المستثمر غير الرشيد أو غير المؤهل لخسارة كبرى في حال قيامه بشراء أو بيع الاوراق المالية في البورصة لأنه استند في استنتاجاته في البيع أو الشراء على بيانات خاطئة أو غير دقيقة أو أنه أساء تقدير تلك البيانات . +question : ما هي البورصة ؟ +prompt : أجب عن السؤال التالي : ما هي البورصة ؟ الجواب هو +pred_answer : أنها سوق يتم فيها تداول الأسهم والسندات والأوراق المالية الأخرى ، ويتم ذلك من خلال عمليات البيع والشراء التي تتم بين المستثمرين في هذه السوق .والبورصة عبارة عن مكان يجتمع فيه البائعون والمشترون لبيع وشراء الأوراق المالية +answer : سوق لكنها تختلف عن غيرها من الأسواق فهي لا تعرض ولا تملك في معظم الأحوال البضائع والسلع فالبضاعة أو السلعة التي يتم تداولها بها ليست أصول حقيقية بل أوراق مالية أو أصول مالية وغالبا ما تكون هذه البضائع أسهم وسندات + +context : المنمنمة الفارسية هي لوحة أو صورة صغيرة الحجم ، إما تستخدم كتوضيح في كتاب أو تكون عملا فنيا مستقلا بذاته . المنمنمات الفارسية كانت ذات تأثير مسيطر على جميع النسخ الأخرى من المنمنمات الإسلامية ، خصوصا المنمنمات العثمانية في تركيا والمنمنمات المغولية في الهند . أصبحت المنمنمات الفارسية ذات طابع وثيق بالثقافة الإسلامية بعدما ركزت على تصوير معالم ومظاهر إسلامية أو تصوير خلفاء وقادة إسلاميون . +question : ما هي المنمنمة الفارسية ؟ +prompt : أجب عن السؤال التالي : ما هي المنمنمة الفارسية ؟ الجواب هو +pred_answer : أنها فن من فنون الأدب الفارسي +answer : لوحة أو صورة صغيرة الحجم + +context : كان الفيلوسيرابتور درومايوصوريا متوسط الحجم ، فقد بلغ طول الفرد البالغ منه 2 . 07 م وارتفاعه 0 . 5 م عند الكتف ووصل وزنه إلى 15 كيلوغراما . [3] بلغ طول جمجمة هذه الديناصورات 25 سم ، بينما كان الجزء الخلفي من جماجمها ناتئا إلى الأعلى إلى حد غير اعتيادي . أما فكوكها فقد ملئت بعدد يتراوح من 26 إلى 28 سنا على كل فك تفصل بينهم مساحات واسعة نسبيا ، وقد كانت أسنانها الأمامية مسننة ( أي تبرز منها نتوءات صغيرة كثيرة ) أكثر من الخلفية ، وربما كان الغرض من هذا تحسين القدرة على التشبث بالفريسة سريعة الحركة . [1][4] +question : كم كان يبلغ وزن الفيلوسيرابتور ؟ +prompt : أجب عن السؤال التالي : كم كان يبلغ وزن الفيلوسيرابتور ؟ الجواب هو +pred_answer : 1 . +answer : 15 كيلوغراما + +context : تصغير | 300 بك | الكسكس بالخضر تصغير | 300 بك | طبق الكسكسي بالسمك ، من تراباني على الساحل الغربي من صقلية . الكسكس[1][2] أو الكسكسي[3] أو سيكسو ( بالأمازيغية ينطق سيكسو أو سكسو أو كسكسو في المغرب و الجزائر وشرق ليبيا أو كسكسي في تونس و غرب ليبيا ومصر و موريتانيا ) هو وجبة مغربية تقليدية . يصنع الكسكس من طحين القمح أو الذرة في شكل حبيبات صغيرة ، ويتناول بالملاعق أو باليد . يطبخ بالبخار ويضاف إليه اللحم ، أو الخضار ، أو الفول الأخضر المقور ، أو الحليب ، أو الزبدة والسكر الناعم حسب الأذواق والمناسبات . وكذالك في المغرب يحضر الكسكس مع أنواع اللحوم الحلال واللفت و البدنجان و القرع الأحمر ويقدم هكذا بالمرق ، أما باللبن فيقدم بدون مرق أو خضر فقط الكسكس باللبن . +question : من أين يستخرج الكسكسي ؟ +prompt : أجب عن السؤال التالي : من أين يستخرج الكسكسي ؟ الجواب هو +pred_answer : أن الكسكس عبارة عن خليط من القمح والذرة والشعير ، +answer : يصنع الكسكس من طحين القمح أو الذرة في شكل حبيبات صغيرة + +context : شجرة العود تسمى ب ( إقوالوريا ) وهي شجرة الأم من أصل 15 شجرة موجودة بالعالم كله حيث انقرض أغلب الأشجار بسبب اقتلاعه لاستخراج الدهن والبخور . ( وإقوالوريا ) ويصل عمره ما بين 70 - 100 سنة . +question : من اي شجرة يستخرج العود ؟ +prompt : أجب عن السؤال التالي : من اي شجرة يستخرج العود ؟ الجواب هو +pred_answer : : خشب الساج +answer : إقوالوريا + +context : تم اختراع المولد الكهربائي من قبل العالم الأنجليزي مايكل فارادي سنة 1831 م . +question : من إخترع مولد الكهرباء ؟ +prompt : أجب عن السؤال التالي : من إخترع مولد الكهرباء ؟ الجواب هو +pred_answer : توماس إديسون +answer : مايكل فارادي + +context : الناصر بن شهرة أو بن ناصر بن شهرة ( 1804 م - 1884 م ) ، قائد وزعيم ومقاوم الاحتلال الفرنسي للجزائر خلال القرن 19 م . ينتمي إلى قبيلة المعامرة والحجاج الذين ينتمون بدورهم إلى الأرباع . هو شيخ قبائل الأرباع الهلالية بنواحي مدينة الأغواط ، ذلك الرجل الذي دام كفاحه ضد الإحتلال الفرنسي أكثر من أربع وعشرين سنة ( 1267 - 1292 ه 1851 - 1875 م ) +question : متى ولد بن ناصر بن شهرة ؟ +prompt : أجب عن السؤال التالي : متى ولد بن ناصر بن شهرة ؟ الجواب هو في عام +pred_answer : ( 13 +answer : 1804 + +context : زين العابدين بن علي ( 3 سبتمبر 1936 - ) ، رئيس الجمهورية التونسية منذ 7 نوفمبر 1987 إلى 14 يناير 2011 ، وهو الرئيس الثاني لتونس منذ استقلالها عن فرنسا عام 1956 بعد الحبيب بورقيبة ، عين رئيسا للوزراء في أكتوبر 1987 ثم تولى الرئاسة بعدها بشهر في نوفمبر 1987 في انقلاب غير دموي حيث أعلن أن الرئيس بورقيبة عاجز عن تولي الرئاسة[1] . وقد أعيد انتخابه وبأغلبية ساحقة في كل الانتخابات الرئاسية التي جرت ، وآخرها كان في 25 أكتوبر 2009[2] . +question : في أي عام تنحى الرئيس السابق زين العابدين بن علي عن السلطة ؟ +prompt : أجب عن السؤال التالي : في أي عام تنحى الرئيس السابق زين العابدين بن علي عن السلطة ؟ الجواب هو في عام +pred_answer : 2011 � +answer : 14 يناير 2011 + +context : الموناليزا ( باللغة الفرنسية : Mona Lisa ، وباللغة الإيطالية : Monna Lisa ) أو الجيوكاندا ( باللغة الفرنسية : La Joconde ، نقحرة : لا جوكوند ، وباللغة الإيطالية : La Gioconda ، نقحرة : لا جوكوندا ) ، هي لوحة فنية نصفية تعود للقرن السادس عشر لسيدة يعتقد بأنها ليزا جوكوندو ، بريشة الفنان ، والمهندس ، والمهندس المعماري ، والنحات الإيطالي ليوناردو دا فينشي ، [1] حيث رسمها خلال عصر النهضة الإيطالية . استخدم دا فينشي في إنهائها طلاء زيتيا ولوحا خشبيا من الحور الأسود . تعد هذه اللوحة ملكا للحكومة الفرنسية حيث تعلق هناك على جدار متحف اللوفر خلف لوح زجاجي مقاوم للرصاص وفي بيئة يتم التحكم بمناخها . لقد وصفت هذه اللوحة بأنها " أكثر الأعمال الفنية شهرة في تاريخ الفن ، وأكثر عمل فني يتم الكتابة عنه ، والتغني به ، وزيارته من بينهم " ، كما وصفت أيضا بأنها " أكثر الأعمال الفنية التي تمت محاكاتها بشكل ساخر في العالم " . [2] +question : من هو المالك الحالي للوحة الموناليزا ؟ +prompt : أجب عن السؤال التالي : من هو المالك الحالي للوحة الموناليزا ؟ الجواب هو +pred_answer : ليوناردو دافنشي +answer : للحكومة الفرنسية + +context : الفيثاغورية هي مدرسة فلسفية وأخوية دينية تعتمد تعاليم وفلسفة فيثاغورس واتباعه والتي قد يكون نشأت في جنوب إيطاليا في القرن السادس ما قبل الميلاد . [1] . وصفها البدوي بأنها أكثر من فلسفة " بل كانت إلى جانب هذا ، اي الفلسفة ، مدرسة دينية اخلاقية على نظام الطرق الفلسفية " [2] وتم احياء الفيثاقورية في زمن لاحق فعرفت بالفيثاقورية المحدثة . وكان لهذه الافكار تأثير كبير على الفكر الارسطي والافلاطوني ومن خلالها على الفلسفة الغربية . +question : ما هي الفيثاغورية ؟ +prompt : أجب عن السؤال التالي : ما هي الفيثاغورية ؟ الجواب هو +pred_answer : : إن كلمة " فيثاغورس " مشتقة من الكلمة اليونانية " فيلوصوفيا " أي محبة الحكمة ، أو من كلمة " سوفيا +answer : مدرسة فلسفية وأخوية دينية تعتمد تعاليم وفلسفة فيثاغورس واتباعه والتي قد يكون نشأت في جنوب إيطاليا في القرن السادس ما قبل الميلاد + +context : بدأت حرب الثمانين عاما ، أو حرب الاستقلال الهولندية ( 1568 م – 1648 م ) [1] على أنها تمرد سبع عشرة محافظة ضد فيليب الثاني ملك إسبانيا صاحب السيادة في هولندا هابسبورغ . +question : ما هي حرب الثمانين عاما ؟ +prompt : أجب عن السؤال التالي : ما هي حرب الثمانين عاما ؟ الجواب هو +pred_answer : أن الحرب العالمية الأولى بدأت في عام 1914 وانتهت في عام 1918 ، +answer : تمرد سبع عشرة محافظة ضد فيليب الثاني ملك إسبانيا صاحب السيادة في هولندا + +context : ويهيمن على وادي نهر لغن من بلفاست ، والتي تشمل منطقة العاصمة أكثر من ثلث سكان أيرلندا الشمالية ، مع التحضر والتصنيع الثقيل على طول وادي لغن والشواطئ على حد سواء من خليج بلفاست . +question : ما هي عاصمة أيرلندا الشمالية ؟ +prompt : أجب عن السؤال التالي : ما هي عاصمة أيرلندا الشمالية ؟ الجواب هو +pred_answer : مدينة بلفاست +answer : بلفاست + +context : الخليج العربي[1] ( بالفارسية : خل ج فارس[2] ، بالتركية : خليج البصرة ، [3][4] بالسواحلية : غب العجم[5][6] ) هو ذراع مائية لبحر العرب يمتد من خليج عمان جنوبا حتى شط العرب شمالا بطول 965 كيلومترا . [7] تبلغ مساحة الخليج العربي نحو 233 , 100 كيلومتر[7] ، ويتراوح عرضه بين حد أقصى حوالي 370 كم[7] إلى حد أدنى 55 كم في مضيق هرمز . والخليج العربي ضحل لا يتجاوز عمقه 90 مترا إلا في بعض الأماكن . [7] يبلغ طول الساحل العربي على الخليج العربي 3 , 490 كيلومتر وهو أطول من الساحل الإيراني ، إذ تملك إيران ساحلا يبلغ طوله 2 , 440 كيلومترا على الخليج العربي ، وبهذا فإن الساحل العربي أطول بحوالي 1 , 050 كيلومترا من الساحل الإيراني . +question : اين يوجد الخليج الفارسي ؟ +prompt : أجب عن السؤال التالي : اين يوجد الخليج الفارسي ؟ الجواب هو +pred_answer : في مكان ما بين العراق وايران .و +answer : خليج عمان جنوبا حتى شط العرب شمالا + +context : إزمير ( بالتركية : izmi ) هي مدينة تقع غرب الأناضول بتركيا ، وتعد المدينة الثالثة الأكثر اكتظاظا بالسكان في تركيا من بعد إسطنبول وأنقرة وهي ميناء التصدير الأول ، ومركز بيع منتجات الأودية الإيجية الغنية بمحصولاتها الزراعية ، وفيها سوق مهمة لتوزيع المنتجات المصنعة المستوردة ، ويقام فيها معرض سنوي هو أهم تظاهرة تجارية في المنطقة ، وتعد إزمير من جهة أخرى ، المدينة الصناعية التركية الثانية من بعد إسطنبول إذ يشتغل 31 % من القوى العاملة فيها في نشاطات صناعية . وتمتد المدينة من خليج أزمير عبر غيدز في نهر دلتل إلى شرق السهل الرسوبي . يبلغ عدد سكان أزمير حوالي 2 , 847 , 691 نسمة . وتتكون هذه المدينة من عدة أحياء التي تعد محط أنظار السياح مؤخرا لامتلاكها العديد من مناطق الجذب السياحية والثقافية والترفيهية كالساحات والمتاحف الأثرية والشواطئ والحدائق . +question : اين توجد مدينة ازمير ؟ +prompt : أجب عن السؤال التالي : اين توجد مدينة ازمير ؟ الجواب هو +pred_answer : في شمال غرب +answer : بتركيا + +context : كرتون نتورك بالعربية قناة تلفزيونية موجهة للأطفال والمراهقين مجانية تابعة للشبكة كرتون نتورك ، التي تبث للجمهور العربي في عموم منطقة الشرق الأوسط وشمال أفريقيا ، وهي الطبعة العربية الرسمية لكرتون نتورك . تعود ملكية هذه القناة لشركة ترنر برودكاستيج سيستم في أوروبا والشرق الأوسط ، التابعة للشركة الأم تايم وارنر . أطلقت القناة في 10 أكتوبر 2010 في دولة الإمارات العربية المتحدة في تمام الساعة 10 : 10 صباحا بتوقيت المملكة العربية السعودية[1][2] ، إذ تزامن إطلاق القناة مع افتتاح مكاتب تيرنر للبث النظام الجديد في مدينة دبي للإعلام ، المملكة العربية السعودية ، مالك القناة المحلية . فرع الشرق الأوسط لشركة تايم وارنر . [3] +question : ما هي كرتون نتورك ؟ +prompt : أجب عن السؤال التالي : ما هي كرتون نتورك ؟ الجواب هو +pred_answer : لعبة فيديو من نوع تصويب منظور +answer : قناة تلفزيونية موجهة للأطفال والمراهقين + +context : شركة ميدواي للألعاب ، هي شركة أمريكية سابقة وأشتهرت بأنها صدرت أقوى ألعاب فيديو في ذلك الوقت ، أسست شركة ميدواي سنة 1988 م [1] . وأعلنت إفلاسها رسميا عام 2009 م ، وكانت شركة ميدواي للألعاب أنتجت عدة ألعاب وأشهرها : +question : متى تأسست شركة ميدواي للألعاب ؟ +prompt : أجب عن السؤال التالي : متى تأسست شركة ميدواي للألعاب ؟ الجواب هو في عام +pred_answer : 1984 ، +answer : 1988 + +context : كيفانش تاتليتوغ ( بالتركية : K van Tatl tu ويعني بالعربية الفخر ( ولد 27 أكتوبر 1983 - ) ، هو عارض أزياء وممثل تركي ولاعب سابق لكرة السلة ، ولد في مدينة أضنة في تركيا ، من عائلة ذات أصل بوسنى ، فاز عام 2002 بجائزة أفضل موديل في تركيا . +question : ماهو الاسم الحقيقي للممثل التركي الذي قام بدور ( مهند ) في مسلسل ( العشق الممنوع ) ؟ +prompt : أجب عن السؤال التالي : ماهو الاسم الحقيقي للممثل التركي الذي قام بدور ( مهند ) في مسلسل ( العشق الممنوع ) ؟ الجواب هو +pred_answer : ( كيفانش تاتليتو +answer : كيفانش تاتليتوغ + +context : لغات النمسا تشمل اللغة الألمانية ، وهي اللغة الرسمية في البلاد وتستخدم اللهجة البافارية النمساوية ، وتستخدم أيضا اللهجة الأليمانية . +question : ما لغة النمسا ؟ +prompt : أجب عن السؤال التالي : ما لغة النمسا ؟ الجواب هو +pred_answer : اللغة الألمانية . +answer : اللغة الألمانية + +context : الليتوانية هي لغة البلاد الرسمية . يشار إلى الليتوانية كلغة البلطيق أحيانا . +question : ما هي اللغة الرسمية في ليتوانيا ؟ +prompt : أجب عن السؤال التالي : ما هي اللغة الرسمية في ليتوانيا ؟ الجواب هو +pred_answer : اللغة الليتوانية +answer : الليتوانية + +context : في يوم 25 مارس 1985 ، أقيمت مباراة اعتزال جاسم يعقوب مع نادي الزمالك المصري [41] ، وقد انتهت بفوز نادي الزمالك 3 - 2 ، وكان يريد بأن تلعب المباراة يوم 21 مارس لأنه يوم عيد زواجه وميلاد ابنته نوف وعيد الأم [2] ، ويصف يوم اعتزاله بأنه يوم حزين ، حيث كان يسجل في كل مباراة اعتزال لأحد زملاؤه وكان يتمنى بأن يسجل في مباراة اعتزاله ولكنه لم يستطع [6] . +question : متى إعتزل جاسم يعقوب سلطان البصارة لاعب كرة القدم الكويتي السابق ؟ +prompt : أجب عن السؤال التالي : متى إعتزل جاسم يعقوب سلطان البصارة لاعب كرة القدم الكويتي السابق ؟ الجواب هو في عام +pred_answer : 1990 � +answer : 25 مارس 1985 + +context : لوحظ أن هذا الانهيار كان على مدار أربعة قرون وبلغ ذروته في التدهور النهائي للإمبراطورية الرومانية الغربية في 4 من سبتمبر 476 م لكن بعد فوات الأوان ، عندما عزل رومولوس أوغسطس ( Romulus Augustus ) ، آخر إمبراطور ل الإمبراطورية الرومانية الغربية ، عينه شيخ قبائل الجرمان أودواكر ( Odoacer ) . وتساءل بعض المؤرخين المعاصرين عن أهمية هذا التاريخ ، [4] حيث كان ذلك هو أحد الأسباب التي جعلت الإمبراطورية الرومانية الشرقية تعترف بالإمبراطور يوليوس نيبوس ( Julius Nepos ) ، واستقر بقية حياته في دالاماتيا ، حتى اغتياله في عام 480 م . أما القوط الشرقيون الذين خلفوا الرومانيين ، فقد اعتبروا أنفسهم محافظين على النهج المباشر للتقاليد الرومانية . ( مرت الإمبراطورية الرومانية الشرقية بمسارات مختلفة حيث تدهورت حالتها بصورة شديدة بعد عام 1000 ميلادي حتى سقوط القسطنطينية عام 1453 م على يد العثمانيين ، وتفاقمت العديد من الأحداث بعد موقف الإمبراطورية الغربية عام 378 م . وقد أكد عدد من المؤرخين المختلفين على وقوع معركة أدريانوبل ( Adrianople ) عام 378 م ووفاة ثيودوسيوس الأول ( Theodosius I ) عام 395 م ( في المرة الأخيرة التي حدث فيها توحيد سياسي للإمبراطورية الرومانية ) وعبور نهر الراين عام 406 م عن طريق القبائل الجرمانية وإعدام ستيليكو ( Stilicho ) عام 408 ، وساك حاكم روما ( Sack of Rome ) عام 410 م ، ووفاة قسطنطين الثالث ( Constantius I ) عام 421 م ووفاة أيتيوس ( Aetius ) عام 454 م وساك الحاكم الثاني لروما عام 455 م ووفاة ماجوريان ( Majorian ) عام 461 م . وفسرت المدرسة الحديثة مفهوم مراحل " السقوط " بالسقوط العكسي وليس الأمامي ، حيث أعلنت أن هذه التغيرات الكبيرة قد تكون أكثر دقة لوصفها بالتحول المعقد . [5] +question : متى انهارت الامبراطورية الرومانية ؟ +prompt : أجب عن السؤال التالي : متى انهارت الامبراطورية الرومانية ؟ الجواب هو +pred_answer : في عام 476 +answer : 4 من سبتمبر 476 + +context : خيبر مدينة سعودية ، تتبع منطقة المدينة المنورة وتبعد عنها 153 كم ( 95 ميل ) إلى الشمال من المدينة المنورة . +question : أين تقع مدينة خيبر ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة خيبر ؟ الجواب هو +pred_answer : في شمال +answer : سعودية + +context : زغلول راغب محمد النجار ( 17 نوفمبر 1933 ) هو داعية إسلامي يركز على الإعجاز العلمي في النصوص المقدسة الإسلامية . أكاديميا ، فهو باحث جيولوجيا[1] مصري درس في كلية العلوم جامعة القاهرة وتخرج منها سنة 1955 م بمرتبة الشرف ، وكرم بالحصول على جائزة الدكتور مصطفى بركة في علوم الأرض . زميل الجامعة العالمية للعلوم الإسلامية وعضو مجلس إدارتها ، وأحد مؤسسي الهيئة العالمية للإعجاز العلمي في القرآن والسنة . +question : من هو زغلول النجار ؟ +prompt : أجب عن السؤال التالي : من هو زغلول النجار ؟ الجواب هو +pred_answer : الدكتور زغلول النجار ، أستاذ الجيولوجيا في جامعة « القاهرة » +answer : داعية إسلامي يركز على الإعجاز العلمي في النصوص المقدسة الإسلامية + +context : أحدب نوتردام : رواية رومنسية فرنسية من تأليف فيكتور هوغو تتناول أحداث روايته التاريخية كاتدرائية نوتردام باريس " Notre - Dame de Paris " والتي تدور فيها الأجزاء الأكثر أهمية من الرواية . [1][2][3] الشاعر الفرنسي الكبيرألفونس دي لامارتين ( 1790 - 1869 ) وصف فيكتور هوغو بعد ظهور الرواية ب " شكسبير الرواية " . اتخذ فيكتور هيغو دائما موقفا ضد الظلم وغياب العدل وأنصت لصوت الضعفاء والمحرومين ، وهو كمبدع أصيل لم يعيش حياته بجبن ، مطمئن على نفسه بالصمت ، ومن أجمل شخصياته الروائية ( شخصية الأحدب ) وظاهريا وقع الأحدب في حب شابة جميلة محاولا التضحية بحياته عده مرات من أجلها ، وبدا أنه حب رجل لامرأة وارتفع الكاتب بمستواه بالقدرة على التصوير ، لكن الواقع أن الأحدب بعاهته والنكران والقمع الذين عانى منهما ، وقع في حب دفء الجمال الإنسانى المحروم منه ( والموجود أيضا بأعماقه الداخلية ) جمال ظهر أمامه في صورة امرأة ، عطفت عليه ولم تسخر من عاهته أو تشويه جسده ، وليس مجرد حب رجل لامرأة . كان هدف تضحياته من أجلها إبقاء هذا الجمال الإنسانى في الحياة فلا يحرم الوجود منه ، لقد أدرك بعظمه ( وهو الأحدب ) أن فناء جسده القبيح يعنى استمرارية أعماقه الإنسانية الجميلة بالبقاء ، لقد ظل أحدب نوتردام قابعا خلف جدران الكاتدرائية ، منعزلا عن العالم ، عاجزا عن أى اتصال خارجي ، كرمز لعاهة تبعده عن العالم ، وكاتهام لمجتمع يعزل العاهة ويخفيها ويحتقر الضعيف وينهش المحرومين ، ومايتحكم في كل ذلك هو منظومة المجال الحاكمة ، لقد تحول الأحدب إلى كيان منعدم وعاجز عن الفعل حتى تأتى الشرارة التي أنارت مابداخله المتمثلة في الجمال الإنسانى ( المرأة ) فيحدث التغير ويمتلك القدرة على تغير مجرى الأحداث ، ويصبح مصير القوة في يد المتحكم فيهم ، ويتفوق أحدب نوتردام على الجميع بأن يصبح أفضل منهم . +question : أين تقع كنيسة نوثردام ؟ +prompt : أجب عن السؤال التالي : أين تقع كنيسة نوثردام ؟ الجواب هو +pred_answer : في وسط +answer : باريس + +context : العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية هي معاهدة متعددة الأطراف اعتمدتها الجمعية العامة للأمم المتحدة في 16 ديسمبر 1966 ودخلت حيز النفاذ من 3 يناير 1976 . تلزم أطرافها العمل من أجل منح الحقوق الاقتصادية والاجتماعية والثقافية في الأقاليم والأفراد الثقة غير المتمتعة بالحكم الذاتي وبما في ذلك حقوق العمال والحق في الصحة وحق التعلم والحق في مستوى معيشي لائق . اعتبارا من عام 2015 فقد صدق على العهد 164 طرف . خمس دول أخرى بما في ذلك الولايات المتحدة وقعت ولكن لم تصدق بعد على العهد . +question : كم عدد الدول الموقعة على اتفاقية العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية ؟ +prompt : أجب عن السؤال التالي : كم عدد الدول الموقعة على اتفاقية العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية ؟ الجواب هو +pred_answer : مئة وخمس +answer : 164 + +context : الموسوعة البريطانية أو ال " بريتانيكا " هي موسوعة عامة باللغة الإنجليزية تصدرها شركة الموسوعة البريطانية ، المحدودة الخاصة . المقالات في الموسوعة تستهدف القراء المتعلمين والمثقفين ويكتبها 100 موظف بدوام كامل ، وأكثر من 4400 مساهم مختص . [1] وتعد من أشهر وأدق الموسوعات وأشدها سعة واطلاعا . [2] تعد الموسوعة من أقدم الموسوعات المطبوعة باللغة الإنجليزية والتي ما تزال تصدر . [3] صدرت لأول مرة بين عامي 1768 م و 1771 م في مدينة إدنبرة الاسكتلندية ، ونمت بسرعة بالحجم والشعبية . ففي عام 1801 م حوت الطبعة الثالثة على 20 مجلدا [4] وهذا البروز السريع جذب إليها كتاب مرموقين في اختصاصاتهم . وتعتبر الطبعتان التاسعة ( 1875 – 1889 ) والحادية عشر ( 1911 ) معالم مهمة في تاريخ الموسوعة لأسلوبهما الجديد في العرض المعرفي والأدبي . ففي الطبعة الحادية عشر ، قصرت المقالات وبسطت محتواها لتجذب قراء شمال أميركا وبالتالي توسيع سوق انتشارها . وفي عام ( 1933 ) ، أصبحت أول موسوعة تطبق أسلوب التحديث المستديم والذي يتطلب إعادة طباعتها بشكل منقح ودائم وتقوم بتحديث مقالاتها دوريا بحسب برنامج محدد . +question : ما هي موسوعة بريتانيكا ؟ +prompt : أجب عن السؤال التالي : ما هي موسوعة بريتانيكا ؟ الجواب هو +pred_answer : أنها عبارة عن مجموعة من الكتب التي ألفها عدد من +answer : موسوعة عامة باللغة الإنجليزية تصدرها شركة الموسوعة البريطانية المحدودة الخاصة + +context : تاريخ مرض الإيدز كان أول تسجيل لظهور مرض الإيدز في الخامس من يونيو في عام 1981 عندما اكتشفت - في الولايات المتحدة الأمريكية - وكالة مراكز مكافحة الأمراض والوقاية منها ( CDC ) عددا من حالات الإصابة الالتهاب الرئوي بالمتكيسة الجؤجؤية ( والذي لا يزال يصنف كالتهاب متكيسة رئوي ، ولكن من المعروف أن المسبب له هو الالتهاب الرئوي بالمتكيسة الجؤجؤية ) وذلك في خمسة رجال من المثليين جنسيا في لوس أنجلوسفي ولاية كاليفورنيا . [1] في البداية ، لم يكن لدى الوكالة اسم رسمي لهذا المرض ، وعادة ما كانت تشير إليه من خلال الأمراض المرتبطة به . فعلى سبيل المثال كانت تستخدم اسم : اعتلال العقد الليمفاوية ؛ وهو المرض الذي اشتق منه مكتشفو فيروس HIV اسما للفيروس . وقد استخدمت الوكالة أيضا اسم " سرطان كابوزي والعدوى الانتهازية " وهو الاسم التي أطلقته عليه الوحدة المؤقتة التي تم تشكيلها للتعامل مع المرض الجديد في عام 1981 . [2] وفي المواد الصحفية ، تم استخدام المصطلح GRID – الذي هو اختصار [[Gay - related immune deficiency ( مرض نقص المناعة المرتبط بالمثليين جنسيا ) | Gay - related Immune Deficiency]] – والذي يعني مرض نقص المناعة المرتبط بالمثليين جنسيا . [3] وفي سعي تلك الوكالة لتحديد اسم للمرض ومع دراستها للفئات والمجتمعات التي تنتشر فيها الإصابة بالمرض ، وجدت أن كل هذه الفئات يبدأ اسمها بحرف H – وهم Haitians ( سكان هايتي ) وHomosexuals ( المثليين جنسيا ) وHemophiliacs ( الأشخاص الذين يعانون من الهيموفيليا ) وHeroin users ( مدمنو الهيروين ) ، ولذلك أطلقوا عليه " مرض الفور إتش " ( 4H Disease ) . [4] ولكن ، بعد أن تم اكتشاف أن مرض الإيدز ليس مقتصرا على مجتمع المثليين جنسيا فقط ، [2] ، وتم استخدام مصطلح AIDS ( الإيدز ) في أحد اجتماعات الوكالة في يوليه من عام 1982 . [5] وبحلول سبتمبر من عام 1982 ، بدأت هذه الوكالة في استخدام اسم الإيدز وربما تكون قد بدأت في وضع تعريف للمرض الجديد . [6] +question : متى تم اكتشاف فيروس الايدز ؟ +prompt : أجب عن السؤال التالي : متى تم اكتشاف فيروس الايدز ؟ الجواب هو في عام +pred_answer : 1981 +answer : 1981 + +context : تقع أطلال هذه المدينة التاريخية في بلاد ( آضاغ ) وكانت قبل أن زالت إحدى ممالك صنهاجة الصحراء ( الملثمين ) المستقلة في قلب الصحراء جنوب بلاد ( هكار ) بالجزائر وشمال بلاد السودان الغربي وغربي ( آير ) وشرقي موريتانيا . وتعد اليوم ضمن البلديات التابعة لولاية كيدال أقصى شمال جمهورية مالي على بعد ستين كلم الشمال الغربي مشارف الحدود مع الجزائر ، بفرع تيبينن في وادي إبدقن الذي يخترق جبال آضاغ من الشرق إلى الغرب وعلى رأس منبطح تمسنا إلى قيعان تلمسي غربا محدودة شرقا بدائرة ( أبيبرا ) وببلدية ( أنفيف ) ودائرة ( تسليت ) جهة الغرب . +question : أين تقع مدينة السوق أو تادمكة ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة السوق أو تادمكة ؟ الجواب هو +pred_answer : في الجنوب الغربي من المغرب ، +answer : أقصى شمال جمهورية مالي + +context : الماعز واحد المعز ، [1] أحد أنواع جنس الوعل ، وهو من الحيوانات القوية التي يمكنها تحمل العيش في بيئات مختلفة ، فهي تعيش في اعالي الجبال وفي السهول وحتى يمكنها في الواحات والصحاري . جسم الماعز رشيق وقوي ومغطى بالشعر وذلك مكنها من إيجاد طعامها بسهولة على الأرض وحتى في تسلقها الشجيرات لأكل الأوراق والبراعم . ويسمى ذكر الماعز " التيس " والأنثى " معزة " وصغيرهما يعرف بالجدي . ومن أشهر أنواع الماعز : +question : ماذا تسمى أنثى الماعز ؟ +prompt : أجب عن السؤال التالي : ماذا تسمى أنثى الماعز ؟ الجواب هو +pred_answer : أنثى +answer : معزة + +context : علي سالم ( ولد 1936 - 22 سبتمبر 2015 ) كاتب ومسرحي مصري . تشمل أعماله 15 كتابا و 27 مسرحية أغلبيتها روايات ومسرحيات كوميدية وهجائية ، كما نشر تعليقات وآراء سياسية خاصة بشأن السياسة المصرية والعلاقات بين العالم العربي وإسرائيل . +question : من هو كاتب مسرحية مدرسة المشاغبين ؟ +prompt : أجب عن السؤال التالي : من هو كاتب مسرحية مدرسة المشاغبين ؟ الجواب هو +pred_answer : أحمد زكي +answer : علي سالم + +context : التجويد أو علم التجويد في الإسلام علم تعرف به كيفية النطق بالكلمات القرآنية كما نطقها النبي محمد بن عبد الله . ويؤخذ مشافهة عن شيخ أو أستاذ عنده إجازة بتعليم التجويد . بداية علم التجويد كانت عند اتساع رقعة الدولة الإسلامية في القرن الثالث للهجرة ، حيث كثر الخطأ واللحن في القرآن بسبب دخول كثير من غير العرب في الإسلام . فما كان من علماء القرآن إلا أن بدؤوا في تدوين أحكام التجويد وقواعده . ويقال أن أول من جمع علم التجويد في كتاب هو الإمام أبو عبيد القاسم بن سلام في القرن الثالث الهجري في كتابه المسمى بكتاب القراءات . [1] +question : ما هو التجويد ؟ +prompt : أجب عن السؤال التالي : ما هو التجويد ؟ الجواب هو +pred_answer : أن يكون الإنسان حافظا متقنا لما يقرأ من كتاب الله عز وجل ، +answer : علم تعرف به كيفية النطق بالكلمات القرآنية كما نطقها النبي محمد بن عبد الله + +context : Julius - Maximilians - Universit t W rzburg جامعة فورتسبورغ ، جامعة في مدينة فورتسبورغ الألمانية تأسست عام 1402 . [1][2][3] +question : في أي عام تأسست جامعة فورتسبورغ الألمانية ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست جامعة فورتسبورغ الألمانية ؟ الجواب هو في عام +pred_answer : 1889 . +answer : 1402 + +context : الطب الوقائي هو فرع من الطب يعنى بدراسة وإيجاد وتطبيق سبل الوقاية من الأمراض . +question : ما هو الطب الوقائي ؟ +prompt : أجب عن السؤال التالي : ما هو الطب الوقائي ؟ الجواب هو +pred_answer : أن الصحة هي حالة من اكتمال السلامة جسديا وعقليا واجتماعيا +answer : فرع من الطب يعنى بدراسة وإيجاد وتطبيق سبل الوقاية من الأمراض + +context : علم الكون الفيزيائي هو أحد فروع علم الفيزياء الفلكية والذي يختص بدراسة البنية الواسعة النطاق للفضاء الكوني ، يهتم علم الكون الفيزيائي بالإجابة عن الأسئلة الأساسية حول بنية الكون ونشأته وتشكله وتطوره ومحاولة التنبؤ بطريقة نهايته ، كما يتناول علم الكون الفيزيائي دراسة حركات الأجسام النجمية والمسبب الأول first cause . هذه الأسئلة والمجالات كانت لفترة طويلة من اختصاص الفلسفة وتحديدا علم ما وراء الطبيعة أو الميتافيزيقيا ، لكن منذ ظهور تصور كوبرنيكوس ، أصبح العلم التجريبي هو الذي يسهل فهم حركة النجوم والكواكب ومداراتها وليس التفكير الفلسفي . +question : بماذا يختص علم الكون الفيزيائي ؟ +prompt : أجب عن السؤال التالي : بماذا يختص علم الكون الفيزيائي ؟ الجواب هو +pred_answer : : يختص بعلم الكون الفيزيائي كل ما يتعلق +answer : دراسة البنية الواسعة النطاق للفضاء الكوني + +context : إربد مدينة أردنية ، ومركز محافظة إربد في شمال الأردن وأكبر مدنها . تقع على بعد 71 كيلومترا شمال العاصمة عمان ، كما تبعد حوالي 20 كم إلى الجنوب من الحدود السورية الأردنية . وتعد ثالث أكبر مدن المملكة بعد العاصمة الأردنية والزرقاء بالنسبة لعدد السكان ، حيث يبلغ عدد سكان المدينة وضواحيها أكثر 530 ألف نسمة حسب تعداد السكان لسنة 2017 , وتقدر مساحة المدينة مع ضواحيها بحوالي 30 كيلو متر مربع . تقع المدينة في موقع متوسط بالنسبة لباقي مناطق المحافظة ؛ إذ تقع على دائرة عرض 32 شمالا وخط طول 35 شرقا . تتميز الطبيعة الجغرافية للمدينة بالطبيعة السهلية ، وإن كانت المناطق الغربية منها ذات طبيعة أقرب للطبيعة الجبلية [1] . +question : أين تقع مدينة إربد ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة إربد ؟ الجواب هو +pred_answer : في شمال الأردن +answer : شمال الأردن + +context : خالد عاطف عبد الغفار وزير التعليم العالي والبحث العلمي ، خلفا لسابقه أشرف الشيحي . [1][2] كان يرأس قسم طب الفم وعلاج اللثة والتشخيص والأشعة بكلية طب الأسنان جامعة عين شمس في الفترة من عام 2009 وحتى نوفمبر 2015 . [3] وتولى منصب عميد طب أسنان عين شمس عام 2014 ، حيث ساهم في إدخال أحدث الأجهزة في علاج الأسنان بمستشفيات الجامعة . [4] وعين نائبا لرئيس الجامعة لشئون الدراسات العليا والبحوث وحصل على جائزة الدولة التشجيعية في العلوم الطبية ونشر 20 بحثا في دوريات ومجلات عالمية . [5] +question : من هو وزير التعليم العالي في مصر ؟ +prompt : أجب عن السؤال التالي : من هو وزير التعليم العالي في مصر ؟ الجواب هو +pred_answer : د . هاني هلال +answer : خالد عاطف عبد الغفار + +context : الموناليزا ( باللغة الفرنسية : Mona Lisa ، وباللغة الإيطالية : Monna Lisa ) أو الجيوكاندا ( باللغة الفرنسية : La Joconde ، نقحرة : لا جوكوند ، وباللغة الإيطالية : La Gioconda ، نقحرة : لا جوكوندا ) ، هي لوحة فنية نصفية تعود للقرن السادس عشر لسيدة يعتقد بأنها ليزا جوكوندو ، بريشة الفنان ، والمهندس ، والمهندس المعماري ، والنحات الإيطالي ليوناردو دا فينشي ، [1] حيث رسمها خلال عصر النهضة الإيطالية . استخدم دا فينشي في إنهائها طلاء زيتيا ولوحا خشبيا من الحور الأسود . تعد هذه اللوحة ملكا للحكومة الفرنسية حيث تعلق هناك على جدار متحف اللوفر خلف لوح زجاجي مقاوم للرصاص وفي بيئة يتم التحكم بمناخها . لقد وصفت هذه اللوحة بأنها " أكثر الأعمال الفنية شهرة في تاريخ الفن ، وأكثر عمل فني يتم الكتابة عنه ، والتغني به ، وزيارته من بينهم " ، كما وصفت أيضا بأنها " أكثر الأعمال الفنية التي تمت محاكاتها بشكل ساخر في العالم " . [2] +question : من رسم لوحة الجوكندا ؟ +prompt : أجب عن السؤال التالي : من رسم لوحة الجوكندا ؟ الجواب هو +pred_answer : ليوناردو دافنشي . +answer : ليوناردو دا فينشي + +context : تم اكتشافه في صحراء بنى مزار من قبل فلاحين في أحد الكهوف ، وذلك عام 1972 فقاموا ببيعه لأحد تجار الآثار الذي هربها خارج البلاد ، وهو الإنجيل الذي عرف بأنه ضمن مجموعة وثائق نجع حمادى . و < b data - parsoid = ' { " dsr " : [207 , 224 , 3 , 3] } ' > إنجيل يهوذا يوضح أبعادا مختلفة لعلاقة هذا التلميذ بالسيد المسيح ، عما هو وارد في أناجيل متى ومرقس ولوقا ويوحنا ، حيث لا يصور المخطوط يهوذا بانة خان السيد المسيح ، وسلمه للرومان نظير 30 قطعة من الفضة ، +question : بكم باع يهوذا الإسخريوطي السيد المسيح ؟ +prompt : أجب عن السؤال التالي : بكم باع يهوذا الإسخريوطي السيد المسيح ؟ الجواب هو +pred_answer : : بثلاثين من +answer : نة خان السيد الم + +context : انشأت في الثاني من يوليو سنة 1793 برعاية الملك فرديريك الأول من قبل : +question : في أي عام أنشئت الأكاديمية الملكية السويدية للعلوم ؟ +prompt : أجب عن السؤال التالي : في أي عام أنشئت الأكاديمية الملكية السويدية للعلوم ؟ الجواب هو في عام +pred_answer : 1901 م ، حيث +answer : الثاني من يوليو سنة 1793 + +context : جامعة هامبورغ ( بالألمانية : Universit t Hamburg ) هي جامعة ألمانية في مدينة هامبورغ ، أسسها عالم النفس فيلهلم شتيرن ( 1871 1938 ) وآخرون في 28 مارس 1919[1] . ورغم قصر تاريخ الجامعة فقد انتمى إليها ستة من الفائزين بجائزة نوبل وعدد كبير من العلماء البارزين . +question : في أي عام تأسست جامعة هامبورغ في ألمانيا ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست جامعة هامبورغ في ألمانيا ؟ الجواب هو في عام +pred_answer : 1866 . +answer : 28 مارس 1919 + +context : الحزب الحر الدستوري التونسي هو أول حزب وطني يتأسس بالبلاد التونسية وكان ذلك في شهر مارس 1920 ، وقد أصبح يعرف بعد سنة 1934 بالحزب الدستوري القديم مقابل الحزب الحر الدستوري الجديد الذي أسسه الحبيب بورقيبة وعدد من زملائه في 2 مارس من تلك السنة . +question : متى تأسس الحزب الدستوري الحر التونسي القديم ؟ +prompt : أجب عن السؤال التالي : متى تأسس الحزب الدستوري الحر التونسي القديم ؟ الجواب هو في عام +pred_answer : 1934 ، +answer : مارس 1920 + +context : هي أفيونيات شبه طبيعية إما أن تكون دواء أوليا للمورفين أو تكون شديدة الشبه بالمورفين حيث إنها ليست شبه مصنعة ، ولكنها توجد بشكل أكثر طبيعية في الطبيعة نظرا لأنها من أملاح المورفين . ومن بين أمثلة هذا النوع من الأدوية ثنائي أستيل المورفين ( هو دواء أولي للمورفين ، ومعروف باسم ثنائي أسيتات المورفين أو الهيروين ) ، والمستقلب أحادي أستيل المورفين - 6 ( 6 - MAM ) ( دواء أولي للمورفين ) ، والنيكومورفين ( ثنائي نيكوتينيل المورفين ) ، وثنائي بروبانول المورفين ( ثنائي بروبيونات المورفين ) ، والديزومورفين ( ثنائي هيدروديزوكسي المورفين ) ، والميثيل ديسورفين ، وأستيل بروبيونيل المورفين ، وثنائي بنزويل المورفين ، وثنائي أستيل ثنائي هيدرو مورفين ، والعديد من الأنواع الأخرى . [7] +question : ما هي إسترات المورفين ؟ +prompt : أجب عن السؤال التالي : ما هي إسترات المورفين ؟ الجواب هو +pred_answer : أن المورفين عبارة عن مركب كيميائي له الصيغة الكيميائية C2H5NO3 ، وهو من المركبات الأفيونية القوية التي لها تأثير قوي على الجهاز العصبي المركزي والجهاز التنفسي .المورفين مادة +answer : أفيونيات شبه طبيعية إما أن تكون دواء أوليا للمورفين أو تكون شديدة الشبه بالمورفين حيث إنها ليست شبه مصنعة ولكنها توجد بشكل أكثر طبيعية في الطبيعة نظرا لأنها من أملاح المورفين + +context : أحدب نوتردام : رواية رومنسية فرنسية من تأليف فيكتور هوغو تتناول أحداث روايته التاريخية كاتدرائية نوتردام باريس " Notre - Dame de Paris " والتي تدور فيها الأجزاء الأكثر أهمية من الرواية . [1][2][3] الشاعر الفرنسي الكبيرألفونس دي لامارتين ( 1790 - 1869 ) وصف فيكتور هوغو بعد ظهور الرواية ب " شكسبير الرواية " . اتخذ فيكتور هيغو دائما موقفا ضد الظلم وغياب العدل وأنصت لصوت الضعفاء والمحرومين ، وهو كمبدع أصيل لم يعيش حياته بجبن ، مطمئن على نفسه بالصمت ، ومن أجمل شخصياته الروائية ( شخصية الأحدب ) وظاهريا وقع الأحدب في حب شابة جميلة محاولا التضحية بحياته عده مرات من أجلها ، وبدا أنه حب رجل لامرأة وارتفع الكاتب بمستواه بالقدرة على التصوير ، لكن الواقع أن الأحدب بعاهته والنكران والقمع الذين عانى منهما ، وقع في حب دفء الجمال الإنسانى المحروم منه ( والموجود أيضا بأعماقه الداخلية ) جمال ظهر أمامه في صورة امرأة ، عطفت عليه ولم تسخر من عاهته أو تشويه جسده ، وليس مجرد حب رجل لامرأة . كان هدف تضحياته من أجلها إبقاء هذا الجمال الإنسانى في الحياة فلا يحرم الوجود منه ، لقد أدرك بعظمه ( وهو الأحدب ) أن فناء جسده القبيح يعنى استمرارية أعماقه الإنسانية الجميلة بالبقاء ، لقد ظل أحدب نوتردام قابعا خلف جدران الكاتدرائية ، منعزلا عن العالم ، عاجزا عن أى اتصال خارجي ، كرمز لعاهة تبعده عن العالم ، وكاتهام لمجتمع يعزل العاهة ويخفيها ويحتقر الضعيف وينهش المحرومين ، ومايتحكم في كل ذلك هو منظومة المجال الحاكمة ، لقد تحول الأحدب إلى كيان منعدم وعاجز عن الفعل حتى تأتى الشرارة التي أنارت مابداخله المتمثلة في الجمال الإنسانى ( المرأة ) فيحدث التغير ويمتلك القدرة على تغير مجرى الأحداث ، ويصبح مصير القوة في يد المتحكم فيهم ، ويتفوق أحدب نوتردام على الجميع بأن يصبح أفضل منهم . +question : من هو كاتب رواية أحدب نوتردام ؟ +prompt : أجب عن السؤال التالي : من هو كاتب رواية أحدب نوتردام ؟ الجواب هو +pred_answer : الكاتب الفرنسي فيكتور +answer : فيكتور هوغو + +context : فولكس واغن ( فولكس فاجن ، تنطق بالألمانية : [f lks . va n] ) شركة صناعية ألمانية كبرى ، أسسها حزب العمال الألماني عام 1937 ، ومقرها فولفسبورغ ، سكسونيا السفلى ، في ألمانيا ، وتتبع لمجموعة شركات فولكس فاجن . تنتج الشركة سيارات فولكس واغن إحدى السيارات الأكثر مبيعا حيث وتمثل الآن ثاني أكبر منتج للسيارات في العالم ، بعد تويوتا . [1] +question : متى تم تأسيس شركة فولكسفاغن ؟ +prompt : أجب عن السؤال التالي : متى تم تأسيس شركة فولكسفاغن ؟ الجواب هو في عام +pred_answer : 1886 +answer : 1937 + +context : سورة النحل سورة مكية عدد آياتها 128 ، سميت بهذا الاسم نسبة إلى الآيات 68 و 69 التي تشير لأحد نعم الله وعجائب صنعه حسب اعتقاد المسلمين ، حيث ذكر العسل الذي تقوم بإفرازه وهو من نعمه الله وفوائد هذا العسل على الإنسان من حيث العلاج والفوائد الغذائية . محور السورة وهدفها يدور حول نعم الله التي لا تعد ولاتحصى . وقد قسمت النعم إلى ظاهرة وباطنة ، والقصد بالنعم الظاهرة هي النعم التي يراها الإنسان ويحس بها ، كالحيوان[1] والنبات والماء[2] والنجوم والشمس والقمر[3] والنعم غير الظاهرة أو الباطنة كالقوانين الفيزيائية في الكون أو المخلوقات التي لا نراها أو المخلوقات التي تساهم في تسيير هذا الكون وكذلك نعمة الوحي والتي تبث الروح في القلوب وتحييها . ويحذر الله في هذه السورة من سوء استغلال هذه النعم في المعاصي ، وأن على الإنسان الشكر والحمد لله على هذه النعم التي لا نعد ولاتحصى . +question : ما هو عدد أيات سورة النحل ؟ +prompt : أجب عن السؤال التالي : ما هو عدد أيات سورة النحل ؟ الجواب هو +pred_answer : قوله تعالى +answer : 128 + +context : أو العذراء أو الخادرة الحشرة في طور يعقب اليرقة و هذا الطور يخص الحشرات ذات التطور الكامل و هو المدرج الثالث في مدراج نشوء الحشرة ، ويتقدم طور اليافعة أو الحشرة البالغة . وتكون الحشرة في طور العذراء في همود غالبا ، وإن كان بعضها يتحرك ، وبعضها يظل ساكنا . فعذراء البعوض متحركة وعذراء الذبابة غير متحركة وعذراء الفراشة ضعيفة الحركة . +question : ما هي الشرنقة ؟ +prompt : أجب عن السؤال التالي : ما هي الشرنقة ؟ الجواب هو +pred_answer : أن هناك نوعين من +answer : طور يعقب اليرقة + +context : الخوارزميون ، الخوارزمشاهات ، أو شاهات خوارزم ( بالفارسية : خوارزمشاه ان ) ، هي سلالة تركية مسلمة سنية حكمت أجزاء كبيرة من آسيا الوسطى وغرب إيران بين سنوات ( 1077 - 1220 ) . كانوا اتباع إقطاعيين للسلاجقة ثم استقلوا وأصبحوا حكاما مستقلين في القرن 11 . +question : من هم الخوارزميون ؟ +prompt : أجب عن السؤال التالي : من هم الخوارزميون ؟ الجواب هو +pred_answer : أبو عبد الله محمد بن موسى الخوارزمي ، الذي ولد في خوارزم سنة 780 � +answer : سلالة تركية مسلمة سنية حكمت أجزاء كبيرة من آسيا الوسطى وغرب إيران بين سنوات 1077 1220 + +context : الانتداب الفرنسي على سورية أو الاستعمار الفرنسي ، ، هو الحالة التي شكلت النظام الأعلى للسياسة والمجتمع في سورية منذ أن هزمت قوات المملكة السورية العربية الضعيفة التسليح والعدد في معركة ميسلون في 24 تموز عام 1920 ، وحتى تمام جلاء القوات الفرنسية عن كامل التراب السوري يوم 17 نيسان عام 1946 ، والذي غدا اليوم الوطني السوري ، وقد أقرت عصبة الأمم الانتداب رسميا عام 1922 . +question : متى دخل الإستعمار الفرنسي إلى سوريا ؟ +prompt : أجب عن السؤال التالي : متى دخل الإستعمار الفرنسي إلى سوريا ؟ الجواب هو في عام +pred_answer : 1920 م +answer : 24 تموز عام 1920 + +context : مملكة تدمر ( من 260 - 273 ) وتقع عاصمتها في مدينة تدمر في وسط الجمهورية العربية السورية وقد كانت من أهم الممالك السورية القديمة التي ازدهرت بشكل خاص عهد ملكتها زنوبيا تبعد 215 كيلو متر شمال مدينة دمشق 70 كيلو متر عن مدينة السخنة وحوالي 160 كيلو متر عن مدينة حمص ونهر العاصي ، وكانت حضارتها تنافس حضارة الإمبراطورية الرومانية القديمة . [1] +question : اين تقع مدينة تدمر ؟ +prompt : أجب عن السؤال التالي : اين تقع مدينة تدمر ؟ الجواب هو +pred_answer : في وسط البادية السورية +answer : الجمهورية العربية السورية + +context : عبد الفتاح سعيد حسين خليل السيسي ( 19 نوفمبر 1954 ) ، هو الرئيس السادس والحالي لجمهورية مصر العربية ، [1] والقائد الأعلى للقوات المسلحة المصرية ، تم انتخابه سنة 2014 لمدة 4 سنوات بعد نجاحه في الانتخابات الرئاسية 2014 ، [2] ذلك بعد إطاحته بالرئيس محمد مرسي في 3 يوليو 2013 ( أول رئيس مدني منتخب بعد ثورة 25 يناير ) بعد سنة من توليه مقاليد الحكم عقب مظاهرات طالبت برحيله ، وأعلن عن إجراءات صاحبت ذلك عرفت بخارطة الطريق ، [3][4] عارضها مؤيدو الرئيس محمد مرسي وقتها واعتبروها - ومعهم جزء من المجتمع الدولي والعربي - انقلابا عسكريا[5][6][7] بينما أيدها المتظاهرون والمعارضون للرئيس محمد مرسي وقتها واعتبروها ثورة وتأييدا لمطالب شعبية . [8][9][10][11][12] +question : متى تولى عبد الفتاح السيسي الرئاسة ؟ +prompt : أجب عن السؤال التالي : متى تولى عبد الفتاح السيسي الرئاسة ؟ الجواب هو في عام +pred_answer : 2014 ، +answer : 2014 + +context : تصلب الشرايين ( بالإنجليزية : Arteriosclerosis ) هو زيادة سمك وصلابة جدران الشرايين مع فقدان مرونتها . [1] تعوق تلك العملية بالتدريج سريان الدم للأعضاء والأنسجة وقد تؤدي إلى مخاطر صحية كبيرة بواسطة التصلب العصيدي ، وهو أحد نواع التصلب الشرياني ينتج عن تكون رواسب دهنية ، ورواسب من الكولستيرول وبعض المواد الأخرى في جدار الشريان . [2] +question : ماهو تصلب الشرايين ؟ +prompt : أجب عن السؤال التالي : ماهو تصلب الشرايين ؟ الجواب هو +pred_answer : أن هناك نوعين رئيسيين من تصلب الشرايين وهما : 1 - تصلب +answer : زيادة سمك وصلابة جدران الشرايين مع فقدان مرونتها + +context : أسد الكهوف هي الأسود التي عاشت في العصر الجليدي في المناطق الشمالية من آسيا ، ومعظم أجزاء أوروبا وكان حجمها أكبر من حجم الأسد المعروف وقد عثر على بعض عظام هذا الأسد داخل كهوف في أوروبا . +question : ما هو أسد الكهوف الأوروبي ؟ +prompt : أجب عن السؤال التالي : ما هو أسد الكهوف الأوروبي ؟ الجواب هو +pred_answer : أن هذا النوع من الأسود يعيش في أوروبا وآسيا وأفريقيا ، وقد تم العثور عليه لأول مرة في جنوب أفريقيا عام 1880 م ، ثم انتشر بعد ذلك في جميع أنحاء العالم . +answer : الأسود التي عاشت في العصر الجليدي في المناطق الشمالية من آسيا ومعظم أجزاء أوروبا وكان حجمها أكبر من حجم الأسد المعروف وقد عثر على بعض عظام هذا الأسد داخل كهوف في أوروبا + +context : موريس بوكاي ( 19 يوليو 1920 - 17 فبراير 1998 ) ، كان طبيبا فرنسيا ونشأ على المسيحية الكاثوليكية ، وكان الطبيب الشخصي للملك فيصل آل سعود ومع عمله في المملكة العربية السعودية وبعد دراسة للكتب المقدسة عند اليهود والمسلمين ومقارنة قصة فرعون ، أسلم وألف كتاب التوراة والأناجيل والقران الكريم بمقياس العلم الحديث [1] الذي ترجم لسبع عشرة لغة منها العربية . [2][3][4] +question : من هو موريس بوكاي ؟ +prompt : أجب عن السؤال التالي : من هو موريس بوكاي ؟ الجواب هو +pred_answer : أنه عالم فرنسي في علم الوراثة اكتشف أن الكروموسومات ( الصبغيات ) +answer : طبيبا فرنسيا ونشأ على المسيحية الكاثوليكية وكان الطبيب الشخصي للملك فيصل آل سعود + +context : Coordinates : جمهورية أبي رقراق أو جمهورية سلا أو جمهورية قراصنة بورقراق ، هي جمهورية بحرية ظهرت في منطقة مصب نهر أبي رقراق ، بين سنتي 1627 و 1668 . كانت الجمهورية عبارة عن تنظيم سياسي بلوتوقراطي أوليغاركي ، قوامه قراصنة بحريون ، تمركزوا في مدينتي سلا والرباط . تشكلت الجمهورية ، في البداية من مسلمي منطقة أورناتشوس المطرودين من الأندلس ، قبل أن يلتحق بهم موريسكيون آخرون ، واعتمدت على القرصنة البحرية كأساس لاقتصادها . امتد مجال عملياتها البحرية إلى السواحل والأساطيل الملاحية الإيبيرية ، قبل أن يتسع ليشمل مصالح دول أوروبية أخرى ، ووصل مداها إلى غاية كورنوال وأيسلندا . [1] +question : ما هي جمهورية بورقراق ؟ +prompt : أجب عن السؤال التالي : ما هي جمهورية بورقراق ؟ الجواب هو +pred_answer : أن مدينة الرباط عاصمة المملكة المغربية تقع على الضفة اليسرى لنهر أبي رقراق ، وهو أحد روافد +answer : جمهورية بحرية ظهرت في منطقة مصب نهر أبي رقراق بين سنتي 1627 و 1668 + +context : قس بن ساعدة الإيادي . من حكماء العرب قبل الإسلام . توفي حوالي عام 600 م الموافق 23 قبل الهجرة . +question : من هو قس بن ساعدة الإيادي ؟ +prompt : أجب عن السؤال التالي : من هو قس بن ساعدة الإيادي ؟ الجواب هو +pred_answer : : عبد الله بن حذافة بن قيس بن +answer : من حكماء العرب قبل الإسلام توفي حوالي عام 600 + +context : رفائيلو سانزيو ( أوربينو ، 6 أبريل 1483 - روما ، 1520 ) ، هو رسام إيطالي من عصر النهضة . تتلمذ على يد بيترو بيروجينو ، وأقام عدة ورشات في بيروجيا ، فلورنسا وروما ، ثم تولى منصب رئيس المهندسين والمشرف على المباني لدى بلاط الباباوات ، يوليوس الثاني ثم ليون العاشر من بعده . +question : من هو رفائيلو سانزيو ؟ +prompt : أجب عن السؤال التالي : من هو رفائيلو سانزيو ؟ الجواب هو +pred_answer : لاعب كرة قدم أرجنتيني ، +answer : رسام إيطالي من عصر النهضة + +context : جورج السادس ( George VI ) ( سندرينغهم 14 ديسمبر 1895 - 6 فبراير 1952 ) . ملك بريطانيا العظمى وإيرلندا بالفترة بين 11 ديسمبر 1936 - 6 فبراير 1952 ، وآخر أباطرة الهند من 1936 - 1947 . كان الابن الثاني لوالده الملك جورج الخامس كان لقبه الرسمي قبل التتويج هو الأمير ألبرت دوق يورك . +question : من هو ملك انجلترا اثناء الحرب العالمية الثانية ؟ +prompt : أجب عن السؤال التالي : من هو ملك انجلترا اثناء الحرب العالمية الثانية ؟ الجواب هو +pred_answer : موسولين� +answer : جورج السادس + +context : مملكة كوش اطلق اسم كوش من قديم الزمان على المنطقة جنوب الشلال الأول والواوات على شماله في بلاد النوبة العليا والسفلى حيث قامت حضارة وادي النيل النوبية الكوشية وكانت لها ثلاث عواصم كل واحده منها امتداد للاخرى ؛ و هي كرمة و نبتة و مروي . إن أقدم ذكر لاسم كوش ورد في لوح الملك سنوسرت الأول ( 1971 - 1928 ق . م ) و هو ثاني ملوك الفراعنه من الاسره الثانيه عشر ؛ هذا اللوح المعروف بلوح فلورنسا 2450 و فيه يصور الفرعون سنوسرت الأول وهو يقدم عشرة من الأسرى المقيدين و كل أسير يمثل مدينة أو منطقة من مناطق بلاد النوبة إلى الاله مونتو و يخاطبه قائلا : ( لقد أحضرت إليك كل البلاد التي في " تا خنتي " ( ارض خنتي ) و أضعها تحت رجليك أيها الإله الطيب ) ، ثم تأتي أسماء المناطق التي ينتمي اليها الاسرى من النوبة العليا ( السودان حاليا ) ، و هي في الاصل عشره ولكن اثنتين منهم زالت معالمها وكان على رأسها اسم كاش ( كوش ) [3] +question : ما هي عاصمة مملكة الكوش ؟ +prompt : أجب عن السؤال التالي : ما هي عاصمة مملكة الكوش ؟ الجواب هو +pred_answer : مدينة مروي القديمة التي تقع في +answer : كرمة و نبتة و مروي + +context : بدر شاكر السياب ولد في محافظة البصرة في جنوب العراق ( 25 ديسمبر 1926 - 24 ديسمبر 1964 ) ، شاعر عراقي يعد واحدا من الشعراء المشهورين في الوطن العربي في القرن العشرين ، كما يعتبر أحد مؤسسي الشعر الحر في الأدب العربي . +question : أين ولد بدر شاكر السياب ؟ +prompt : أجب عن السؤال التالي : أين ولد بدر شاكر السياب ؟ الجواب هو +pred_answer : في قرية جيكور +answer : البصرة في جنوب العراق + +context : قلعة المرقب حصن منيع يقع على بعد 5 كم شرق مدينة بانياس علي الساحل السوري وهي تابعة لمنطقة بانياس في محافظة طرطوس في سوريا . بنيت في عام 1062 م فوق قمة تلة على ارتفاع 370 م فوق سطح البحر . تشرف من الشرق على جبال اللاذقية ومن الغرب على مدينة بانياس والبحر الأبيض المتوسط وتحيط بها الجبال والغابات الرائعة ويحيط بها خندق ضخم مخلهل يمر عبر درج قائم فوق جسر إلى المدخل الرئيسي للقلعة . ذكرت القلعة في مراجع كثيرة ووصفها أبوالمحاسن في كتابة النجوم الزاهرة بأنها قلعة حصينة ومنيعة وكبيرة جدا . +question : متى بنيت قلعة المرقب في سوريا ؟ +prompt : أجب عن السؤال التالي : متى بنيت قلعة المرقب في سوريا ؟ الجواب هو في عام +pred_answer : 1711 +answer : 1062 + +context : المركز الأوروبي لأبحاث وتكنولوجيا الفضاء ( ايستيك ) هو إحدى الوكالات الفرعية التابعة لوكالة الفضاء الأوروبية الرئيسية وهو المسؤول عن تصميم البرامج الفضائية وتطوير التكنولوجيا المتعلقة بالبعثات الفضائية ومركز لاختبار المركبات الفضائية وتكنولوجيا الفضاء . وهو يقع في نوردويك ، في غرب هولندا . يضم الايستك ، حوالى 2500 مهندس وفني وعالم تتضافر جهودهم على تصميم البعثات ، والمركبات الفضائية وتكنولوجيا الفضاء . كما يوفر الايستك مرافق اختبار واسعة النطاق للتحقق من التشغيل السليم للمركبات الفضائية ، مثل نموذج محاكاة الفضاء ( LLS ) ، و أجهزة اختبار صوتية وكهرومغناطيسية وطاولات اهتزاز متعددة المحاور ، يتم اختبار اي شيء قبل إطلاقه من قبل وكالة الفضاء الأوروبية ESA داخل الايستيك . كما تحوي على قسم خاص للزوار يستطيعون مشاهدة معرض دائم حول استكشاف الفضاء . +question : أين يقع المركز الأوروبي لأبحاث وتكنولوجيا الفضاء ؟ +prompt : أجب عن السؤال التالي : أين يقع المركز الأوروبي لأبحاث وتكنولوجيا الفضاء ؟ الجواب هو +pred_answer : في مدينة تولوز الفرنسية . +answer : نوردويك في غرب هولندا + +context : حسب التقليد الكاثوليكي والمذهب الكاثوليكي فقد تأسست الكنيسة الكاثوليكية من قبل يسوع المسيح في القرن الأول في يهودا ضمن الإمبراطورية الرومانية . ويسجل العهد الجديد أن يسوع بدأ بالتعليم وعين الرسل وعلمهم لمواصلة عمله . [2][3] +question : متى بنيت الكنيسة الكاثوليكية بروما ؟ +prompt : أجب عن السؤال التالي : متى بنيت الكنيسة الكاثوليكية بروما ؟ الجواب هو +pred_answer : في القرن الرابع +answer : القرن الأول + +context : بحر العرب ( بالهندية : ) هو جزء من المحيط الهندي ، يقع بين سواحل شبه الجزيرة العربية وشبه القارة الهندية . [1][2][3] تحده من الشمال إيران وباكستان ، ومن الشرق شبه القارة الهندية ، ومن الغرب شبة الجزيرة العربية والقرن الأفريقي . +question : أين يقع بحر العرب ؟ +prompt : أجب عن السؤال التالي : أين يقع بحر العرب ؟ الجواب هو +pred_answer : في الجزء الجنوبي الغربي من شبه الجزيرة العربية +answer : بين سواحل شبه الجزيرة العربية وشبه القارة الهندية + +context : سقوط بغداد أو حصار بغداد أو الغزو المغولي لبغداد أو الاجتياح المغولي لبغداد هو الاصطلاح الذي يشير إلى دخول المغول بقيادة هولاكو خان حاكم إلخانية فارس مدينة بغداد حاضرة الدولة العباسية وعاصمة الخلافة الإسلامية يوم 9 صفر 656 ه الموافق فيه 10 شباط ( فبراير ) 1258 م ، بتكليف من الخاقان الأكبر مونكو خان الذي طلب من أخيه هولاكو استكمال فتوحات المغول في جنوب غرب آسيا التي كان قد بدأها جدهما جنكيز خان ، [ 1] وهو ما قام به هولاكو حيث تمكن جيشه من اقتحام بغداد بعد أن حاصرها 12 يوما ، فدمرها وأباد معظم سكانها . +question : متى اجتاح المغول بغداد ؟ +prompt : أجب عن السؤال التالي : متى اجتاح المغول بغداد ؟ الجواب هو في عام +pred_answer : 656 ه 1258 م ، أي بعد مرور +answer : 9 صفر 656 ه الموافق فيه 10 شباط فبراير 1258 + +context : ألكسندر غراهام بيل ( 3 مارس 1847 - 2 أغسطس 1922 ) ، عالم مشهور ومهندس ومخترع ومبتكر سكوتلاندي المولد ، [معلومة 1] ينسب إليه تسجيل أول براءة هاتف فعال[1] وإنشاء شركة التيليفون والتلغراف الأمريكية . +question : من هو مخترع الهاتف ؟ +prompt : أجب عن السؤال التالي : من هو مخترع الهاتف ؟ الجواب هو +pred_answer : الكسندر غراهام بيل . +answer : ألكسندر غراهام بيل + +context : حكم الأرجنتين مارتين رودريجز في فترة 1820 و 1824 ، وحقق وزيره بردناردينو ريبادابيا إصلاحات تاريخية كعمل أول قانون انتخابي في 1821 حيث طبق فقط في بوينس آيرس . وقع أيضا على قرض من بارنج برزرز ( الإخوة بارنج ) بغرض تعزيز خزينة الدولة ، واستولى على أراضي المؤسسات الدينية ، من بينهم سانتواريو دي لوخان ، وإرمانداد دي كاريداد ، ومشفى سانتا كاتالينا وآخرين . [29] مما أدى إلى اندلاع ثورة الرسل في 9 مارس 1823 للدفاع عن الأراضي التي تملكها الكنيسة الكاثوليكية في الأرجنتين وضد مذهب معاداة الكاثوليكية الذي تبناه ريبادابيا ، وتزعمها جريجوريو جارثيا دي تاجلي . ولكن فشلت بعد صراع طويل . +question : متى حكم مارتين رودريجز الأرجنتين ؟ +prompt : أجب عن السؤال التالي : متى حكم مارتين رودريجز الأرجنتين ؟ الجواب هو في عام +pred_answer : 1899 +answer : 1820 + +context : يوصف العمى العقلي على أنه اضطراب إدراكي يحدث عندما يكون الفرد غير قادر على إرجاع الحالات العقلية إلى الذات والآخر . وكنتيجة لهذا الاضطراب ، لا يعي الفرد حالات الآخرين العقلية . ولا يستطيع الفرد إسناد المعتقدات والرغبات للآخرين . [1] وتعرف القدرة على تطوير الوعي العقلي لما هو موجود في عقل الفرد باسم " نظرية العقل " ( ToM ) . وتسمح هذه النظرية للشخص أن يعزي سلوكنا وأفعالنا إلى حالات عقلية مختلفة مثل العواطف والنوايا . ويرتبط العمى العقلي بمرضى التوحد ومتلازمة أسبرجر الذين يميلون لإظهار عجز في الرؤية الاجتماعية . [2] بالإضافة إلى التوحد ، ومتلازمة أسبرجر ، وانفصام الشخصية ، امتد بحث نظرية العقل والعمى العقلي مؤخرا ليشمل بعض الاضطرابات الأخرى مثل الخرف ، والاضطرابات الثنائية القطبية ، واضطرابات الشخصية المعادية للمجتمع فضلا عن الشيخوخة الطبيعية . [3] +question : ما هو العمى العقلي ؟ +prompt : أجب عن السؤال التالي : ما هو العمى العقلي ؟ الجواب هو +pred_answer : أن الشخص المصاب بالعمى العقلي يكون غير قادر على التمييز بين الواقع والخيال ، ولا يستطيع +answer : اضطراب إدراكي يحدث عندما يكون الفرد غير قادر على إرجاع الحالات العقلية إلى الذات والآخر + +context : تأهل منتخب أيسلندا إلى كأس العالم للمرة الأولى في تاريخه ، في نهاية الجولة الأولى من التصفيات الأوربية المؤهلة لمونديال روسيا 2018 ، متصدرا المجموعة الأوربية التاسعة بعد فوزه على كوسوفو بهدفين دون رد ، في المباراة التي جمعتهما يوم الإثنين 9 أكتوبر 2017 ليصبح بذلك أصغر الدول سكانا التي تتأهل إلى المونديال . [4][5] إلا أنه خسر في المجموعة التي تأهل فيها كرواتيا والأرجنتين . +question : متى شاركت آيسلندا في كأس العالم لكرة القدم لأول مرة ؟ +prompt : أجب عن السؤال التالي : متى شاركت آيسلندا في كأس العالم لكرة القدم لأول مرة ؟ الجواب هو في عام +pred_answer : 1994 ، +answer : 2018 + +context : أبو عبد الله جعفر بن محمد الصادق ، ( ولد يوم 17 ربيع الأول 80 ه في المدينة المنورة وتوفي فيها في مساء 25 شوال من سنة 148 ه ) ، إمام من أئمة المسلمين وعالم جليل وعابد فاضل من ذرية الحسين بن علي بن أبي طالب وله مكانة جليلة عظيمة لدى جميع المسلمين . +question : متى توفي الامام جعفر الصادق ؟ +prompt : أجب عن السؤال التالي : متى توفي الامام جعفر الصادق ؟ الجواب هو +pred_answer : : في سنة 148 للهجرة . +answer : 25 شوال من سنة 148 ه + +context : الولايات الكونفدرالية الأمريكية ( اختصارا CSA أو . C . S ) وتعرف أيضا باسم الكونفدرالية ، حكومة قامت في 8 فبراير 1861 ، من قبل ستة من سبع ولايات الرقيق الجنوبية التي كانت قد أعلنت انفصالها عن الولايات المتحدة . ذهبت الكونفدرالية على الاعتراف كما في باقي الدول الأعضاء الدول الإحدى عشرة التي كانت قد أعلنت رسميا الانفصال ، وانضمت اثنتين من ولايات أخرى مع الإعلان والذي كان مشكوك فيها ، وايضا اعلنوا أرض جديدة واحدة . جادل الانفصاليين في أن دستور الولايات المتحدة هو المدمجة التي يمكن أن تتخلى كل دولة دون التشاور ؛ رفضت الولايات المتحدة ( الاتحاد ) طرق تلك لانفصال وقالت بأنها غير قانونية . بدأت بعدها الحرب الأهلية الأمريكية مع الهجوم الكونفدرالية 1861 على فورت سمتر ، حصن الاتحاد ضمن الأراضي التي تطالب بها وكالة الفضاء الكندية . بحلول عام 1865 ، بعد قتال عنيف جدا ، إلى حد كبير على التربة الكونفدرالية ، هزم القوات CSA وانهارت الكونفدرالية . لا توجد دولة أجنبية اعترفت بالولايات الكونفدرالية رسميا كدولة مستقلة ، على الرغم من منحها الصفة العسكرية من قبل فرنسا وبريطانيا العظمى . +question : متى انفصلت الولايات الكونفدرالية الأمريكية عن الولايات المتحدة ؟ +prompt : أجب عن السؤال التالي : متى انفصلت الولايات الكونفدرالية الأمريكية عن الولايات المتحدة ؟ الجواب هو في عام +pred_answer : 1861 � +answer : 8 فبراير 1861 + +context : ولد محمود أحمدي نجاد في قرية آرادان بالقرب من غرمسار ، هو الطفل الرابع من بين سبعة أطفال لوالد يعمل حدادا وبقالا وحلاقا ومعلم للقرآن . [25] وقد غير الأب اسمه في سن الرابعة من " سابورجان " ، عندما انتقلت العائلة إلى طهران . [26] +question : أين ولد محمود أحمدي نجاد ؟ +prompt : أجب عن السؤال التالي : أين ولد محمود أحمدي نجاد ؟ الجواب هو +pred_answer : أنه ولد في مدينة +answer : قرية آرادان + +context : كانت طريق التوابل تبدأ من الهند ، وكان التجار يتداولون بها إلى أن تصل إلى الموانئ والمرافئ البحرية أو عبر الطرق البرية . كان التجار العرب معروفين بهذه التجارة وازدهرت عدة مدن عربية عبر هذه الطريق التجارية . +question : من أين يبدأ طريق التوابل ؟ +prompt : أجب عن السؤال التالي : من أين يبدأ طريق التوابل ؟ الجواب هو +pred_answer : الفلفل الحار +answer : الهند + +context : حسين رؤوف أورباي كان بحار ورجل دولة تركي ، كان أول رئيس وزراء للجمهورية التركية في 11 أغسطس 1922 ، بعد الاطاحة بنظام الدولة العثمانية . +question : من هو حسين رؤوف أورباي ؟ +prompt : أجب عن السؤال التالي : من هو حسين رؤوف أورباي ؟ الجواب هو +pred_answer : : حسين رؤوف اورباي ، ولد في بغداد سنة +answer : بحار ورجل دولة تركي كان أول رئيس وزراء للجمهورية التركية + +context : الدار البيضاء أكبر مدينة في المغرب . الرباط عاصمة المغرب القصر الملكي في فاس ثاني أكبر مدينة في المغرب وواحدة من " المدن الإمبراطورية في المغرب " سلا خامس أكبر مدينة في البلاد . مسجد الكتبية في مراكش منذ القرن الثاني عشر خليج طنجة باب المنصور لعلج و ساحة " الهديم " في مدينة مكناس وجدة خليج أكادير تطوان خليج آسفي تمارة مدينة جنوب العاصمة الرباط +question : ما هي ثاني اكبر مدينة في المغرب ؟ +prompt : أجب عن السؤال التالي : ما هي ثاني اكبر مدينة في المغرب ؟ الجواب هو +pred_answer : الدار البيضاء +answer : فاس + +context : الحفرة الحرقفية هي سطح كبير ناعم مقعر يقع في السطح الداخلي من عظم الحرقفة ، الذي هو أحد عظام ثلاثة ملتحمة مع بعضها البعض لتكون عظم الورك . يحدد العرف الحرقفي الحفرة من الأعلى و يحدها الخط المقوس للعظم الحرقفي من الأسفل . +question : أين تقع الحفرة الحرقفية ؟ +prompt : أجب عن السؤال التالي : أين تقع الحفرة الحرقفية ؟ الجواب هو +pred_answer : في الجزء الخلفي من العمود الفقري ، وتحديدا في المنطقة الواقعة بين الفقرات القطنية والفقرات العجزية .هذه المنطقة هي الأكثر عرضة للإصابة بالح +answer : سطح كبير ناعم مقعر يقع في السطح الداخلي من عظم الحرقفة الذي هو أحد عظام ثلاثة ملتحمة مع بعضها البعض لتكون عظم الورك + +context : الفلبين دولة رئاسية وحدوية ( باستثناء منطقة مندناو ذاتية الحكم إلى حد كبير عن الحكومة الوطنية ) ، حيث يشغل الرئيس منصب رئيس الدولة ورئيس الحكومة والقائد العام للقوات المسلحة . يتم انتخاب الرئيس بالاقتراع الشعبي لولاية واحدة مدتها ست سنوات ، وهي الفترة التي يعين ويترأس فيها مجلس الوزراء . [41] +question : ما نوع نظام الحكم في الفلبين ؟ +prompt : أجب عن السؤال التالي : ما نوع نظام الحكم في الفلبين ؟ الجواب هو +pred_answer : النظام البرلماني ، +answer : رئاسية + +context : إبيقور هو فيلسوف يوناني قديم عاش في الفترة بين عامي ( 341 - 270 ق . م ) ، أسس لمدرسة فلسفية سميت باسمه هي المدرسة ( الإبيقورية ) . +question : متى ولد الفيلسوف اليوناني إبيقور ؟ +prompt : أجب عن السؤال التالي : متى ولد الفيلسوف اليوناني إبيقور ؟ الجواب هو +pred_answer : أنه ولد في +answer : 270 ق + +context : الهيب هوب أو هي هو هو أحد أنواع الموسيقى والثقافة في الولايات المتحدة الأمريكية . يعتبر حركة ثقافية للسود أو الأمريكيين الأفارقة . نشأ الهيب هوب منذ عام 1970 كرد فعل لما تعرضوا له من عنصرية وكنوع من التعبير عن النفس ضد المشاكل المجتمعية مثل الفقر والبطالة والعنصرية والظلم ليصبح ثقافة وفنا مستقلا فيما بعد . +question : أين تأسس فن الرقص الهيب هوب ؟ +prompt : أجب عن السؤال التالي : أين تأسس فن الرقص الهيب هوب ؟ الجواب هو +pred_answer : في الولايات المتحدة +answer : الولايات المتحدة الأمريكية + +context : المانوية - أو المنانية كما ذكر ابن النديم في الفهرست - ديانة تنسب إلى ماني المولود في عام 216 م في بابل ، والذي ظهر في زمان شابور بن أردشير وقتله بهرام بن هرمز بن شابور . وزعم أن الوحي أتاه وهو في الثانية عشر من عمره وكان في الأصل مجوسيا عارفا بمذاهب القوم وكان يقول بنبوة المسيح ولا يقول بنبوة موسى فنحى منحى بين المجوسية والمسيحية . +question : ما هي الديانة المانوية ؟ +prompt : أجب عن السؤال التالي : ما هي الديانة المانوية ؟ الجواب هو +pred_answer : أنها ديانة فارسية قديمة ، ظهرت في القرن الثالث قبل الميلاد على يد ماني ( 276 - 276 ق . م ) الذي عاش في مدينة نيسابور +answer : ديانة تنسب إلى ماني المولود في عام 216 م في بابل والذي ظهر في زمان شابور بن أردشير وقتله بهرام بن هرمز بن شابور + +context : ساحل أمالفي هو ساحل على امتداد الساحل الجنوبي لخليج ساليرنو عند البحر التيراني ، ويقع ساحل أمالفي في مقاطعة ساليرنو في جنوب إيطاليا +question : أين يقع ساحل أمالفي ؟ +prompt : أجب عن السؤال التالي : أين يقع ساحل أمالفي ؟ الجواب هو +pred_answer : في شمال غرب إيطاليا ، +answer : مقاطعة ساليرنو + +context : الصهيونية الاشتراكية أو الصهيونية العمالية[1] ( بالعبرية : ، وتكتب بالأحرف اللاتينية : tziyonut sotzyalistit ) هي الجناح الأيسر للحركة الصهيونية ، وكانت الصهيونية العمالية هي النزعة الأكثر أهمية في الصهيونية والمنظمات الصهيونية لسنوات عديدة . فقد اعتبرت نفسها القطاع الصهيوني للحركات العمالية اليهودية التاريخية في أوروبا الشرقية والوسطى ، واستمرت الصهيونية العمالية بالنمو حتى ظهر لها في نهاية المطاف وحدات محلية في معظم الدول التي يشكل فيها اليهود نسبة لا بأس بها من سكانها . لم يؤمن الصهاينة العماليون بأن الدولة اليهودية ستنشأ ببساطة من خلال مناشدة المجتمع الدولي أو دولة قوية مثل بريطانيا أو ألمانيا أو الدولة العثمانية وذلك على عكس التيار " الصهيوني السياسي " الذي أسسه تيودور هرتزل Theodor Herzl والذي أيده حاييم وايزمان Chaim Weizmann . بدلا من ذلك ، اعتقد الصهاينة العماليون أن الدولة اليهودية لا يمكن أن تنشأ إلا من خلال جهود الطبقة العاملة اليهودية التي تستقر في فلسطين وبناء دولة من خلال إنشاء مجتمع يهودي تقدمي مع الكوبيوتزات ( المزارع الجماعية اليهودية kibbutzim ) والمجتمعات التعاونية بين المزارعين أو ما يعرف ب ( Moshavim ) والطبقة العمالية اليهودية الحضرية ( بروليتاريا Proletariat ) . +question : ما هي الصهيونية الاشتراكية ؟ +prompt : أجب عن السؤال التالي : ما هي الصهيونية الاشتراكية ؟ الجواب هو +pred_answer : أنها حركة سياسية اشتراكية +answer : الجناح الأيسر للحركة الصهيونية + +context : تضاعف سكان الأرجنتين خلال القرن الماضي عدة مرات وهذا ناتج كثرة الهجرة إليها . وحسب إحصائيات العام 2001 فقد بلغ عدد السكان 36 , 260 , 130 مليون نسمة ، وترتفع نسبة ذوي الأصول الأوروبية بين السكان حيث يشكلون الأغلبية بما يصل إلى 90 % من السكان ، فمنهم ذوي الأصول الإيطالية الذين يشكلون 60 من السكان ، والذين يقدر عددهم بنحو 25 مليون نسمة ، [105] و 15 % من ذوي الأصول الإسبانية ثم جنسيات أوروبية أخرى ، ويعيش حوالي 70 % في المدن ، ويعيش حوالي 75 % من السكان في أقليم اليميا الغني . وهناك أقليات من جماعات المسنيزو والهنود الأمريكيين . كما أنها موطن لمجموعة كبيرة من أصول عربية خاصة من سوريا ولبنان وفلسطين والتي لها حضور بارز . ولعل أبرزها الرئيس السابق كارلوس منعم ابن مغتربين سوريين . +question : ماهو تعداد سكان الارجنتين ؟ +prompt : أجب عن السؤال التالي : ماهو تعداد سكان الارجنتين ؟ الجواب هو +pred_answer : ان عدد السكان +answer : 36 260 130 + +context : فصوص المخ ( بالانجليزية : lobes of the brain ) المخ البشري ليس فقط واحد من أهم أجهزة جسم الإنسان لكنه أيضا الأكثر تعقيدا ، والقشرة المخية هي الجزء الذي يعطي الإنسان صفاته البشرية ويميزه بالعقل والشخصية واللغة والوعي ، فضلا عن التفكير والتخيل والحركة . تعد هي أكثر جزء سطحي في الدماغ ويمكن تقسيمها لستة فصوص كل له موقعه ووظيفته . يعرف كل عثرة على سطح الدماغ باسم التلفيف ، في حين أن كل أخدود يعرف بالتلم . [1] كانت فصوص الدماغ تصنف تصنيفا تشريحيا بحتا ، ولكن ثبت اتصالها بوظائف المخ المختلفة . ينقسم الدماغ الانتهائي ( المخ ) ، وهو الجزء الأكبر من الدماغ البشري ، إلى نصفين ، وكذلك المخيخ . ولكن بشكل عام ، تشير عبارة " فصوص المخ " إلى الدماغ الانتهائي . على الرغم من أن هناك وظائف محددة لكل جزء من المخ ، تتطلب معظم الأنشطة تنسيقا بين أجزاء عديدة من نصفي الدماغ . +question : كم عدد فصوص الدماغ ؟ +prompt : أجب عن السؤال التالي : كم عدد فصوص الدماغ ؟ الجواب هو +pred_answer : مئة الف +answer : ستة + +context : في 7 يوليو 1905 ، كان الاتحاد من جانب واحد حل البرلمان النرويجي عقب اعتماد تشريع إنشاء دائرة قنصلية نرويجية منفصل ، الذي كان اعترض الملك أوسكار الثاني . بعد مفاوضات في كارلستاد ، وحل سلمي للإتحاد اعترف رسميا بالسويد في 26 أكتوبر 1905 . وانتخب ملك النرويج كارل أمير الدانمارك ابن فريدريك الثامن ملك الدنمارك في 18 تشرين الثاني نوفمبر — أول ملك للبلاد منذ خمسة قرون – تحت اسم هاكون السابع . وصل هاكون في كريستيانيا في 23 تشرين الثاني نوفمبر . قد امتلك النرويج قانونا وضع دولة مستقلة منذ عام 1814 ، إلا أنها ترى 7 يوليو 1905 أن يكون يوم الاستقلال . +question : في أي عام تم حل الاتحاد بين السويد والنرويج ؟ +prompt : أجب عن السؤال التالي : في أي عام تم حل الاتحاد بين السويد والنرويج ؟ الجواب هو في عام +pred_answer : 1909 . +answer : 7 يوليو 1905 + +context : تهاجر طيور اللقالق في كل من شهري اغسطس وسبتمبر وذلك من أماكن تكاثرها في أوروبا متجة مباشرة إلى الجنوب وافرقيا . [40] وتقضي شتائها في أفرقيا مرورا من كنيا و اوغاندا حتي السفانا اللتى تصل حتي جنوب أفريقيا . [50] حيث تتجمع في هذه المناطق علي شكل أسراب مكونه من آلاف الطيور . [20] وبعض منهم يستطيع أن يصل إلى غرب السودان و نيجيريا و تشاد ذاهبا بإتجاه الغرب مباشرة . [51] وعند حلول الربيع تعود مرة أخري إلى سكناتها في الشمال وقد سجلت عودتهم مره ثانية في شهري فبراير وإبريل إلى كل من مصر والسودان . [52] وبعد رحلة تستمر حوالي 49 يوم تعود مره ثانية إلى أوروبا في نهاية شهرى مارس وإبريل . [40] أما عند مقارنة رحلة الخريف بالربيع نجد أن رحلة الخريف تستمر 26 يوما . وذلك ناتج عن قلة الطعام اللتى تتناولة وسرعة الرياح اللتى تأتى من خلفها فيزيد من معدل سرعة تحليقها خاصا في الأماكن اللتى لاتتمكن فيها من الحصول على فريسة لها . [53] كما أن اللقالق عند هجرتها من أوروبا تتخذ طريقين آخرين غير طريق البحر الأبيض وذلك لتجنب المرور من على البحر مسافة كبيرة ولذلك إما أن تتخذ الطريق مباشرا من على نهر النيل مرورا بالصحراء الكبرى على ليفانت ومرورا بمضيق البسفور في تركيا او تسلك طريق الهجرة الغربي مرورا بمضيق جبل طارق . [54] حيث ان مسارات الهجرة تلك تجعلها تستخدم طاقة أقل بسبب وجود التيار الهوائي . [55][56] إلا أن طريق الهجرة الشرقى أهم بكثير من طريق الهجرة الغربي حيث يستخدمه 530 الف من طيور اللقلق سنويا ، وتعتبر اللقالق ثانى أكثر الأنواع بعد الصقور كمستخدمى لهذا الطريق . حيث يستطيع كل من أسراب البجع الأبيض واللقالق والطيور الجارحة الأخري اللتى تهاجر أن تصل إلى ارتفاع 200 كم . [57] وعلى الرغم من أن مسار الهجرة الشرقى ضعف مسافة الطريق الغربى إلا أن اللقالق تستطيع أن تصل في نفس الفترة في كلا الإتجاهين شتاء . [58] تبدء اللقالق الصغيرة في الخروج إلى طريق الهجرة وذلك لأول مرة عن طريق الطيران بالوراثة متجهه مباشرة إلى الشمال إلا أنها لن تستطيع تلافي التغيرات بسبب الأحوال الجوية مما يضطرها إلى الرجوع لثكناتها مرة ثانيه . على عكس الطيور البالغة اللتى تستطيع ان تحمي نفسها من طيار الرياح القوي وتتمكن من الوصول إلى ثكناتها الطبيعة . ولنفس الأسباب تهاجر جميع الطيور في فصل الربيع ثم بعد ذلك تعود إلى ثكناتها في نفس الوقت . [59] حيث لوحظ بأن صغار اللقالق اللتى تربت تحت الأسر في كالينينغراد تمكنت من الطيران من خلال فطرة الطيران الطبيعية الموجوده بها واللتى تنتج من التجارب بدون مساعدة من الطيور الكبيرة اللتى في البريه واللتى تستطيع ان توضح لها الطريق وتوفر لها الطعام . [60] +question : اين تهاجر طيور اللقلق شتاء ؟ +prompt : أجب عن السؤال التالي : اين تهاجر طيور اللقلق شتاء ؟ الجواب هو +pred_answer : انها تهاجر الى +answer : إلى الجنوب وافرقيا + +context : مسيحيون مار توما هم مجتمع وعرقية دينية مسيحية قديمة تقطن في ولاية كيرالا في الهند . يعود أصولها إلى البعثات التبشيرية التي قام بها توما . وبالتالي تعتبر من أقدم المجتمعات المسيحية في العالم . [1][2] يعتبر مسيحيون مار توما من أتباع عائلة الكنائس ذات التراث السرياني . وترتبط هذه الجماعة تقليديا ببعض التراث اليهودي المسيحي الذي يعود إلى المسيحية المبكرة . +question : من هم مسيحيو مار توما ؟ +prompt : أجب عن السؤال التالي : من هم مسيحيو مار توما ؟ الجواب هو +pred_answer : : كنيسة مار توما هي كنيسة سريانية أرثوذكسية مشرقية ، +answer : مجتمع وعرقية دينية مسيحية قديمة تقطن في ولاية كيرالا في الهند + +context : - كان هنري وادسورث لونج فيلو ( 1807 - 1882 ) هو أول مترجم أمريكي ترجمها إلى الإنجليزية واستكمل عمله في عام 1867 . +question : من هو أول مترجم ترجم الكوميديا الإلهية إلى الإنجليزية ؟ +prompt : أجب عن السؤال التالي : من هو أول مترجم ترجم الكوميديا الإلهية إلى الإنجليزية ؟ الجواب هو +pred_answer : وليم شكسبير ( 1564 1616 ) . +answer : هنري وادسورث لونج فيلو + +context : الهالوجينات هي عناصر أو مواد تشكل الملح باتحادها المباشر مع معدن . [1][2][3] الهالوجينات هي : الفلور ، الكلور ، البروم ، اليود ، الاستاتين . +question : ما هي الهالوجينات ؟ +prompt : أجب عن السؤال التالي : ما هي الهالوجينات ؟ الجواب هو +pred_answer : غاز عديم اللون والرائحة ، له رائحة تشبه رائحة الكلور +answer : عناصر أو مواد تشكل الملح باتحادها المباشر مع معدن + +context : أثرت الفلسفة الفارسية والأدب والطب والفلك والرياضيات والفن في الحضارة الإسلامية . وأصل الهوية الإيرانية على الرغم من الحكم الأجنبي في القرون التي تلت ذلك . [13] واعتمدت الثقافة الفارسية أيضا من قبل الغزنويين ، [14] السلاجقة ، [15][16][17] والتيمورية[18] قبل انبثاق حكم السلالة الصفوية عام 1501 ، [19] والتي جعلت المذهب الشيعي الجعفري[20] المذهب الرسمي لإمبراطوريتهم لتضع بذلك نقطة تحول مهمة في التاريخ الإيراني والإسلامي . [21] في إطار الثورة الدستورية الفارسية ، أنشئ أول برلمان في عام 1906 ، كجزء من النظام الملكي الدستوري . وبعد الانقلاب عام 1953 ( الذي جرى بتحريض من بريطانيا والولايات المتحدة ) ، أصبحت إيران تدريجيا بلدا أكثر استبدادية . بلغت المعارضة المتنامية للنفوذ الأجنبي ذروتها خلال الثورة الإسلامية التي أدت إلى إنشاء جمهورية إسلامية في 1 نيسان أبريل 1979 . [22][23] +question : متى تحول نظام الحكم في ايران الى جمهوري اسلامي ؟ +prompt : أجب عن السؤال التالي : متى تحول نظام الحكم في ايران الى جمهوري اسلامي ؟ الجواب هو في عام +pred_answer : 1979 م +answer : 1 نيسان أبريل 1979 + +context : أحمد السقا ( 1 مارس 1973 [1] - ) ، ممثل مصري . +question : متى ولد الممثل المصري أحمد السقا ؟ +prompt : أجب عن السؤال التالي : متى ولد الممثل المصري أحمد السقا ؟ الجواب هو في عام +pred_answer : 1979 ، أي +answer : 1 مارس 1973 + +context : سانت بطرسبرغ ( بالروسية : - ) ، والتي عرفت سابقا باسم لينينغراد ( في 1924 - 1991 ) وباسم بيتروغراد ( في 1914 - 1924 ) ، هي مدينة روسية تقع في شمال غرب روسيا في دلتا نهر نيفا ، شرق خليج فنلندا ، في بحر البلطيق . و تعتبر أحد أكبر مراكز أوروبا الثقافية . +question : أين تقع مدينة سانت بطرسبرغ ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة سانت بطرسبرغ ؟ الجواب هو +pred_answer : في شمال غرب روسيا +answer : شمال غرب روسيا + +context : يرجع تاريخ إنشاء الخطوط القطرية إلى 22 نوفمبر 1993 ، عندما أرادت الأسرة الحاكمة في قطر إنشاء شركة طيران وطنية تابعة لدولة قطر ، وكانت الرحلة الأولى للشركة في 20 يناير 1994 ، وأستخدمت الخطوط القطرية في رحلاتها الأولى طائرة مستأجرة من طراز بوينغ 737 - 200 وطائرتان من طراز إيرباص إيه 310 ، وأستخدمت هذه الطائرات أساسا لوجهات الشرق الأوسط ، ثم حصلت الشركة فيما بعد طائرتان من طرازبوينغ 727 وطائرتان من طراز بوينغ 747SP ، والتي أستخدمت في وجهات لندن ، داكار ، كولومبو وبانكوك . +question : متى أنشأت شركة القطرية للطيران ؟ +prompt : أجب عن السؤال التالي : متى أنشأت شركة القطرية للطيران ؟ الجواب هو في عام +pred_answer : 1996 ، عندما +answer : 22 نوفمبر 1993 + +context : شركة أوتوديسك هي شركة برمجيات أمريكية تعمل على إنتاج الحلول التقنية للتصميم باستخدام الحاسب ، أسسها جون ووكر عام 1982 م . [1][2][3] +question : متى تأسست شركة اوتوديسك ؟ +prompt : أجب عن السؤال التالي : متى تأسست شركة اوتوديسك ؟ الجواب هو في عام +pred_answer : 1970 . +answer : 1982 + +context : حيفا هي من أكبر وأهم مدن فلسطين التاريخية ، تقع اليوم في لواء حيفا الإسرائيلي على الساحل الشرقي للبحر المتوسط ، وتبعد عن القدس حوالي 158 كم إلى الشمال الغربي . يبلغ عدد سكانها حوالي 272 , 181 نسمة إضافة إلى 300 , 000 يعيشون في الضواحي السكنية حول المدينة ، مما يجعلها ثالث أكبر مدن البلاد حاليا بعد القدس وتل أبيب من حيث السكان ، الذين يشكل اليهود منهم الغالبية ، بينما يشكل العرب ( مسيحيون ومسلمون ) الأقلية بعد تهجير معظمهم في النكبة عام 1948 . [1][2] +question : ماهو تعداد سكان حيفا ؟ +prompt : أجب عن السؤال التالي : ماهو تعداد سكان حيفا ؟ الجواب هو +pred_answer : أن عدد السكان في +answer : 272 181 نسمة + +context : ألكالا دي إيناريس ( بالعربية : قلعة النار ) مدينة إسبانية تقع في منطقة مدريد وتعني . [1] وتعد مركزا تاريخيا فنيا في إسبانيا وواحدة من مواقع التراث العالمي في إسبانيا بدءا من عام 1998 . [2] وكانت مهدا للأديب الإسباني الشهير ميجيل دي ثيربانتس . [3] وثقافيا تنتسب إلى ، والتي تعد أيضا عاصمة لها . وتعج ألكالا بعدد سكان بلغ 924 , 203 نسمة عام 2012 ، فيما تبلغ مساحتها 87 , 72 كم وبحيث يصبح معدل الكثافة السكانية 232472 نسمة \ كم . وتقع ألكالا على بعد حوالي 30 كيلومترا شمال شرق مدريد ، [4] على نهر ايناريس وعلى على ارتفاع 588 متر فوق سطح البحر . [5] +question : أين تقع مدينة ألكالا دي إيناريس ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة ألكالا دي إيناريس ؟ الجواب هو +pred_answer : في شمال +answer : منطقة مدريد + +context : الفلوجة مدينة في العراق تقع ضمن محافظة الأنبار . [1][2][3] وتقع المدينة على بعد 60 كيلو مترا شمال غرب العاصمة بغداد ، ويسكن فيها عشائر وأفراد من قبائل عربية تدين بالإسلام . ومعنى الفلوجة في اللغة هي الأرض الصالحة للزراعة حيث تتفلج تربتها حين يمسها ماء السماء عن خيرات الأرض . يبلغ عدد سكان المدينة 275 , 128 نسمة في عام 2011 م ، حسب تقديرات وزارة التخطيط العراقية[4] ، وأما القضاء والنواحي التابعة للقضاء عام 2011 بحوالي 500 الف نسمة تقريبا[5] ، وينحدر أغلب سكان الفلوجة من عشائر الكبيرة في العراق وهي عشائر الدليم بكل فروعها ( البو علوان والمحامدة والفلاحات والحلابسة والبونمر والبوفهد ) والجميلة ، و والكبيسات ، والبوعيسى والعزة والجنابيين وزوبع وقبيلة بني تميم بفروعها ( العيايشة والبو ذهيبة والبو سهيل والبو فياض ) ، بالإضافة إلى مجموعة من العشائر الأخرى وكما يوجد بها مجموعة من الأكراد . +question : أين تقع مدينة الفلوجة ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة الفلوجة ؟ الجواب هو +pred_answer : أنها تقع +answer : العراق + +context : كردفان هي إقليم ولائي في وسط السودان . سميت كردفان بهذا الاسم هي كلمة نوباوية مشتقة من كلدوفان التي تعني أرض الرجال في لغة النوبة في 1994 تم تقسيمها إلى ثلاث ولايات فيدرالية : شمال كردفان ( North Kurdufan ) وجنوب كردفان ( South Kurdufan ) وغرب كردفان ( West Kurdufan ) . في أغسطس 2005 ، [1] تم إلغاء ولاية كردفان الغربية بين ولايتي كردفان الشمالية والجنوبية ، كجزء من تنفيذ اتفاقية السلام الشاملة بين حكومة السودان وحركة تحرير السودان ، وتم إنشاء ولاية غرب كردفان مرة أخرى في عام 2013 . +question : أين تقع ولاية كردفان ؟ +prompt : أجب عن السؤال التالي : أين تقع ولاية كردفان ؟ الجواب هو +pred_answer : في شمال +answer : وسط السودان + +context : بدأت الجزائر المعاصرة تشكل نفسها في بداية إيالة الجزائر ، أي في القرن السادس عشر . بعد الإحتلال والإستعمار الفرنسي ظهرت الحركات القومية في بداية القرن العشرين وأدت إلى اندلاع ثورة التحرير الجزائرية في عام 1954 ، وهي تمرد مسلح انتهى باستقلال البلاد في عام 1962 ، ودسترة الدولة القومية الحالية . +question : متى تأسست دولة الجزائر ؟ +prompt : أجب عن السؤال التالي : متى تأسست دولة الجزائر ؟ الجواب هو +pred_answer : في سنة 1830 +answer : القرن السادس عشر + +context : ابن إسحاق ( 85 ه 703 م المدينة - 151 ه 768 م بغداد ) مؤرخ من العصرين الأموي والعباسي ، إسمه الكامل أبو بكر محمد بن اسحاق بن يسار بن خيار المدني ، ويعتبر أول مؤرخ عربي كتب سيرة رسول الإسلام محمد بن عبد الله وأطلق تسمية " سيرة رسول الله " على كتابه . +question : من هو ابن إسحاق ؟ +prompt : أجب عن السؤال التالي : من هو ابن إسحاق ؟ الجواب هو +pred_answer : : محمد بن إسحاق بن يسار المطلبي +answer : مؤرخ من العصرين الأموي والعباسي + +context : قطر هي دولة عربية تقع في شرق شبه الجزيرة العربية في جنوب غرب آسيا مطلة على الخليج العربي وعاصمتها الدوحة . لها حدود برية مشتركة من الجنوب مع المملكة العربية السعودية وبحرية مع دولة الإمارات العربية المتحدة ، مملكة البحرين . وفي أعقاب الحكم العثماني ، أصبحت قطر محمية بريطانية في أوائل القرن العشرين حتى حصولها على الاستقلال في عام 1971 م . وقد حكمت قطر أسرة آل ثاني منذ منتصف القرن التاسع عشر بعد فترة قصيرة من قدومها من محافظة أشيقر في نجد [1] . نظام الحكم في قطر إمارة وراثية دستورية ، وحاكم الدولة هو الأمير تميم بن حمد بن خليفة آل ثاني . وافق الشعب على الدستور بأغلبية ساحقة في استفتاء دستوري ، بنسبة 98 ٪ تقريبا لصالح المشروع . وكان مجموع السكان في قطر في عام 2013 م ، 1 . 8 مليون نسمة : يبلغ عدد المواطنين القطريين الأصليين 300 ، 000 والأجانب 1 . 5 مليون . تعد دولة قطر هي المجتمع الأكثر محافظة بعد المملكة العربية السعودية في دول مجلس التعاون الخليجي . +question : متى تأسست دولة قطر ؟ +prompt : أجب عن السؤال التالي : متى تأسست دولة قطر ؟ الجواب هو في عام +pred_answer : 1878 +answer : 1971 + +context : في الاتصالات السلكية واللاسلكية ، بروتوكول الاتصالات هو نظام من القواعد لتبادل البيانات داخل أو بين أجهزة الكمبيوتر . +question : ما هو بروتوكول الاتصالات ؟ +prompt : أجب عن السؤال التالي : ما هو بروتوكول الاتصالات ؟ الجواب هو +pred_answer : أنه عبارة عن مجموعة من القواعد التي تحدد كيفية تبادل المعلومات +answer : نظام من القواعد لتبادل البيانات داخل أو بين أجهزة الكمبيوتر + +context : لم يكن أحمدي نجاد معروفا على نطاق واسع عندما دخل حملة الانتخابات الرئاسية . بالرغم من كونه عضوا في الجمعية الإسلامية للمهندسين ، ولكن الدعم السياسي الرئيسي له كان من تحالف بناة إيران الإسلامية ( ائتلاف ابداجران الإسلامي أو المطورين ) . [35] +question : إلى أي حزب كان ينتمي محمود أحمدي نجاد ؟ +prompt : أجب عن السؤال التالي : إلى أي حزب كان ينتمي محمود أحمدي نجاد ؟ الجواب هو +pred_answer : لا شيء .إنه +answer : تحالف بناة إيران الإسلامية + +context : منظمة الصحة العالمية ( يرمز لها اختصارا WHO ) هي واحدة من عدة وكالات تابعة للأمم المتحدة متخصصة في مجال الصحة . وقد أنشئت في 7 أبريل 1948 . ومقرها الحالي في جنيف ، سويسرا ، وتدير السيدة مارغريت تشان المنظمة . +question : متى تاسست منظمة الصحة العالمية ؟ +prompt : أجب عن السؤال التالي : متى تاسست منظمة الصحة العالمية ؟ الجواب هو في عام +pred_answer : 1948 � +answer : 7 أبريل 1948 + +context : وزان هي مدينة تقع في الشمال الغربي من المغرب ، في مقدمة جبال الريف جنوب واد لوكوس . وهي عاصمة إقليم وزان ( جهة طنجة تطوان ) منذ إنشائه في عام 2009 ، بعد أن كانت في السابق جزءا من إقليم سيدي قاسم ( جهة الغرب شراردة بني حسين ) . +question : اين تقع مدينة وزان ؟ +prompt : أجب عن السؤال التالي : اين تقع مدينة وزان ؟ الجواب هو +pred_answer : في الشمال الغربي من المغرب +answer : الشمال الغربي من المغرب + +context : الخرسانة أو الباطون هي مادة تتكون من الاسمنت والرمل والماء مع إضافة نوع من الركام ، مثل السن أو الزلط . تعد الخرسانة من أهم مواد البناء في العصر الحديث خصوصا مع تدعيمها بالحديد لتصبح خرسانة مسلحة . [1] +question : ما هي الخرسانة ؟ +prompt : أجب عن السؤال التالي : ما هي الخرسانة ؟ الجواب هو +pred_answer : خليط من الإسمنت والرمل والماء مع إضافة بعض المواد الأخرى مثل الجص أو الصلص +answer : مادة تتكون من الاسمنت والرمل والماء مع إضافة نوع من الركام مثل السن أو الزلط + +context : دارا الأول ، داريوس الأول ( باليونانية : ) ( بالفارسية : داريوش م ) كما يسميه الفرس بداريوش الكبير هو الملك الأخميني الثالث حكم من 521 ق . م إلى 486 ق . م صهر سميردس ، وابن ويشتاسب ، وحفيد أرساميس . +question : من هو داريوس الأول ؟ +prompt : أجب عن السؤال التالي : من هو داريوس الأول ؟ الجواب هو +pred_answer : الملك الفارسي دارا الأول . +answer : الملك الأخميني الثالث + +context : المعيار آيزو 3166 هو معيار صادر عن المنظمة الدولية للمعايير ( ISO ) يقوم بإعطاء رموز للدول المقاطعات غير المستقلة والمناطق الخاصة ذات الأهمية الجغرافية وتقسيماتها الإدارية الأساسية . الاسم الرسمي لهذا المعيار هو « الرموز التي تمثل أسماء الدول وتقسيماتها الإدارية » . +question : ما هو أيزو 3166 ؟ +prompt : أجب عن السؤال التالي : ما هو أيزو 3166 ؟ الجواب هو +pred_answer : أن هذا الرقم يرمز إلى كمية الطاقة اللازمة لرفع درجة حرارة كيلو غرام واحد من الماء درجة مئوية واحدة ، أي ما يعادل 0 +answer : معيار صادر عن المنظمة الدولية للمعايير ISO يقوم بإعطاء رموز للدول المقاطعات غير المستقلة والمناطق الخاصة ذات الأهمية الجغرافية وتقسيماتها الإدارية الأساسية + +context : ابتدأ استعمال هذه الخرسانة المسلحة في حوالي عام 1900 ، حيث استعملت في اطارات وحوائط وارضيات المبانى المختلفة ، والخرسانة المسلحة هي خرسانة عادية مضافا إليها الحديد ويسمى حديد التسليح ، تتحمل الخرسانة قوى الضغط بشكل جيد جدا لكنها ضعيفة جدا امام قوى الشد لذلك يضاف الفولاذ لقدرته على تحمل قوى الشد ونادرا ما يوضع الفولاذ للقيام بمقاومة قوى الضغط . [1] +question : متى ابتدأ استعمال الخرسانة المسلحة ؟ +prompt : أجب عن السؤال التالي : متى ابتدأ استعمال الخرسانة المسلحة ؟ الجواب هو في عام +pred_answer : 1880 +answer : 1900 + +context : نشوة القديسة تريزا تمثال للنحات الإيطالي الشهير جان لورينزو برنيني . تم نحته فيما بين عامي 1647 و 1651 بتكليف من الكاردينال كورنارو حتى يتم وضعه على قبره أينما يكون في كنيسة القديسة ماريا دي فيكتوريا في روما ، حيث يتواجد بالفعل في الوقت الحالي فيما يسمى باسم كابيلا كورنارو . [1] ويعد التمثال واحدا من روائع أعمال النحت الباروكي الروماني السامي . جان لورينزو برنيني هو واحد من أشهر فنانين عصر النهضة ، صاحب العديد من الروائع الشهيرة الموجودة في الفاتيكان . [2] ووصلت موهبة النحات إلى أوج نضجها عندما فرغ من إنجاز هذا التمثال الذي وضع فيما بعد في كنيسة كورنارو بروما و ما يزال فيها حتى اليوم . يصور التمثال قصة عشق صوفية روتها الراهبة الإسبانية الشهيرة القديسة تيريزا في كتاب سيرتها الذاتية . القديسة تيريزا عاشت في فترة شهدت أوروبا خلالها الكثير من الاضطرابات الدينية والسياسية ، وكانت حياتها مضرب المثل في الزهد والتقشف . [3] +question : من قام بنحت تمثال نشوة القديسة تريزا ؟ +prompt : أجب عن السؤال التالي : من قام بنحت تمثال نشوة القديسة تريزا ؟ الجواب هو +pred_answer : البابا يوحنا بولس الثاني . +answer : جان لورينزو برنيني + +context : الدينار العراقي هو العملة الرسمية في العراق ويصدر من قبل البنك المركزي العراقي ، وينقسم الدينار إلى 1 , 000 فلس إلا أن معدلات التضخم العالية في أواخر القرن العشرين تسببت في هجر القطع المعدنية من المسكوكات والتي كانت تسك بفئة الفلس حيث أصبحت خارج التداول حاليا . +question : ما هي العملة الرسمية في العراق ؟ +prompt : أجب عن السؤال التالي : ما هي العملة الرسمية في العراق ؟ الجواب هو +pred_answer : الدينار العراقي . +answer : الدينار العراقي + +context : Coordinates : جامعة باريس 7 ديديرو ( Universit Paris 7 - Denis Diderot ) هي إحدى الجامعات الفرنسية الرائدة التي تقع في باريس ، فرنسا . تاسست الجامعة في منتصف القرن الثاني عشر ، وحلت رسميا في عام 1970 . واعتمدت اسمها الحالي في عام 1994 . +question : متى تأسست جامعة باريس ديديرو ؟ +prompt : أجب عن السؤال التالي : متى تأسست جامعة باريس ديديرو ؟ الجواب هو +pred_answer : في عام 1832 ، +answer : منتصف القرن الثاني عشر + +context : الكونت دوكو والمعروف أيضا باسم دارث تيرانوس هو شخصية خيالية في عالم حرب النجوم ، حيث ظهر كشرير رئيسي في فيلم هجوم المستنسخين وكشرير ثانوي في فيلم انتقام السيث ، وكان شريرا أساسيا في المسلسل الكرتوني حرب النجوم : حرب المستنسخين عام 2008 . لعب الممثل كريستوفر لي دوره في الأفلام[1] بينما أدى كوري بيرتون صوته في المسلسل . +question : من هو دارث مول والكونت دوكو ؟ +prompt : أجب عن السؤال التالي : من هو دارث مول والكونت دوكو ؟ الجواب هو +pred_answer : : دارث ( Darth M +answer : شخصية خيالية في عالم حرب النجوم + +context : جامعة أم القرى ، تحتل مكة المكرمة ، بمكانتها الدينية وأهميتها التاريخية والحضارية ، موقع الصدارة بين دول العالم الإسلامي . [1][2][3] فإليها تهوي أفئدة الناس لأداء فريضة الحج ، والعمرة وزيارة مسجد الرسول صلى الله عليه وسلم ، وفيها المشاعر المقدسة وبها قبلة المسلمين - بيت الله الحرام بمكة المكرمة - حيث يتجه إليها ملايين المسلمين في صلاتهم كل يوم . وفي العصر الحديث أصبحت المملكة الدولة الإسلامية النموذج ، التي أخذت بمستجدات الحضارة الحديثة ، مع المحافظة على أصالتها وخصوصياتها ، وتميز سياستها الداخلية والخارجية المبنية على دستور الشرع القويم . وتتمتع المملكة اليوم بفضل سياستها الحكيمة بمركز ثقل عالمي ، ذي نفوذ وتأثير في مجريات السياسة والاقتصاد الدوليين . +question : في اي مدينة توجد جامعة ام القرى ؟ +prompt : أجب عن السؤال التالي : في اي مدينة توجد جامعة ام القرى ؟ الجواب هو +pred_answer : مكة المكرمة . +answer : مكة المكرمة + +context : القارة القطبية الجنوبية والمعروفة أيضا باسم أنتارتيكا ، هي قارة تقع في أقصى جنوب الكرة الأرضية " وش تدور يا المخنز ؟ " . تقع القارة المتجمدة الجنوبية ضمن المنطقة القطبية الجنوبية وتحتوي على القطب الجنوبي الجغرافي ، كما يقع معظمها ضمن الدائرة القطبية الجنوبية والمحاطة بالمحيط الجنوبي . تقدر مساحتها ب 14 , 000 , 000 كيلو مربع مما يجعلها خامس أكبر القارات . وعلى سبيل المثال ، فإن حجم أنتاركتيكا يماثل ضعفي حجم أستراليا . يغطي الثلج ما نسبته 98 % تقريبا من أنتاركتيكا بمتوسط سماكة 1 . 9 كم ويغطي جميع مناطق القارة ما عدا أقصى شمال شبه الجزيرة القطبية الجنوبية . أنتاركتيكا هي أكثر القارات برودة وجفافا ورياحا ، كما تعد أيضا أكثر القارات من ناحية متوسط الارتفاع . أنتاركتيكا هي من صحاري الأرض وبالتحديد صحراء قطبية ، ولها معدل هطول أمطار سنوي بما يقارب 200 مم فقط وذلك على امتداد الساحل ، أما في المناطق الداخلية فإن معدل هطول الأمطار يقل بشكل ملحوظ . أقل درجات الحرارة المسجلة في أنتاركتيكا هي - 89 . 2 درجة مئوية ، ولكن المتوسط في الربع الأخير ( الفترة الأكثر برودة في العام ) هو - 63 درجة مئوية . يسكن أنتاركتيكا بشكل دائم حوالي 135 شخص ، بينما يزداد هذا العدد بما بين 1000 و 5000 شخص خلال العام في محطات البحوث المتناثرة ضمن أرجاء القارة . الكائنات الأصلية التي تسكن المنطقة هي أنواع كثير من الطحالب والبكتيريا والفطريات والنباتات وبعض الحيوانات الأخرى مثل السوس وديدان أسطوانية وزعنفيات الأقدام وبطيء الخطو والبطاريق . تسمى المناطق العشبية الموجودة في القارة باسم التندرا القطبية الجنوبية . +question : أين يقع القطب الجنوبي جغرافيا ؟ +prompt : أجب عن السؤال التالي : أين يقع القطب الجنوبي جغرافيا ؟ الجواب هو +pred_answer : في القارة القطبية الجنوبية أنت +answer : القارة المتجمدة الجنوبية + +context : تاريخ مرض الإيدز كان أول تسجيل لظهور مرض الإيدز في الخامس من يونيو في عام 1981 عندما اكتشفت - في الولايات المتحدة الأمريكية - وكالة مراكز مكافحة الأمراض والوقاية منها ( CDC ) عددا من حالات الإصابة الالتهاب الرئوي بالمتكيسة الجؤجؤية ( والذي لا يزال يصنف كالتهاب متكيسة رئوي ، ولكن من المعروف أن المسبب له هو الالتهاب الرئوي بالمتكيسة الجؤجؤية ) وذلك في خمسة رجال من المثليين جنسيا في لوس أنجلوسفي ولاية كاليفورنيا . [1] في البداية ، لم يكن لدى الوكالة اسم رسمي لهذا المرض ، وعادة ما كانت تشير إليه من خلال الأمراض المرتبطة به . فعلى سبيل المثال كانت تستخدم اسم : اعتلال العقد الليمفاوية ؛ وهو المرض الذي اشتق منه مكتشفو فيروس HIV اسما للفيروس . وقد استخدمت الوكالة أيضا اسم " سرطان كابوزي والعدوى الانتهازية " وهو الاسم التي أطلقته عليه الوحدة المؤقتة التي تم تشكيلها للتعامل مع المرض الجديد في عام 1981 . [2] وفي المواد الصحفية ، تم استخدام المصطلح GRID – الذي هو اختصار [[Gay - related immune deficiency ( مرض نقص المناعة المرتبط بالمثليين جنسيا ) | Gay - related Immune Deficiency]] – والذي يعني مرض نقص المناعة المرتبط بالمثليين جنسيا . [3] وفي سعي تلك الوكالة لتحديد اسم للمرض ومع دراستها للفئات والمجتمعات التي تنتشر فيها الإصابة بالمرض ، وجدت أن كل هذه الفئات يبدأ اسمها بحرف H – وهم Haitians ( سكان هايتي ) وHomosexuals ( المثليين جنسيا ) وHemophiliacs ( الأشخاص الذين يعانون من الهيموفيليا ) وHeroin users ( مدمنو الهيروين ) ، ولذلك أطلقوا عليه " مرض الفور إتش " ( 4H Disease ) . [4] ولكن ، بعد أن تم اكتشاف أن مرض الإيدز ليس مقتصرا على مجتمع المثليين جنسيا فقط ، [2] ، وتم استخدام مصطلح AIDS ( الإيدز ) في أحد اجتماعات الوكالة في يوليه من عام 1982 . [5] وبحلول سبتمبر من عام 1982 ، بدأت هذه الوكالة في استخدام اسم الإيدز وربما تكون قد بدأت في وضع تعريف للمرض الجديد . [6] +question : متى تم تشخيص اول حالة بمرض الأيدز ؟ +prompt : أجب عن السؤال التالي : متى تم تشخيص اول حالة بمرض الأيدز ؟ الجواب هو في عام +pred_answer : 1981 م عند بداية انتشار +answer : الخامس من يونيو في عام 1981 + +context : The most common European emergency number 112 ( following Directive 2002 22 EC – Universal Service Directive ) and also standard on GSM هاتف محمولs . 112 is used in النمسا , بلجيكا , بلغاريا , كرواتيا , قبرص , التشيك , الدنمارك , إستونيا , فنلندا , فرنسا , ألمانيا , اليونان , المجر , آيسلندا , Ireland , إيطاليا , لاتفيا , ليختنشتاين , ليتوانيا , لوكسمبورغ , جمهورية مقدونيا , مالطا , الجبل الأسود , هولندا , النرويج , بولندا , البرتغال , رومانيا , صربيا , سلوفاكيا , سلوفينيا , إسبانيا , السويد , سويسرا , أوكرانيا and the المملكة المتحدة in addition to their other emergency numbers . [2][3][4][5] +question : ماهو رقم خدمة إسعاف الطوارئ في لندن ؟ +prompt : أجب عن السؤال التالي : ماهو رقم خدمة إسعاف الطوارئ في لندن ؟ الجواب هو +pred_answer : ( +answer : 112 + +context : جمعية العربية الفتاة هي جمعية سياسية قومية عربية سرية أنشأها مجموعة من الطلاب العرب في مدينة باريس عام 1911 م . ولقد أثرت هذه الجمعية على الفكر القومي العربي ومهدت للمؤتمر العربي في باريس عام 1913 . واسهمت في التمهيد للثورة العربية التي انطلقت في الحجاز عام 1916 م . +question : متى نشأت جمعية العربية الفتاة ؟ +prompt : أجب عن السؤال التالي : متى نشأت جمعية العربية الفتاة ؟ الجواب هو في عام +pred_answer : 1908 +answer : 1911 + +context : بنو أسد قبيلة خندفية مضرية عدنانية وتعد من القبائل العربية القديمة . وجاء في الموسوعة العربية : . [2] +question : من هم بنو أسد ؟ +prompt : أجب عن السؤال التالي : من هم بنو أسد ؟ الجواب هو +pred_answer : : بنو أسد بن خزيمة بن مدركة بن إلياس بن مضر بن نزار +answer : قبيلة خندفية مضرية عدنانية وتعد من القبائل العربية القديمة + +context : يثرب هو الاسم السابق للمدينة المنورة قبل الهجرة النبوية للرسول سميت يثرب بهذا الاسم نسبة إلى يثرب ابن قاينة بن مهلائيل بن إرم بن عبيل بن عوض بن إرم بن سام بن نوح . والجدير بالذكر هو كراهية إطلاق هذا الاسم عليها ، والأحرى تسميتها باسم المدينة ( دون لفظ " المنورة " ) وطيبة وبأسمائها الأخرى التي أطلقت عليها بعد الهجرة النبوية . +question : ما هو الاسم السابق للمدينة المنورة قبل الهجرة النبوية للرسول ؟ +prompt : أجب عن السؤال التالي : ما هو الاسم السابق للمدينة المنورة قبل الهجرة النبوية للرسول ؟ الجواب هو +pred_answer : ( يثرب +answer : يثرب + +context : كوينز هي أكبر الأحياء الخمسة في مدينة نيويورك ، المتاخم جغرافيا لبروكلين على الطرف الغربي للونغ آيلند . بالتزامن مع مقاطعة كوينز منذ 1899 ، يعتبر قسم كوينز ثاني أكبر الأحياء اكتظاظا بالسكان ( بعد بروكلين ) ، بعدد سكان 2 , 358 , 582 نسمة في 2017 ا يقارب 48 % منهم مواليد أجانب[1] . كذلك تعتبر مقاطعة كوينز ثاني أكثر مقاطعات ولاية نيويورك اكتظاظا بالسكان ، بعد مقاطعة بروكلين المجاورة ، والتي تتزان مع قسم بروكلين . كوينز هي رابع أكثر المقاطعات من حيث الكثافة السكانية في نيويورك ، وكذلك في الولايات المتحدة ؛ ولو كان كل قسم بمدينة نيويورك مدينة مستقلة ، فستكون كوينز رابع أكثر المدن اكتظاظا بالسكان على مستوى البلاد ، بعد لوس أنجلس ، شيكاغو ، وبروكلين . [2] تعتبر كوينز أيضا أكثر منطقة حضرية متنوعة عرقيا في العالم . [3][4] +question : أين تقع بلدة كوينز ؟ +prompt : أجب عن السؤال التالي : أين تقع بلدة كوينز ؟ الجواب هو +pred_answer : في ولاية +answer : مدينة نيويورك + +context : المضاد الحيوي أو الضاد الحيوي هو عبارة عن مادة أو مركب يقتل أو يثبط نمو الجراثيم ، [1] وتنتمي المضادات الحيوية إلى مجموعة أوسع من المركبات المضادة للأحياء الدقيقة ، وتستخدم لعلاج الأخماج التي تسببها الكائنات الحية الدقيقة ، بما في ذلك الفطريات والطفيليات . [2][3][4] +question : ما دور المضادات الحيوية ؟ +prompt : أجب عن السؤال التالي : ما دور المضادات الحيوية ؟ الجواب هو +pred_answer : أن المضادات الحيوية تلعب دورا مهما في +answer : يقتل أو يثبط نمو الجراثيم + +context : تعاقب على رئاسة مصر بعد إلغاء الملكية عدة رؤساء على فترات تخللتها فترات انتقالية قصيرة ، بدأت بالرئيس محمد نجيب ثم الرئيس جمال عبد الناصر ، وبعد وفاته تولى الرئيس أنور السادات الذي أغتيل في 6 أكتوبر 1981 ، فخلفه الرئيس حسني مبارك . وفي أعقاب ثورة 25 يناير تنحى الرئيس حسني مبارك عن الحكم وكلف المجلس الأعلى للقوات المسلحة بإدارة شئون البلاد ، إلى أن تم انتخاب الدكتور محمد مرسي رئيسا للجمهورية في يونيو 2012 ليكون بذلك أول رئيس مدني للجمهورية منذ قيامها عام 1953 ، والرئيس الخامس منذ قيامها . ثم بعد عزل محمد مرسي في 3 يوليو 2013 تم تعيين المستشار عدلي منصور رئيسا مؤقتا للبلاد . +question : من هو أول رئيس مصري بعد تأسيس الجمهورية ؟ +prompt : أجب عن السؤال التالي : من هو أول رئيس مصري بعد تأسيس الجمهورية ؟ الجواب هو +pred_answer : محمد نجيب +answer : محمد نجيب + +context : صوم شهر رمضان من كل عام هو الصوم المفروض على المسلمين ، بالإجماع ، وهو أحد أركان الإسلام الخمسة ، وأفضل أنواع الصوم ؛ للحديث القدسي بلفظ : « وما تقرب إلي عبدي بشيء أحب إلي مما فرضت عليه » ، حيث أن أداء الفرائض أحب الأعمال إلى الله . [1] وفرض في السنة الثانية من الهجرة النبوية ، قال البهوتي : « فرض في السنة الثانية من الهجرة ، إجماعا ، فصام النبي : تسع رمضانات إجماعا » . [2] والأصل في وجوب صومه قول الله تعالى : الآية ثم تعين صوم شهر رمضان بقوله تعالى : وحديث : « بني الإسلام على خمس » . وذكر منها : « صوم رمضان » . ويجب صوم شهر رمضان إما برؤية الهلال ، أو باستكمال شهر شعبان ثلاثين يوما عند تعذر رؤية هلال رمضان . ويجب على كل مسلم ، مكلف بالغ عاقل ، مطيق للصوم ، صحيح ، مقيم ، غير معذور . ولا يصح إلا من مسلم ، كما يشترط لصحته شروط منها : نقاء المرأة من الحيض والنفاس . ويختص صوم رمضان بخصوصية فضيلة الوقت من طلوع الفجر الثاني ، إلى غروب الشمس . وصوم رمضان يكفر الذنوب لمن صامه إيمانا واحتسابا . +question : متى فرض صوم رمضان علي المسلمين ؟ +prompt : أجب عن السؤال التالي : متى فرض صوم رمضان علي المسلمين ؟ الجواب هو +pred_answer : : في السنة الثانية من الهجرة +answer : السنة الثانية من الهجرة النبوية + +context : الحديث المسند هو الذي اتصل إسناده من راويه إلى منتهاه وأكثر ما يستعمل ذلك فيما جاء النبي محمد دون ما جاء عن الصحابة وغيرهم . [1] +question : ما هو الحديث المسند ؟ +prompt : أجب عن السؤال التالي : ما هو الحديث المسند ؟ الجواب هو +pred_answer : حديث رسول الله - صلى الله عليه وسلم - سواء كان متصلا أو منقطعا أو مرسلا ، وسواء كان صحيحا أو ضعيفا +answer : هو الذي اتصل إسناده من راويه إلى منتهاه وأكثر ما يستعمل ذلك فيما جاء النبي محمد دون ما جاء عن الصحابة وغيرهم + +context : حكومة الوحدة الوطنية المؤقتة ( بالبولندية : Tymczasowy Rz d Jedno ci Narodowej أو اختصارا TRJN ) كانت عبارة عن حكومة تم تكوينها بموجب مرسوم من المجلس الوطني للدولة ( Krajowa Rada Narodowa ) في الثامن والعشرين من يونيو 1945 . وقد تم إنشاء تلك الحكومة كحكومة ائتلاف بين الشيوعيين البولنديين والفصيل التابع ل ستانيسلاو ميكولاجشيك ( Stanis aw Miko ajczyk ) . وقد كان ذلك بمثابة اتفاق توصل إليه الحلفاء الغربيون مع الاتحاد السوفييتي أثناء مؤتمر يالطا . +question : في اي عام تم تكوين حكومة الوحدة الوطنية المؤقتة في بولندا ؟ +prompt : أجب عن السؤال التالي : في اي عام تم تكوين حكومة الوحدة الوطنية المؤقتة في بولندا ؟ الجواب هو في عام +pred_answer : 1990 . +answer : 1945 + +context : بوتسوانا هي واحدة من أعظم قصص نجاح التنمية في العالم . البلاد صغيرة وغير ساحلية يقطنها نحو 1 . 9 مليون شخص وكانت أحد أشد البلدان فقرا في أفريقيا مع ناتج محلي إجمالي للفرد الواحد يبلغ 70 دولارا أمريكيا عند الاستقلال عن بريطانيا عام 1966 . في العقود الأربعة التي تلت الاستقلال ، نقلت بوتسوانا نفسها إلى صفوف متوسطي الدخل لتصبح واحدة من أسرع الاقتصادات نموا في العالم حيث متوسط معدل النمو السنوي حوالي 9 % . +question : ماهو تعداد سكان جمهورية بوتسوانا ؟ +prompt : أجب عن السؤال التالي : ماهو تعداد سكان جمهورية بوتسوانا ؟ الجواب هو +pred_answer : أن عدد السكان +answer : 1 9 مليون + +context : جامعة الأناضول هي جامعة عامة في تركيا تأسست عام 1958 . +question : في أي عام تأسست جامعة الأناضول في تركيا ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست جامعة الأناضول في تركيا ؟ الجواب هو في عام +pred_answer : 1909 +answer : 1958 + +context : العقيد سير مارك سايكس البارون السادس من سيلدمير ( 16 مارس 1879 - 16 فبراير 1919 ) ، مستشار سياسي ودبلوماسي وعسكري ورحالة بريطاني . كان مختصا بشؤون الشرق الأوسط ومناطق سوريا الطبيعية خلال فترة الحرب العالمية الأولى . وقع عام 1916 على اتفاقية سايكس - بيكو عن بريطانيا مع بيكو ، عن فرنسا ، لاقتسام مناطق النفوذ في أراضي الهلال الخصيب التابعة بمعظمها آنذاك للدولة العثمانية المتهاوية . شاركت روسيا القيصرية آنذاك في التصديق على الاتفاقية راغبة باقتسام مناطق نفوذ هي الأخرى قبل أن تسقط على يد الثورة البلشفية . +question : من هو مارك سايكس ؟ +prompt : أجب عن السؤال التالي : من هو مارك سايكس ؟ الجواب هو +pred_answer : أنه كان ضابطا بريطانيا في الجيش البريطاني ، وكان +answer : مستشار سياسي ودبلوماسي وعسكري ورحالة بريطاني + +context : بلرم[1] أو باليرمو وسماها العرب بلرم مدينة إيطالية ، هي عاصمة إقليم صقلية الذاتي الحكم وكبرى مدنه ، وكذلك عاصمة مقاطعة بلرم . يبلغ عدد قاطنيها 666 , 542 ساكن ، وهو الخامس بين المدن الإيطالية بعد روما وميلانو ونابولي وتورينو ، والثلاثين على المستوى الأوروبي . وهي المركز الثقافي والتاريخي والاقتصادي - الإداري الرئيسي في صقلية . +question : ما هي عاصمة إقليم صقلية الذاتي الحكم وكبرى مدنه ؟ +prompt : أجب عن السؤال التالي : ما هي عاصمة إقليم صقلية الذاتي الحكم وكبرى مدنه ؟ الجواب هو +pred_answer : مدينة باليرمو ، +answer : باليرمو + +context : عقب الحرب استكمل مور تعليمه بالمنحة المقدمة للمشاركين في الحرب . وفي عام 1919 كان أول طالب يتعلم النحت في مدرسة ليدس للفنون ( المعروفة حاليا بكلية ليدس للفنون ) ، وأسست المدرسة استوديو للتماثيل خصيصا له . في المدرسة تعرف مور على باربرا هيبورث التي ستكون نحاتة مشهورة فيما بعد ، وتأسست بينهم صداقة ستدوم طويلا . تمكن مور من الوصول للعديد من القطع الفنية التي يملكها مايكل سادلر نائب مدير الجامعة . [7] وفي عام 1921 حاز على منحة للدراسة في الكلية الملكية للفنون في لندن . وكانت صديقته هيبورث قد دخلت الكلية نفسها قبل عام من ذلك . وفي لندن وسع مور معلوماته حول الفن البدائي والتماثيل من خلال دراسة المجموعات التي توجد في كلا من متحفي فيكتوريا والبرت والمتحف البريطاني . اتبع كلا من مور وهيبورث في تماثيلهم الأولى النمط الفيكتوري الرومانسي القياسي . وتضم أعمالهما الاشكال والمناظر الطبيعية ونماذج الحيوانات التصويرية . سئم مور من الافكار الكلاسيكية لاحقا . وتوجه إلى طريقة النحت المباشر بفضل معرفته السابقة بالبدائية وبتأثير نحاتين مثل كونستانتين برانكوشي وجيكوب إبستين وفرانك دوبسن . ففي تلك الطريقة تتحول العيوب التي في المواد والآثار التي خلفتها الادوات إلى جزء من التمثال المكتمل . عقب تلك الطريقة التي شرع في استعمالها عارض مور أساتذته الذين لم يقدروا هذا النهج المعاصر . أثناء تدريب اطلقه درونت وود طلب من مور ان يقوم باستنساخ نقش بارز من الرخام لتمثال The Virgin and The Child ( العذراء والطفل ) [8] لدومينيكو روسيللي . فكان يجب ان يصنع نموذجا من الجبس اولا ثم يصنعه بتقنية التأشير الميكانيكية ، وعوضا عن ذلك فقد قام مور بنحت المجسم مباشرة حتى انه من اجل ان يقلد الآثار التي تصنعها آلة التأشير ترك علامات على سطح المجسم . +question : أين تعلم هنري سبنسر النحت ؟ +prompt : أجب عن السؤال التالي : أين تعلم هنري سبنسر النحت ؟ الجواب هو +pred_answer : في جامعة أوكسفورد ، +answer : مدرسة ليدس للفنون + +context : للمسيحية في إيران تاريخ طويل ، ويعود إلى السنوات الأولى من تاريخ المسيحية . على الرغم من قدم تاريخها في البلاد فقد كانت دائما دين الأقلية ، إذ كانت الزرادشتية الديانة الرسمية للدولة قبل الفتح الإسلامي لفارس ، والإسلام السني في العصور الوسطى والإسلام الشيعي في العصر الحديث ، على الرغم من انه كان للمسيحيين تمثيل أكبر من ذلك بكثير في الماضي مما هو عليه اليوم . +question : متى دخلة المسيحية إلى إيران ؟ +prompt : أجب عن السؤال التالي : متى دخلة المسيحية إلى إيران ؟ الجواب هو +pred_answer : : في القرن الأول الميلادي . +answer : السنوات الأولى من تاريخ المسيحية + +context : الآراميون هم أحد الشعوب السامية موطنهم وسط وشمالي سوريا والجزء الشمالي الغربي من ( بلاد ما بين النهرين ) ; يرجع أصلهم إنهم كانوا من الشعوب المتنقلة[1] . استعمل الآراميون لغتهم الخاصة وهي اللغة الآرمية بلهجاتها المتعددة . وقد استطاعت هذه المجموعات الآرامية ما بين القرنين الثاني عشر والثامن قبل الميلاد أن تكون دويلات عديدة سيطرت على بلاد واسعة في الجزيرة الفراتية في سوريا بين دجلة والفرات ، وأن تؤسس مجموعات زراعية مستقرة . وقد أطلق اسم الآراميين على البلاد التي سكنوها ، فدعيت باسم بلاد آرام قرونا عدة قبل أن تعرف منذ العصر الهلنستي السلوقي باسم سوريا وكان ذلك في ( القرن الرابع قبل الميلاد ) . +question : أين كان الموطن الأصلي للآراميين ؟ +prompt : أجب عن السؤال التالي : أين كان الموطن الأصلي للآراميين ؟ الجواب هو +pred_answer : أن الآراميين هاجروا من الجزيرة العربية إلى بلاد ما بين +answer : وسط وشمالي سوريا والجزء الشمالي الغربي من بلاد ما بين النهرين + +context : تميزت خلافة عمر بن عبد العزيز بعدد من المميزات ، منها : العدل والمساواة ، ورد المظالم التي كان أسلافه من بني أمية قد ارتكبوها ، وعزل جميع الولاة الظالمين ومعاقبتهم ، كما أعاد العمل بالشورى ، ولذلك عده كثير من العلماء خامس الخلفاء الراشدين ، كما اهتم بالعلوم الشرعية ، وأمر بتدوين الحديث النبوي الشريف . استمرت خلافة عمر سنتين وخمسة أشهر وأربعة أيام ، حتى قتل مسموما سنة 101 ه ، فتولى يزيد بن عبد الملك الخلافة من بعده . +question : بماذا عرف عهد الخليفة العباسي عمر بن عبد العزيز ؟ +prompt : أجب عن السؤال التالي : بماذا عرف عهد الخليفة العباسي عمر بن عبد العزيز ؟ الجواب هو +pred_answer : ما يلي : +answer : العدل والمساواة + +context : بحر قزوين هو بحر مغلق يقع في غرب آسيا على مساحة تبلغ 371 , 000 كيلو متر مربع وهو أكبر بحر مغلق في العالم ، يبلغ طول بحر قزوين 1 , 200 كيلو متر بعرض يصل ل 300 كيلو متر ، ويبلغ أقصى عمق له 1023 م ، وتطل على بحر قزوين خمسة دول هي روسيا وإيران وأذربيجان وتركمانستان وكازاخستان . +question : أين يقع بحر قزوين ؟ +prompt : أجب عن السؤال التالي : أين يقع بحر قزوين ؟ الجواب هو +pred_answer : في مكان +answer : غرب آسيا + +context : في ميكانيكا الكم ، معادلة شرودنغر عبارة عن معادلة تفاضلية جزئية تصف كيفية تغير الحالة الكمية لنظام فيزيائي مع الزمن ، وقد صاغها عالم الفيزياء النمساوي إرفين شرودنغر في أواخر عام 1925 ونشرها عام [1] 1926 . تصف هذه المعادلة حالات النظم الكمومية المعتمدة على الزمن . وتحتل هذه المعادلة أهمية خاصة في ميكانيكا الكم حيث تعتبر بمثابة قانون التحريك الثاني لنيوتن الذي يعتبر أساسيا في الفيزياء الكلاسيكية . +question : ما هي معادلة شرودنغر ؟ +prompt : أجب عن السؤال التالي : ما هي معادلة شرودنغر ؟ الجواب هو +pred_answer : أن الشرود الذهني ، أي عدم القدرة على التركيز في موضوع معين ، يؤدي إلى +answer : معادلة تفاضلية جزئية تصف كيفية تغير الحالة الكمية لنظام فيزيائي مع الزمن + +context : بدأ علم الأشعة مع اكتشاف العالم الألماني فيلهلم رونتغن لأشعة X ، وذلك في العام 1895 ، وحصل العالم رونتغن على جائزة نوبل في الفيزياء العام 1905 . +question : متى ظهر علم الأشعة ؟ +prompt : أجب عن السؤال التالي : متى ظهر علم الأشعة ؟ الجواب هو في عام +pred_answer : 1896 +answer : 1895 + +context : تمرد الإخوان أو ثورة الإخوان هو تمرد مسلح قاده بعض قادة قبائل الإخوان ضد ملك مملكة الحجاز ونجد وملحقاتها عبد العزيز آل سعود . بدأت أولى مقدمات التمرد سنة 1926 بعد انتهاء الحرب النجدية الحجازية ( 1924 - 1925 ) التي قضت على مملكة الحجاز حيث أراد الإخوان شن الغارات على بادية العراق والكويت تحديا لأوامر الملك عبد العزيز بوقف الهجمات حيث أن السلطنة النجدية ملتزمة بمنع الغزو بين قبائل نجد والعراق وفقا لمعاهدة بحرة الموقعة عام 1925 . لكن الملك عبد العزيز لم يكن قادرا على منع الإخوان من الغزو حتى حلول شتاء عام 1929 حينما اعتدت قوات ابن بجاد على تجار الجمال النجديين من القصيم وعلى شمر نجد وسبب هذا الهجوم أستياء كبيرا في نجد الأمر الذي دعى الملك عبد العزيز إلى حشد قواته في الزلفي في 5 مارس وألتحق به أغلب حاضرة نجد وقبائل شمر وحرب وقحطان ، فيما تجمعت قوات الدويش وابن بجاد في جراب بشمال الزلفي . أرسل الملك عبد العزيز أحد كبار مشايخ الدين إلى ابن بجاد لاقناعه برفع الخلاف المتعلق المذابح التي ارتكبتها قواته ضد تجار الجمال والمسلوبات التي نهبت إلى محكمة دينية لتفصل فيه إلا أن ابن بجاد رفض العرض بحجة أن ذلك ما هو إلا مؤامرة ضده وأن نهايته معروفة مسبقا حيث رأى أن رجال الدين هم أصدقاء لابن سعود وسوف يصدرون عليه حكما بالأعدام . وحينما أصر الإخوان على موقفهم أمر الملك عبد العزيز قواته بهاجمة الإخوان في 29 مارس 1929[1] وأصيب الدويش بجروح بالغة ووعهد الملك بالإبقاء على حياته شرط أن يخضعوا لحكم الشرع وسمح له بالعودة إلى الأرطاوية وأن يعالج على أن يسلم نفسه للرياض بعد شفاءه [2] في حين استسلم ابن بجاد في شقراء وسجن في الرياض . +question : متى وقع التمرد الاخواني ضد حكم ملك الحجاز عبد العزيز آل سعود ؟ +prompt : أجب عن السؤال التالي : متى وقع التمرد الاخواني ضد حكم ملك الحجاز عبد العزيز آل سعود ؟ الجواب هو في عام +pred_answer : 1929 ، +answer : 1926 + +context : سقوط بغداد أو حصار بغداد أو الغزو المغولي لبغداد أو الاجتياح المغولي لبغداد هو الاصطلاح الذي يشير إلى دخول المغول بقيادة هولاكو خان حاكم إلخانية فارس مدينة بغداد حاضرة الدولة العباسية وعاصمة الخلافة الإسلامية يوم 9 صفر 656 ه الموافق فيه 10 شباط ( فبراير ) 1258 م ، بتكليف من الخاقان الأكبر مونكو خان الذي طلب من أخيه هولاكو استكمال فتوحات المغول في جنوب غرب آسيا التي كان قد بدأها جدهما جنكيز خان ، [ 1] وهو ما قام به هولاكو حيث تمكن جيشه من اقتحام بغداد بعد أن حاصرها 12 يوما ، فدمرها وأباد معظم سكانها . +question : من هو القائد المغولي الذي اجتاح بغداد ؟ +prompt : أجب عن السؤال التالي : من هو القائد المغولي الذي اجتاح بغداد ؟ الجواب هو +pred_answer : جنكيز خان ، +answer : هولاكو خان + +context : يضم هذا التقسيم الجراثيم ( البكتيريا ) والطحالب الزرقاء المخضرة وتنقسم الخلية الغير حقيقية النواة إلى جزئين رئيسيين هما الهيولى ( السيتوبلازم ) وشبيه النواة ويسمى بعض الأحيان المنطقة النوية ، ويحيط بهذين الجزئين الالغشاء الخلوي ويكون هذا الغشاء محاطا أحيانا ( كما في بعض الجراثيم ، وفي الطحالب ) بجدار خلوي صلب أو شبه صلب يحافظ على الخلية ويؤمن لها الدعم يتراوح معدل حجم الخلية غير حقيقية النواة بين 1 - 10 ميكرومتر والخلية لا تستطيع الاستمرار في الحياة إذا تلف غشاؤها وينطوي الغشاء البلازمي في بعض غير حقيقيات النواة مكونا طيات وثنايا ، لكن هذه لا تكون منفصلة عن الغشاء البلازمي ، لذلك لا تعتبر تراكيب داخلية بعض هذه الطيات الجسميات المتوسطة وتكون حاوية على الأنزيمات الأساسية الضرورية لعملية التنفس الهوائي والتي تحدث في المتقدرة ( الميتوكندريا ) المنتمية للخلايا حقيقية النواة ، ولكن عدم وجود أغشية داخلية دائمة يعني عدم وجود تركيز موضعي للفعاليات والنشاطات محددا بغشاء وهذا هو الاختلاف الرئيسي بين النوعين كما تختلف الريباسات ( الرايبوزومات ) في غير حقيقية النواة حيث تكون أصغر حجما ويتراوح قطرها بين 150 - 200 انجستروم وتكون حرة في السيتوبلازم وتوجد في غير حقيقية النواة ، إضافة إلى السيتوبلازم ، مناطق كثيفة ذات شكل غير منتظم ، وهي المناطق النووية ويشكل فقدان غشاء فاصل بين المادة الوراثية والسيتوبلازم فرقا أساسيا بين هذين النوعين من الخلايا ( غير حقيقية النواة وحقيقية النواة ) . +question : ماهى الخلايا غير حقيقية النواة ؟ +prompt : أجب عن السؤال التالي : ماهى الخلايا غير حقيقية النواة ؟ الجواب هو +pred_answer : أن كل خلية من خلايا جسمنا تحتوى على نواة +answer : الجراثيم البكتيريا والطحالب الزرقاء المخضرة + +context : USB 2 . 0 أطلقت ب نيسان عام 2000 وخصصت لها أعلى وأقصى سرعة 480 Mbit s وتسمى حاليا ب السرعة العليا ( now called Hi - Speed ) . هنا اضيفت تعديلات على مواصفات ال USB بواسطة هندسة تغيير الملاحظات : ( ECN : Engineering Change Notices ) . والأكثر آهمية ب ال ECN هو إدخال في مواصفات ال USB 2 . 0 رزمة قانونية متاحة من ال USB . org وكان لها عدة فروع منها : +question : ما معدل سرعة نقل البيانات عبر معيار يو اس بي 2 ؟ +prompt : أجب عن السؤال التالي : ما معدل سرعة نقل البيانات عبر معيار يو اس بي 2 ؟ الجواب هو +pred_answer : 3 . 5 غيغابت في +answer : 480 Mbit s + +context : ميخائيل ساكاشفيلي هو الرئيس الحالي لجورجيا بعد فوزه 53 . 47 ٪ من الأصوات في انتخابات عام 2008 . كما أن لادو جورجنيدزه رئيس للوزراء منذ 22 تشرين الثاني 2007 . في 1 تشرين الثاني 2008 ، تم استبدال جورجنيدزه بجريجول مجالوبليشفيلي ، ومنذ 6 شباط 2009 أصبح نيكولوز جيلاوري رئيس الوزراء الجورجي الجديد . +question : من رئيس جورجيا الحالي ؟ +prompt : أجب عن السؤال التالي : من رئيس جورجيا الحالي ؟ الجواب هو +pred_answer : الرئيس ميخائيل ساكاشفيلي . +answer : ميخائيل ساكاشفيلي + +context : أمين عام جامعة الدول العربية هو منصب في جامعة الدول العربية . تولى المنصب ستة أشخاص منذ إنشاء الجامعة ، كلهم مصريون ، باستثناء الشاذلي القليبي الذي كان تونسيا . يتولى هذا المنصب حاليا أحمد أبو الغيط . +question : من أمين عام الجامعة العربية ؟ +prompt : أجب عن السؤال التالي : من أمين عام الجامعة العربية ؟ الجواب هو +pred_answer : عمرو موسى . +answer : أحمد أبو الغيط + +context : هي حرب دارت بين الصومال وجارتها إثيوبيا بسبب النزاع على تبعية إقليم اوغادين الذي تقطنه أغلبية صومالية وبدأت فيها القوات الصومالية الهجوم بعد فشل الحلول السياسية +question : ما اسم الحرب التي دارت بين الصومال وإثيوبيا ؟ +prompt : أجب عن السؤال التالي : ما اسم الحرب التي دارت بين الصومال وإثيوبيا ؟ الجواب هو +pred_answer : حرب أوغادين +answer : اوغادين + +context : القطار المغناطيسي المعلق ، أو ما يعرف اختصارا بالماجليف " Maglev " وهي اختصار Mag < b > nitic lev < b > itation ، وهو قطار يعمل بقوة الرفع المغناطيسية . [1][2][3] أي يعتمد في عمله على المغناطيس حيث أنه لا يحتوي على محركات ميكانيكية ولا يسير على قضبان حديدية فهو يطفو في الهواء معتمدا على وسادة مغناطيسية يعمل على تكوينها مجالات كهرومغناطيسية قوية ، وتمتاز هذه القطارات بسرعتها العالية التي تصل إلى 550 كم \ ساعة ، ( نظريا يمكن أن تبلغ سرعته 1700 كلم \ س ) . +question : كم تبلغ أعلى سرعة لقطار الرصاصة حاليا ؟ +prompt : أجب عن السؤال التالي : كم تبلغ أعلى سرعة لقطار الرصاصة حاليا ؟ الجواب هو +pred_answer : 10 كيلومتر في الساعة +answer : تصل إلى 550 + +context : هجاء الأصابع ( أو التخاطب بالأصابع ) هو تمثيل أحد الحروف من أي نظام كتابي ، وفي بعض الأوقات الأنظمة الرقمية ، وذلك باستخدام اليدين فقط . [1][2][3] وغالبا ما يتم استخدام الحروف الهجائية اليدوية هذه ( والمعروفة أيضا باسم أبجديات الأصابع أو أبجديات اليد ) في تعليم الصم ، وتم اعتمادها فيما بعد على أنها جزء متميز في عدد من لغات الإشارة في جميع أنحاء العالم . تاريخيا ، تميزت الأبجدية اليدوية بالعديد من التطبيقات الإضافية - بما في ذلك استخدام الشفرات السرية والرموز المختصرة وفي العبادات الدينية الصامتة . +question : ما هو هجاء الأصابع ؟ +prompt : أجب عن السؤال التالي : ما هو هجاء الأصابع ؟ الجواب هو +pred_answer : أن الهجاء في اللغة العربية ، كما في اللغات الأخرى ، يكون على وزن أفعل الت +answer : تمثيل أحد الحروف من أي نظام كتابي وفي بعض الأوقات الأنظمة الرقمية وذلك باستخدام اليدين فقط + +context : Coordinates : تصغير | يسار | 250 بك | قصر هشام عام 1996 . يقع قصر هشام على بعد 5 كيلومتر إلى الشمال من مدينة أريحا ويعتبر من أهم المعالم السياحية في فلسطين . كان القصر الذي شيده الخليفة الأموي هشام بن عبد الملك سنة 724 – 743 م والوليد بن يزيد 743 – 744 م مقرا للدولة ، فمن المعروف أن السلالة الأموية الإسلامية قد حكمت إمبراطورية تمتد من الهند إلى فرنسا ، وكما هو الحال مع معظم الخلفاء المسلمين فقد فضل الخليفة هشام بن عبد الملك حرية الصحراء على حياة المدينة في العاصمة دمشق . القصر هو عبارة عن مجموعة من الأبنية وأحواض الاستحمام والجوامع والقاعات الكبيرة . +question : في أي مدينة يقع آثار قصر هشام الذي شيده الخليفة الأموي هشام بن عبد الملك ؟ +prompt : أجب عن السؤال التالي : في أي مدينة يقع آثار قصر هشام الذي شيده الخليفة الأموي هشام بن عبد الملك ؟ الجواب هو +pred_answer : دمشق . +answer : أريحا + +context : لوحظ أن هذا الانهيار كان على مدار أربعة قرون وبلغ ذروته في التدهور النهائي للإمبراطورية الرومانية الغربية في 4 من سبتمبر 476 م لكن بعد فوات الأوان ، عندما عزل رومولوس أوغسطس ( Romulus Augustus ) ، آخر إمبراطور ل الإمبراطورية الرومانية الغربية ، عينه شيخ قبائل الجرمان أودواكر ( Odoacer ) . وتساءل بعض المؤرخين المعاصرين عن أهمية هذا التاريخ ، [4] حيث كان ذلك هو أحد الأسباب التي جعلت الإمبراطورية الرومانية الشرقية تعترف بالإمبراطور يوليوس نيبوس ( Julius Nepos ) ، واستقر بقية حياته في دالاماتيا ، حتى اغتياله في عام 480 م . أما القوط الشرقيون الذين خلفوا الرومانيين ، فقد اعتبروا أنفسهم محافظين على النهج المباشر للتقاليد الرومانية . ( مرت الإمبراطورية الرومانية الشرقية بمسارات مختلفة حيث تدهورت حالتها بصورة شديدة بعد عام 1000 ميلادي حتى سقوط القسطنطينية عام 1453 م على يد العثمانيين ، وتفاقمت العديد من الأحداث بعد موقف الإمبراطورية الغربية عام 378 م . وقد أكد عدد من المؤرخين المختلفين على وقوع معركة أدريانوبل ( Adrianople ) عام 378 م ووفاة ثيودوسيوس الأول ( Theodosius I ) عام 395 م ( في المرة الأخيرة التي حدث فيها توحيد سياسي للإمبراطورية الرومانية ) وعبور نهر الراين عام 406 م عن طريق القبائل الجرمانية وإعدام ستيليكو ( Stilicho ) عام 408 ، وساك حاكم روما ( Sack of Rome ) عام 410 م ، ووفاة قسطنطين الثالث ( Constantius I ) عام 421 م ووفاة أيتيوس ( Aetius ) عام 454 م وساك الحاكم الثاني لروما عام 455 م ووفاة ماجوريان ( Majorian ) عام 461 م . وفسرت المدرسة الحديثة مفهوم مراحل " السقوط " بالسقوط العكسي وليس الأمامي ، حيث أعلنت أن هذه التغيرات الكبيرة قد تكون أكثر دقة لوصفها بالتحول المعقد . [5] +question : متى سقطت روما القديمة ؟ +prompt : أجب عن السؤال التالي : متى سقطت روما القديمة ؟ الجواب هو +pred_answer : في عام 476 +answer : 4 من سبتمبر 476 + +context : فولفغانغ أماديوس موتسارت ( 27 يناير 1756 - 5 ديسمبر 1791 ) ولد في 27 يناير 1756 في سالزبورغ بالنمسا مؤلف موسيقي نمساوي يعتبر من أشهر العباقرة المبدعين في تاريخ الموسيقى رغم أن حياته كانت قصيرة ، فقد مات عن عمر يناهز ال 35 عاما بعد أن نجح في إنتاج 626 عمل موسيقي . قاد أوركسترا وهو في السابعة من عمره ولم يمشي في جنازته سوى خمس اشخاص فقط ليس من بينهم زوجته لان الجو كان شديد البرودة في تلك الأوقات في هذه المنطقة . +question : من هو موزارت ؟ +prompt : أجب عن السؤال التالي : من هو موزارت ؟ الجواب هو +pred_answer : أن موزارت ولد في مدينة +answer : مؤلف موسيقي نمساوي + +context : إدغار ديغا فنان تشكيلي و رسام و نحات فرنسي . +question : من هو إدغار ديغا ؟ +prompt : أجب عن السؤال التالي : من هو إدغار ديغا ؟ الجواب هو +pred_answer : أنه فنان تشكيلي فرنسي ، ولد في باريس عام +answer : فنان تشكيلي و رسام و نحات فرنسي + +context : تتألف نيوزيلندا من جزيرتين رئيسيتين ، الشمالية ( تي إكا آ ماوي ) والجنولية ( تي واي بونامو ) بلغة الماوري ، وعدد آخر من الجزر الأصغر الواقعة بالقرب من مركز نصف الكرة المائي . يفصل بين الجزيرتين الشمالية والجنوبية مضيق كوك والذي يبلغ اتساعه 20 كيلومترا عند أضيق نقطة . يبلغ مجموع مساحة الأراضي 268 , 021 كيلومتر مربع ( 103 , 483 ميل مربع ) [40] وهي بذلك أصغر قليلا من إيطاليا أو اليابان وأكبر قليلا من المملكة المتحدة . +question : كم تبلغ مساحة لنيوزيلند ؟ +prompt : أجب عن السؤال التالي : كم تبلغ مساحة لنيوزيلند ؟ الجواب هو +pred_answer : 2 . 5 مليون كيلومتر مربع +answer : 268 021 كيلومتر مربع + +context : الخليج العربي[1] ( بالفارسية : خل ج فارس[2] ، بالتركية : خليج البصرة ، [3][4] بالسواحلية : غب العجم[5][6] ) هو ذراع مائية لبحر العرب يمتد من خليج عمان جنوبا حتى شط العرب شمالا بطول 965 كيلومترا . [7] تبلغ مساحة الخليج العربي نحو 233 , 100 كيلومتر[7] ، ويتراوح عرضه بين حد أقصى حوالي 370 كم[7] إلى حد أدنى 55 كم في مضيق هرمز . والخليج العربي ضحل لا يتجاوز عمقه 90 مترا إلا في بعض الأماكن . [7] يبلغ طول الساحل العربي على الخليج العربي 3 , 490 كيلومتر وهو أطول من الساحل الإيراني ، إذ تملك إيران ساحلا يبلغ طوله 2 , 440 كيلومترا على الخليج العربي ، وبهذا فإن الساحل العربي أطول بحوالي 1 , 050 كيلومترا من الساحل الإيراني . +question : ماهى مساحة الخليج العربي ؟ +prompt : أجب عن السؤال التالي : ماهى مساحة الخليج العربي ؟ الجواب هو +pred_answer : أن هذه المساحة هي +answer : 233 100 كيلومتر + +context : ضمور هو انكماش أو تقلص في حجم الخلية نتيجة لفقدان مواد من داخل الخلايا ، ( اذا أصاب الضمور أكثر من خلية فإنه يمكن القول بأن العضو في حالة ضمور ) ويجب الملاحظة بأن ضمور الخلايا لا يعني موتها . مسببات الضمور تتضمن الطفرات ( التي من الممكن أن تدمر الجين المسؤول عن بناء العضو ) ، سوء التغذية ، الإنخفاض في إمداد الدم ، فقدان التحفيز الهرموني ، خسارة التعصيب ( تزويد بأعصاب ) للعضو المحدد ، استماتة كميات كبيرة من الخلايا ، قلة التمارين أو مرض متأصل في الأنسجة نفسها . المدخلات الهرمونية والعصبية التي تحافظ على العضو أو جزء من الجسم يشار لها في المهنة الطبية بالتغذية . التغذية تصف الحالة الغذائية للأنسجة . تضاءل التغذية العضلية يرمز لهل بالضمور . +question : ماهو ضمور الخلايا ؟ +prompt : أجب عن السؤال التالي : ماهو ضمور الخلايا ؟ الجواب هو +pred_answer : أن هناك نوعين رئيسيين من ضمور الخلايا وهما : 1 - ضمور الخلايا +answer : انكماش أو تقلص في حجم الخلية نتيجة لفقدان مواد من داخل الخلايا + +context : فلورنسا ، مدينة في الجزء الشمالي من وسط إيطاليا ، عاصمة مقاطعة فلورنسا وإقليم توسكانا وهي أكبر مدنه وأكثرها سكانا وأهمها تراثا تاريخيا وفنيا وإقتصاديا وإداريا ، يبلغ عدد سكانها 366 . 488 نسمة . +question : اين توجد مدينة فلورنسا ؟ +prompt : أجب عن السؤال التالي : اين توجد مدينة فلورنسا ؟ الجواب هو +pred_answer : في ايطاليا +answer : وسط إيطاليا + +context : القضبان[1] أو التامول[2] و هو جنس من الأشجار النفضية يتبع الفصيلة القضبانية . يضم 117 نوعا مقبولا وسبعين أخرى لم يحسم أمرها بعد . [3] +question : ما هو نبات القضبان ؟ +prompt : أجب عن السؤال التالي : ما هو نبات القضبان ؟ الجواب هو +pred_answer : أن هذا النوع من النباتات ينمو في +answer : جنس من الأشجار النفضية + +context : ووقعت فرنسا والصين عام 1992 . +question : متى وقعت الصين على معاهدة الحد من انتشار الأسلحة النووية ؟ +prompt : أجب عن السؤال التالي : متى وقعت الصين على معاهدة الحد من انتشار الأسلحة النووية ؟ الجواب هو في عام +pred_answer : 1968 ، +answer : 1992 + +context : الجمهورية الإسلامية الإيرانية[1][2][3] هي دولة تقع في غرب آسيا . [4][5][6] وهي ثاني أكبر دول بالشرق الأوسط من حيث عدد السكان بعد مصر باجمالي 81 مليون نسمة[7] وكذلك ثاني أكبر بلدان الشرق الاوسط مساحة بعد السعودية بمساحة تبلغ 1 ، 648 ، 195 كم 2 ما يجعلها تحتل المرتبة الثامنة عشر بين بلدان في العالم من حيث المساحة ٬ تتميز ايران بموقع جيوسياسي يجعلها نقطة التقاء لثلاث مجالات آسيوية ( غرب آسيا ووسطها وجنوبها ) . يحدها من الشمال أرمينيا وأذربيجان وتركمانستان . وتطل إيران على بحر قزوين ( وهو بحر داخلي تحده كازاخستان وروسيا ) . ويحدها من الشرق أفغانستان وباكستان ، ومن الجنوب الخليج العربي وخليج عمان ، ومن الغرب العراق ومن الشمال الغربي تركيا . طهران هي العاصمة ، وأكبر مدينة في البلاد والوسط السياسي والثقافي والتجاري والصناعي للأمة . تعد إيران قوة إقليمية ، [8][9] وتحتل مركزا هاما في أمن الطاقة الدولية والاقتصاد العالمي بسبب أحتياطاتها الكبيرة من النفط والغاز الطبيعي . حيث يوجد في إيران ثاني أكبر احتياطي من الغاز الطبيعي في العالم ورابع أكبر احتياطي مؤكد من النفط . [10] +question : ماهى مساحة إيران ؟ +prompt : أجب عن السؤال التالي : ماهى مساحة إيران ؟ الجواب هو +pred_answer : أنها أكبر من العراق وسوريا مجتمعين +answer : 1 648 195 كم 2 + +context : إيبلا مدينة أثرية سورية قديمة كانت حضارة ومملكة عريقة وقوية ازدهرت في شمال غرب سورية في منتصف الألف الثالث قبل الميلاد ، وبسطت نفوذها على المناطق الواقعة بين هضبة الأناضول شمالا وشبه جزيرة سيناء جنوبا ، ووادي الفرات شرقا وساحل المتوسط غربا ، وأقامت علاقات تجارية ودبلوماسية وثيقة مع دول المنطقة والممالك السورية ومصر وبلاد الرافدين ، كشفت عنها بعثة أثرية إيطالية من جامعة روما يرأسها عالم الآثار باولو ماتييه كانت تتولى التنقيب في موقع تل مرديخ قرب بلدة سراقب في محافظة إدلب السورية على مسافة نحو 55 كم جنوب غرب مدينة حلب في سوريا . +question : أين كانت تقع مدينة إيبلا ؟ +prompt : أجب عن السؤال التالي : أين كانت تقع مدينة إيبلا ؟ الجواب هو +pred_answer : في شمال غرب سوريا +answer : شمال غرب سورية + +context : الجزمية[1] أو دوغماتية[1] ( أو دوغمائية ) هى حالة من الجمود الفكري ، يتعصب فيها الشخص لأفكاره لدرجة رفضه الاطلاع على الأفكار المخالفة ، وإن ظهرت له الدلائل التي تثبت له أن أفكاره خاطئة ، سيحاربها بكل ما أوتي من قوة ، ويصارع من أجل إثبات صحة أفكاره وآرائه ، حالة شديدة من التعصب للأفكار والمبادئ والقناعات ، لدرجة معاداة كل ما يختلف عنها . تعد حالة من التزمت لفكرة معينة من قبل مجموعة دون قبول النقاش فيها أو الإتيان بأي دليل ينقضها لمناقشته ، أو كما هي لدى الإغريق الجمود الفكري . وهي التشدد في الاعتقاد الديني أو المبدأ الأيديولوجي ، أو موضوع غير مفتوح للنقاش أو للشك . +question : ما هي الدوغمائية ؟ +prompt : أجب عن السؤال التالي : ما هي الدوغمائية ؟ الجواب هو +pred_answer : أنه لا يوجد تعريف +answer : حالة من الجمود الفكري + +context : بافي قاتلة مصاصي الدماء ( Buffy the Vampire Slayer ) هو مسلسل تلفزيوني أمريكي قصته مبنية على الفيلم الذي أنتج بنفس الاسم عام 1992 . [1][2][3] المسلسل من كتابة وإخراج جوس ويدن . يسمى المسلسل غالبا بتسمية أقصر وهي بافي . المسلسل يعرض الحياة اليومية لشخصية " بافي سامرز " ، وهي فتاة مراهقة تقاتل مصاصي الدماء والشياطين والأعداء الآخرين . أهم الممثلين في المسلسل هم : ساره ميشيل غيلار ، وأليسون هانيغان ، ونيكولاس بريندون ، وأنتوني ستيوات هيد . عرض المسلسل لأول مرة في عام 1997 . أنتجت منه سبعة أجزاء . +question : متى عرضت أول حلقة من مسلسل بافي قاتلة مصاصي الدماء ؟ +prompt : أجب عن السؤال التالي : متى عرضت أول حلقة من مسلسل بافي قاتلة مصاصي الدماء ؟ الجواب هو في عام +pred_answer : 1997 ، +answer : 1997 + +context : المفعول به هو : الاسم الذي يدل على من وقع عليه فعل الفاعل . يكون دائما في الجملة الفعلية ويكون منصوبا دائما ، وعامل النصب فيه هو : الفعل المتعدي ، وعلامة نصبه الفتحة الظاهرة ، أو المقدرة ، أو الياء إن كان مثنى أو جمع مذكر سالم ، أو الكسرة ( نيابة عن الفتحة ) إن كان جمع مؤنث سالم ، أو الألف إن كان من الأسماء الخمسة . وقد يكون المفعول به اسما ظاهرا ، أو ضميرا ، أو جملة . +question : ما هو المفعول به في النحو العربي ؟ +prompt : أجب عن السؤال التالي : ما هو المفعول به في النحو العربي ؟ الجواب هو +pred_answer : : مفعول به منصوب وعلامة نصبه الفتحة +answer : الاسم الذي يدل على من وقع عليه فعل الفاعل + +context : بيونسي جيزيل نولز - كارتر[1] ( من مواليد 4 سبتمبر ، 1981 ) ، [2][3] المعروفة باسم بيونسي . هي مغنية وممثلة أميركية حائزة على 22 جائزة غرامي . ولدت ونشأت في هيوستن بولاية تكساس ، غنت في مسابقات غناء ورقص مختلفة عندما كانت طفلة ، أصبحت مشهورة في أواخر التسعينات كمغنية آر أند بي ( رئيسية ) للفرقة الغنائية النسائية دستنيز تشايلد . والتي أديرت من قبل والدها ماثيو نولز ، وأصبحت الفرقة واحدة من الأكثر مبيعا في العالم من الفرق النسائية على الإطلاق . وقد شهد انفصال الفرقة المؤقت صدور ألبوم بيونسي الأول Dangerously in Love دانجيروسلي إن لوف ( 2003 ) ، والذي أنشأها بأن تكون فنان منفرد ناجح في العالم ؛ بيعت منه 11 مليون نسخة ، حصل على خمسة جوائز غرامي وتضمن الأغاني التي وصلت إلى قمة الرسم البياني الأمريكي بيلبورد هوت 100 " كريزي إن لوف " و " بيبي بوي " . +question : متى ولدت بيونسيه ؟ +prompt : أجب عن السؤال التالي : متى ولدت بيونسيه ؟ الجواب هو في عام +pred_answer : 1991 ، عندما +answer : 4 سبتمبر 1981 + +context : باولو كويلو هو روائي وقاص برازيلي ولد ( 24 اغسطس 1947 ) . يؤلف حاليا القصص المحررة من قبل العامة عن طريق الفيس بوك . تتميز رواياته بمعنى روحي يستطيع العامة تطبيقه مستعملا شخصيات ذوات مواهب خاصة ، لكن متواجدة عند الجميع . كما يعتمد على أحداث تاريخية واقعية لتمثيل أحداث قصصه . و عين سنة 2007 رسول السلام التابع للأمم المتحدة . تعد الخيميائي أشهر رواياته وتمت ترجمتها إلى 80 لغة ووصلت مبيعاتها إلى 150 مليون نسخة في جميع انحاء العالم . +question : من هو باولو كويلو ؟ +prompt : أجب عن السؤال التالي : من هو باولو كويلو ؟ الجواب هو +pred_answer : أنه كاتب برازيلي ، +answer : روائي وقاص برازيلي + +context : مرسمة الذبذبات[1] أو كاشف الاهتزاز[2] أو راسم الاهتزاز المهبطي أو راسم الإشارة ( اختصار ( ر إ م - CRO ) أي راسم إشارة الأشعة المهبطية cathode - ray ) هو جزء من جهاز قياس إلكتروني يسمح بإظهار ورسم جهد الإشارة عادة بشكل مخطط ثنائي الأبعاد للجهد الكهربائي ( على المحور العمودي ) مقابل الزمن ( على المحور الأفقي ) أو يستعاض عن الزمن بجهد آخر على المحور الأفقي . و له مدخلان اي يستطيع رسم اشارتين مختلفتين وأما ان يرسم واحد منهما فقط على شاشة العرض أو يعرضهما معا ويمكن عرض قيمة طرح الاشارتين أو ضربها . +question : ما هي مرسمة الذبذبات ؟ +prompt : أجب عن السؤال التالي : ما هي مرسمة الذبذبات ؟ الجواب هو +pred_answer : أن كل ذبذبة لها تردد خاص بها ، وهذا التردد يختلف من ذرة إلى أخرى . +answer : جزء من جهاز قياس إلكتروني يسمح بإظهار ورسم جهد الإشارة عادة بشكل مخطط ثنائي الأبعاد للجهد + +context : فيكتور ماري هوغو ( مولد 26 فبراير 1802 ، وفاة 22 مايو 1885 ) كان أديبا وشاعرا وروائيا فرنسيا ، يعتبر من أبرز أدباء فرنسا في الحقبة الرومانسية ، وترجمت أعماله إلى أغلب اللغات المنطوقة . وهو مشهور في فرنسا باعتباره شاعرا في المقام الأول ثم راو ، وقد ألف العديد من الدواوين لعل أشهرها ديوان تأملات Les Contemplations وديوان أسطورة العصور La L gende des si cles . أما خارج فرنسا ، فهو مشهور لكونه كاتب وراو أكثر من كونه شاعر ، وأبرز اعماله الروائية هي رواية البؤساء وأحدب نوتردام . كما اشتهر في حقبته بكونه ناشط اجتماعي حيث كان يدعو لإلغاء حكم الإعدام . في كتابه الشهير Le dernier jour d ' un condamn كما كان مؤيدا لنظام الجمهورية في الحكم ، وأعماله تمس القضايا الاجتماعية والسياسية في وقته . +question : متى توفي الأديب فكتور هوغو ؟ +prompt : أجب عن السؤال التالي : متى توفي الأديب فكتور هوغو ؟ الجواب هو في عام +pred_answer : 1802 ، أي +answer : 22 مايو 1885 + +context : النبي ( 1923 ) أشهر كتب جبران كتبه بالإنجليزية وترجم إلى أكثر من خمسين لغة ، وهو يعتبر بحق رائعة جبران العالمية ، مضمونه اجتماعي ، مثالي وتأملي فلسفي ، وهو يحوي خلاصة الآراء الجبرانية في الحب والزواج والأولاد والبيوت والثياب والبيع والشراء والحرية والقانون والرحمة والعقاب والدين والأخلاق والحياة والموت واللذة والجمال والكرم والشرائع وغيرها ، وقد وردت على لسان نبي سمي " المصطفى " ورسالة النبي رسالة المتصوف المؤمن بوحدة الوجود ، وبأن الروح تتعطش للعودة إلى مصدرها ، وبأن الحب جوهر الحياة . وفي كتاب النبي يعبر جبران عن آرائه في الحياة عن طريق معالجته للعلاقات الإنسانية التي تربط الإنسان بالإنسان . +question : من هو صاحب كتاب " النبي " ؟ +prompt : أجب عن السؤال التالي : من هو صاحب كتاب " النبي " ؟ الجواب هو +pred_answer : محمد بن عبد +answer : جبران + +context : التقويم الرومي أو اليولياني هو تقويم فرضه يوليوس قيصر في سنة 46 ق . م . [1] ودخل حيز التنفيذ سنة 45 ق . م . يحاول التقويم اليولياني محاكاة السنة الشمسية ويتكون من 365 , 25 يوما مقسمة على 12 شهرا . +question : ما هو التقويم اليولياني ؟ +prompt : أجب عن السؤال التالي : ما هو التقويم اليولياني ؟ الجواب هو +pred_answer : أن الشمس تشرق من الشرق وتغرب في الغرب ، +answer : تقويم فرضه يوليوس قيصر في سنة 46 ق + +context : بروتوكول طبقة المنافذ الآمنة ، اختصارا يتضمن مستوى عال من الأمن في نظام تسلسل البروتوكولات الهرمي . +question : ما هو بروتوكول طبقة المنافذ الآمنة ؟ +prompt : أجب عن السؤال التالي : ما هو بروتوكول طبقة المنافذ الآمنة ؟ الجواب هو +pred_answer : أنه عبارة عن مجموعة من البروتوكولات التي تعمل على تأمين الاتصال بين +answer : يتضمن مستوى عال من الأمن في نظام تسلسل البروتوكولات الهرمي + +context : البنجاب ولاية هندية تقع في شمال الهند ، وتشكل الجزء الكبير من اقليم البنجاب . يحدها من الشمال ولاية جامو وكشمير ، من الغرب هيمشال بارديش ، هاريانا من الجنوب والجنوب الشرقي ، ومحافظة البنجاب الباكستانية من الشرق ، راجستان من الجنوب الغربي . عاصمتها مدينة شانديغرا . +question : اين يقع اقليم البنجاب ؟ +prompt : أجب عن السؤال التالي : اين يقع اقليم البنجاب ؟ الجواب هو +pred_answer : في باكستان . +answer : شمال الهند + +context : حرب الاستقلال التركية ( بالتركية : Kurtulu Sava أو حرب الاستقلال ) ؛ 19 مايو 1919 - 29 أكتوبر 1923 ) كانت مقاومة عسكرية وسياسية قادها القوميون الأتراك ضد تقسيم قوات الحلفاء للإمبراطورية العثمانية بعد هزيمتها في الحرب العالمية الأولى . [1][2][3] بلغت الحركة الوطنية التركية ذروتها في الأناضول بعد تشكيل الجمعية الوطنية الكبرى التي عبأت الموارد بنجاح تحت قيادة مصطفى كمال . بعد القيام بحملات عسكرية لصد الهجمات اليونانية والأرمينية والفرنسية ، أجبر الثوار الأتراك الحلفاء على التخلي عن معاهدة سيفر والتفاوض على معاهدة لوزان في تموز يوليو 1923 ، والسماح للأتراك بتشكيل جمهورية تركيا في الأناضول وتراقيا الشرقية في أكتوبر 1923 وضم جزء من الأراضي العربية السورية عرف باسم الأقاليم السورية الشمالية . تأسيس الحركة الوطنية التركية أدى إلى نهاية العهد العثماني . +question : في أي عام قامت حرب الاستقلال التركية ؟ +prompt : أجب عن السؤال التالي : في أي عام قامت حرب الاستقلال التركية ؟ الجواب هو في عام +pred_answer : 1919 � +answer : 19 مايو 1919 + +context : جبل الشيخ هو جبل يقع في سوريا ولبنان . يمتد من بانياس وسهل الحولة في الجنوب الغربي إلى وادي القرن ومجاز وادي الحرير في الشمال الشرقي وهو بذلك يشكل القسم الأكبر والأهم والأعلى من سلسلة جبال لبنان الشرقية التي تمتد بين سوريا ولبنان . يحده من الشرق والجنوب منطقة وادي العجم وإقليم البلان وهضبة الجولان في سوريا وفلسطين ، ومن الشمال والغرب القسم الجنوبي من سهل البقاع ووادي التيم في لبنان . فيه أربعة قمم ، الأعلى ( 2814 م ) تسمى شارة الحرمون في سوريا[1] ، والثانية إلى الغرب ( 2294 م ) ، والثالثة إلى الجنوب ( 2236 م ) في القسم السوري المحتل إسرائيليا[2] ، والرابعة إلى الشرق ( 2145 م ) . +question : ماهو أعلى قمة جبلية في سوريا ؟ +prompt : أجب عن السؤال التالي : ماهو أعلى قمة جبلية في سوريا ؟ الجواب هو +pred_answer : جبل قاسيون +answer : جبل الشيخ + +context : توني بلير ( 6 مايو 1953 - ) ، رئيس وزراء المملكة المتحدة من عام 1997 إلى عام 2007 وذلك لثلاث فترات رئاسية متتالية ، كما رأس حزب العمال البريطاني منذ عام 1994 ولغاية 2007 . عندما تولى الحكم في 2 مايو 1997 لم يكن قد أكمل عامه الرابع والأربعين ( أكمله يوم 6 مايو 1997 ) ، وهو بذلك أصغر من تولى منصب رئيس الوزراء منذ عهد روبرت جنكنسون الذي تولى الحكم عام 1812 ، وفي مايو 2010 حطم ديفيد كاميرون رقمه لأنه كان أصغر من سن الرابعة والأربعين بعدة أشهر عندما تولى منصب رئيس الوزراء . شغل أيضا عدة مناصب منها اللورد الأول للخزنة ، ووزير الخدمة الشعبية ، وعضو البرلمان البريطاني لمنطقة سيجفيلد في شمال شرق إنكلترا . +question : متى ولد توني بلير ؟ +prompt : أجب عن السؤال التالي : متى ولد توني بلير ؟ الجواب هو في عام +pred_answer : 1953 ، أي +answer : 6 مايو 1953 + +context : وفقا لتعداد عام 2010 ، كان إجمالي عدد السكان 2 ، 773 ، 000 وتلك ، 1 ، 960 ، 000 والعمانيين . وقد نما عدد السكان من 2 . 340 مليون في تعداد عام 2003 . في عمان ، حوالي 50 % من السكان يعيشون في مسقط وشمال غرب سهل الباطنة الساحلي من رأس المال ، حوالي 200 ، 000 يعيشون في المنطقة ( الجنوبية ) محافظة ظفار ، وحوالي 30 ، 000 يعيشون في شبه جزيرة مسندم بعيد عن مضيق هرمز . +question : كم بلغ التعداد السكاني لدولة عمان في 2010 م ؟ +prompt : أجب عن السؤال التالي : كم بلغ التعداد السكاني لدولة عمان في 2010 م ؟ الجواب هو +pred_answer : أن عدد سكان سلطنة عمان +answer : 2 773 000 + +context : والفهود هي الممثلة الوحيدة لجنس " ثابتة المخالب " في العصر الحالي ، إذ أن جميع الأنواع المنتمية لهذا الجنس اندثرت عن وجه الأرض قبل آلاف السنين بسبب العوامل الطبيعية . تتراوح سرعة الفهد بين 112 و 120 كيلومترا في الساعة ( بين 70 و 75 ميل في الساعة ) ، [4][5] وذلك في المسافات القصيرة حتى 460 مترا ( 1 , 510 أقدام ) ، ولها القدرة على الوصول إلى سرعة 103 كيلومترات في الساعة انطلاقا من الصفر خلال 3 ثوان فقط ، وهذا يجعلها أسرع من معظم السيارات الفائقة . [6] كانت مقولة أن الفهد هو أسرع الثدييات عدوا مقولة مشكوكا بصحتها ، ذلك أن بعض الحيوانات ، مثل الوعل شوكي القرون من أمريكا الشمالية ، قادرة على مقارعة الفهود من ناحية العدو ، إلا أن بعض الدراسات أثبتت مؤخرا أن الفهود هي بالفعل أسرع الحيوانات . [7] +question : ما هو معدل سرعة الفهد الإفريقي ؟ +prompt : أجب عن السؤال التالي : ما هو معدل سرعة الفهد الإفريقي ؟ الجواب هو +pred_answer : أنه أسرع حيوان على وجه الأرض +answer : 112 و 120 كيلومترا في الساعة + +context : جاموس الماء تعيش في قارتي أفريقيا وآسيا في جميع أنواع السافانا وبالقرب من مصدر للماء ، تعيش في قطعان كبيرة . فالجاموس موجود في مصر والسودان والهند وباكستان وفي جنوب العراق حيث تعيش في الأهوار الجنوبية . +question : أين يعيش جاموس الماء ؟ +prompt : أجب عن السؤال التالي : أين يعيش جاموس الماء ؟ الجواب هو +pred_answer : أنه يعيش في +answer : أفريقيا وآسيا + +context : جامعة فرايبورغ ( بالألمانية : Albert - Ludwigs - Universit t Freiburg ) تأسست في فرايبورغ عام 1457 على يد أرشيدوق النمسا ألبرت السادس . [1][2][3] لهذه الجامعة تاريخ طويل في تدريس العلوم الإنسانية والاجتماعية والطبيعية . في عام 2007 تم تسميتها كواحدة من جامعات النخبة في ألمانيا من خلال ما يعرف بمبادرة الامتياز ، وهي أيضا من الجامعات الأعضاء برابطة الجامعات البحثية الأوروبية . +question : متى تأسست جامعة فرايبورغ ؟ +prompt : أجب عن السؤال التالي : متى تأسست جامعة فرايبورغ ؟ الجواب هو في عام +pred_answer : 1866 +answer : 1457 + +context : حقوق الإنسان هي المبادئ الأخلاقية أو المعايير الإجتماعية التي تصف نموذجا للسلوك البشري الذي يفهم عموما بأنه حقوق أساسية لا يجوز المس بها " مستحقة وأصيلة لكل شخص لمجرد كونها أو كونه إنسان " ؛ ملازمة لهم بغض النظر عن هويتهم أو مكان وجودهم أو لغتهم أو ديانتهم أو أصلهم العرقي أو أي وضع آخر . وحمايتها منظمة كحقوق قانونية في إطار القوانين المحلية والدولية . وهي كلية تنطبق في كل مكان وفي كل وقت ومتساوية لكل الناس ، تتطلب التماهي والتشاعر وسيادة القانون وتفرض على المرء إحترام الحقوق الإنسانية للآخرين . ولا يجوز ولا ينبغي أن تنتزع إلا نتيجة لإجراءات قانونية واجبة تضمن الحقوق ووفقا لظروف محددة . فمثلا ، قد تشتمل حقوق الإنسان على التحرر من الحبس ظلما والتعذيب والإعدام . وهي تقر لجميع أفراد الأسرة البشرية قيمة وكرامة أصيلة فيهم . وبإقرار هذه الحريات فإن المرء يستطيع أن يتمتع بالأمن والأمان ، ويصبح قادرا على اتخاذ القرارات التي تنظم حياته . +question : ما هي حقوق الأنسان ؟ +prompt : أجب عن السؤال التالي : ما هي حقوق الأنسان ؟ الجواب هو +pred_answer : أن لكل إنسان حق التمتع بكافة الحقوق والحريات الواردة في هذا الإعلان ، دون أي تمييز ، كالتمييز بسبب العنصر أو اللون +answer : المبادئ الأخلاقية أو المعايير الإجتماعية التي تصف نموذجا للسلوك البشري الذي يفهم عموما بأنه حقوق أساسية لا يجوز المس بها + +context : وقد روت السيدة عائشة خبر وفاة أبيها أبي بكر فقالت : « أول ما بدئ مرض أبي بكر أنه اغتسل وكان يوما باردا ، فحم خمسة عشر يوما لا يخرج إلى صلاة ، وكان يأمر عمر بالصلاة وكانوا يعودونه ، وكان عثمان ألزمهم له في مرضه » ، [237] وقالت السيدة عائشة : قال أبو بكر : ، فنظرنا فإذا عبد نوبي كان يحمل صبيانه ، وإذا ناضح ( البعير الذي يستقى عليه ) كان يسقي بستانا له ، فبعثنا بهما إلى عمر ، فبكى عمر ، وقال : . [238] تصغير | 200 بك | يمين | واجهة قبور النبي محمد وأبي بكر وعمر داخل المسجد النبوي . واستمر مرض أبي بكر مدة خمسة عشر يوما ، حتى مات يوم الاثنين ليلة الثلاثاء 22 جمادى الآخرة سنة 13 ه ، قالت السيدة عائشة : إن أبا بكر قال لها : ، قالت : « في يوم الاثنين » ، قال : ، قالت : « في ثلاثة أثواب بيض سحولية يمانية ليس فيها قميص ولا عمامة » ، فقال أبو بكر : ، [239] فقيل له : « قد رزق الله وأحسن ، نكفنك في جديد » ، قال : . [240] وقد أوصى أن تغسله زوجه أسماء بنت عميس ، وأن يدفن بجانب النبي محمد ، وكان آخر ما تكلم به أبو بكر قول الله تعالى : [241] . [242] وتوفي أبو بكر وهو ابن ثلاث وستين سنة ، استوفى سن النبي محمد ، وغسلته زوجه أسماء بنت عميس ، [243] ودفن جانب النبي محمد ، وقد جعل رأسه عند كتفي النبي ، [244] وصلى عليه خليفته عمر بن الخطاب ، ونزل قبره عمر وعثمان وطلحة وابنه عبد الرحمن ، وألصق اللحد بقبر النبي محمد . [245] +question : كيف توفي أبو بكر الصديق ؟ +prompt : أجب عن السؤال التالي : كيف توفي أبو بكر الصديق ؟ الجواب هو +pred_answer : أن أبا +answer : مرض + +context : قصر بلينهايم ( بالإنجليزية : Blenheim Palace ) هو منزل ريفي ضخم يقع في وودستوك ، أوكسفوردشاير ، إنجلترا قرب قرية بلادون . وهو مقر إقامة دوقات مارلبورو . تم بناء القصر ، كواحد من أكبر البيوت في إنجلترا ، بين 1705 وحوالي عام 1724 . و قد تم إدراجه على لائحة مواقع التراث العالمي لليونسكو في عام 1987 . كان القصد الأول من بنائه ليكون هدية لجون تشرشل ، دوق مارلبورو ، من شعبه الممتن لانتصاره عسكري ضد الفرنسيين والبافاريين في معركة بلينهايم عام 1704 . ويجسد هذا القصر انتقائية ايحائه وعودته إلى المنابع الوطنية النموذج الأفضل لمسكن أميري من القرن الثامن عشر . قام بتصميمه مهندس الحدائق كايبابيليتي براون . [1] +question : أين يقع قصر بلاينهايم ؟ +prompt : أجب عن السؤال التالي : أين يقع قصر بلاينهايم ؟ الجواب هو +pred_answer : في جنوب غرب ألمانيا ، وتحديدا في مقاطعة +answer : وودستوك أوكسفوردشاير إنجلترا + +context : جامعة سنغافورة الوطنية ( بالإنجليزية : National University of Singapore ) هي أقدم وأكبر جامعة في سنغافورة . [1][2][3] تنتمي إلى التحالف الدولي لبحوث الجامعات . +question : ما هي أقدم جامعة في سنغافورة ؟ +prompt : أجب عن السؤال التالي : ما هي أقدم جامعة في سنغافورة ؟ الجواب هو +pred_answer : جامعة سنغافورة الوطنية +answer : جامعة سنغافورة الوطنية + +context : Coordinates : سافا ( بالصربية ووالكرواتية والبوسنية والسلوفينية : Sava ) هو نهر يخترق كلا من سلوفينيا وكرواتيا والبوسنة والهرسك وصربيا . [1][2][3] يعتبر أحد روافد الدانوب حيث يصب فيه في العاصمة الصربية بلغراد . يبلغ طوله 940 كم ومساحة مسطحه المائي هي حوالي 95 , 720 كم . في العهد الروماني كان يطلق عليه مسمى سافوس . غالبا ما يعتبر الحدود الشمالية للبلقان . +question : من اين يصب نهر السا ا ؟ +prompt : أجب عن السؤال التالي : من اين يصب نهر السا ا ؟ الجواب هو +pred_answer : ان هذا النهر +answer : بلغراد + +context : نشأ عروة في المدينة ، وأدرك عددا كبيرا من الصحابة الذين عاصروا النبي محمد ، فتفقه عروة على أيديهم ، كما لازم خالته أم المؤمنين عائشة ، وروى عنها أحاديثها ، وظل إلى جوارها حتى قبل وفاتها بثلاث سنين ، [1][6] حتى صار من فقهاء المدينة المنورة المعدودين ، حيث قال أبو الزناد عبد الله بن ذكوان : ، [7] بل وكان بعض أصحاب النبي محمد يسألونه . [4] وقد كان عروة يستهدف طلب العلم منذ صغره ، ولا يشغله عن ذلك شاغل ، فقد روى أبو الزناد أيضا أنه : . [1][8][9] +question : أين عاش أبو عبد الله عروة بن الزبير بن العوام الأسدي ؟ +prompt : أجب عن السؤال التالي : أين عاش أبو عبد الله عروة بن الزبير بن العوام الأسدي ؟ الجواب هو +pred_answer : في المدينة +answer : المدينة + +context : محرك الوانكل هو نوع من المحركات ذات الاحتراق الذاتي وهو على شكل دائري من أجل أن يحول الضغط إلى حركة دورانية بدلا من استخدام المكابس الارتدادية . تحدث الأشواط الأربعة في فراغ بين الحاوية ذات الشكل البيضاوي التي تشبه المنحنى العجلي الفوقي والدوار الذي يشبه مثلث رولو ولكن بجوانب مسطحة بشكل أكبر . هذا التصميم يولد قوة ذات دوران عال من حجم مضغوط . منذ التعريف عليه ، لقد تم اعتبار هذا المحرك محركا دورانيا ، بالرغم من أن هذا الاسم قد تم تطبيقه على تصاميم مختلفة تماما لقد تم اختراع هذا المحرك من قبل المهندس الألماني فليكس وانكل . لقد حصل على براءة الاختراع في عام 1929 ، وبدأ تطويره في أوائل الخمسينات من قبل شركة NSU وتم الانتهاء من أول نموذج عملي في عام 1957 . [1] و بعد ذلك قامت NSU بترخيص المبدأ للشركات حول العالم التي بدورها أكملت تطوير هذا التصميم . وهو المحرك الوحيد ذو الاحتراق الداخلي الذي اخترع في القرن العشرين ليذهب إلى الإنتاج . بفضل هذا التصميم فقد تم تضمين محرك وانكل الدوراني في أجهزة ومركبات متنوعة مثل السيارات والدراجات النارية وسيارات السباق والطائرات وزلاقة الجليد الآلية والمناشير ووحدات الطاقة المساعدة . أكثر من استخدم محرك وانكل بشكل كبير في السيارات هي الشركة اليابانية مازدا . +question : من قام بإختراع المحرك الدوار ؟ +prompt : أجب عن السؤال التالي : من قام بإختراع المحرك الدوار ؟ الجواب هو +pred_answer : مخترع محرك الاحتراق +answer : فليكس وانكل + +context : رؤوبين سنير ( بالعبرية : وبالإنكليزية : Reuven Snir ) ( ولد عام 1953 ) هو باحث إسرائيلي يهودي من أصل عراقي ، أستاذ الأدب العربي في جامعة حيفا ومترجم بين العربية ، العبرية والإنكليزية . يشغل حاليا منصب عميد كلية الآداب في جامعة حيفا . +question : متى ولد رؤوبين سنير ؟ +prompt : أجب عن السؤال التالي : متى ولد رؤوبين سنير ؟ الجواب هو في عام +pred_answer : 1890 +answer : 1953 + +context : السلطان الغازي شجاع الدين والدنيا أورخان خان بن عثمان بن أرطغرل القايوي التركماني ( بالتركية العثمانية : غازى سلطان اورخان خان بن عثمان بن ارطغرل ؛ وبالتركية المعاصرة : Sultan Orhan Gazi Han ben Osman ) ، ويعرف كذلك باسم أورخان بك ( بالتركية المعاصرة : Orhan Bey ) ؛ هو ثاني سلاطين آل عثمان والابن الثاني لمؤسس هذه السلالة الملكية عثمان الأول . ولد في مدينة سكود عاصمة إمارة والده سنة 687 ه الموافقة لسنة 1281 م ، والدته هي مال خاتون بنت الشيخ « إده بالي » ، وجده لأبيه هو الأمير الغازي أرطغرل بن سليمان شاه ، وجدته لأبيه هي حليمة خاتون . +question : من هو أورخان غازي ؟ +prompt : أجب عن السؤال التالي : من هو أورخان غازي ؟ الجواب هو +pred_answer : : السلطان الغازي في سبيل الله +answer : ثاني سلاطين آل عثمان + +context : تتكون بروناي دار السلام من جزأين منفصلين بمساحة إجمالية قدرها 5 , 766 كم 2 ( 2 , 226 ميل مربع ) . يعيش 77 ٪ من السكان في الجزء الشرقي من بروناي بينما يعيش حوالي 10 , 000 شخص في الجزء الجبلي الجنوبي الشرقي ( إقليم تيمبورونغ ) . يبلغ مجموع سكان البلاد من 428 , 000 ( 2010 ) يعيش 130 , 000 منهم في العاصمة بندر سري بكاوان . [21] . +question : ماهى مساحة بروناي ؟ +prompt : أجب عن السؤال التالي : ماهى مساحة بروناي ؟ الجواب هو +pred_answer : أنها تقع في جنوب شرق +answer : 5 766 كم 2 + +context : يوصف بيغ فوت على أنه مخلوق كبير يشبه القرد ، مشعر ذو عضلات ويمشي على قدمين ، يبلغ ارتفاعه 2 - 3 متر يغطيه شعر وصف بأن لونه أسود ، بني داكن أو محمر داكن . [6][9] +question : كم يبلغ طول بيغ فوت أو ذو القدم الكبيرة ؟ +prompt : أجب عن السؤال التالي : كم يبلغ طول بيغ فوت أو ذو القدم الكبيرة ؟ الجواب هو +pred_answer : 1 . 5 +answer : 2 3 متر + +context : العشرة المبشرون بالجنة هم عشرة من الصحابة بشرهم النبي محمد بالجنة حسب اعتقاد أهل السنة والجماعة ، وهم المذكورون في الحديث الذي رواه كل من عبد الرحمن بن عوف وسعيد بن زيد عن النبي أنه قال : [هامش 1][1][2][3][4][5][6] +question : من هم الصحابة العشرة المبشرين بالجنة ؟ +prompt : أجب عن السؤال التالي : من هم الصحابة العشرة المبشرين بالجنة ؟ الجواب هو +pred_answer : : أبو بكر الصديق ، عمر بن الخطاب ، عثمان بن عفان ، علي +answer : عشرة من الصحابة بشرهم النبي محمد بالجنة حسب اعتقاد أهل السنة والجماعة + +context : في مجال الطب ، يصف مصطلح الأفيونات أية مواد شبه قلوية أفيونية مخدرة توجد كمنتجات طبيعية في نبات الخشخاش المنوم ' . [1] +question : في مجال الطب ما هو مصطلح الأفيونات ؟ +prompt : أجب عن السؤال التالي : في مجال الطب ما هو مصطلح الأفيونات ؟ الجواب هو +pred_answer : " المورفين " أو " الكودين " ، وهو مسكن أفيوني قوي يستخدم لعلاج الآلام الشديدة . +answer : أية مواد شبه قلوية أفيونية مخدرة توجد كمنتجات طبيعية في نبات الخشخاش المنوم + +context : يعد النيون من العناصر الشائعة في الكون ، فهو يأتي في المرتبة الخامسة من حيث وفرة العناصر الكيمائية في الكون من حيث الكتلة ، وذلك بعد الهيدروجين والهيليوم والأكسجين والكربون . تنتج النظائر المستقرة من النيون في النجوم ، حيث يتشكل النظير 20Ne من تفاعل اندماج الهيليوم والأكسجين في عملية ألفا ، والتي تتطلب درجات حرارة تفوق 100 ميغاكلفن . +question : ما هو ترتيب غاز النيون من حيث وفرة العناصر الكيمائية في الكون من حيث الكتلة ؟ +prompt : أجب عن السؤال التالي : ما هو ترتيب غاز النيون من حيث وفرة العناصر الكيمائية في الكون من حيث الكتلة ؟ الجواب هو +pred_answer : 1 . +answer : الخامسة + +context : تابوت العهد عند اليهود و المسيحيين و تابوت السكينة عند المسلمين ، [1] ويسمى أيضا تابوت الرب أو تابوت الشهادة . وهو التابوت الذي حفظت به ألواح العهد ، وفقا للتراث اليهودي . وهذا التابوت وضع داخل قدس الأقداس بالهيكل . وهو مطلي بالذهب ومزين بإطار من الذهب . +question : ما هو تابوت العهد ؟ +prompt : أجب عن السؤال التالي : ما هو تابوت العهد ؟ الجواب هو +pred_answer : التابوت الذي وضع فيه موسى عليه السلام الوصايا العشر ، +answer : التابوت الذي حفظت به ألواح العهد وفقا للتراث اليهودي + +context : بابا نويل أو " سانتا كلوز " هو شخصية ترتبط بعيد الميلاد توجد عند المسيحيين ، معروفة غالبا بأنها رجل عجوز سعيد دائما وسمين جدا وضحوك يرتدي بزة يطغى عليها اللون الأحمر وبأطراف بيضاء وتغطي وجهه لحية ناصعة البياض ، وكما هو مشهور في قصص الأطفال فإن بابا نويل يعيش في القطب الشمالي مع زوجته السيدة كلوز ، وبعض الأقزام الذين يصنعون له هدايا الميلاد ، والأيائل التي تجر له مزلاجته السحرية ، ومن خلفها الهدايا ليتم توزيعها على الأولاد أثناء هبوطه من مداخن مدافئ المنازل أو دخوله من النوافذ المفتوحة وشقوق الأبواب الصغيرة . +question : من هي شخصية بابا نوال ؟ +prompt : أجب عن السؤال التالي : من هي شخصية بابا نوال ؟ الجواب هو +pred_answer : : مريم العذراء أم يسوع المسيح ، وهي الشخصية الرئيسية في الكتاب المقدس . وقد ورد ذكرها في العهد القديم ( سفر التكوين ) وفي العهد الجديد ( إنجيل متى ومرقس ولوقا ويوحنا ) +answer : شخصية ترتبط بعيد الميلاد توجد عند المسيحيين معروفة غالبا بأنها رجل عجوز سعيد دائما وسمين جدا وضحوك يرتدي بزة يطغى عليها اللون الأحمر وبأطراف بيضاء وتغطي وجهه لحية ناصعة البياض + +context : غلاف الأرض الصخري [1] ويشمل في الأرض القشرة والجزء الأعلى من الوشاح ( Mantle ) التي يكون الطبقة الخارجية الصلبة للأرض ( إلى عمق 100 كيلومتر ) . يلي المتكور اليابس من أسفل المتكور الموري بعمق 100 - 200 كيلومتر وهو أحر وأضعف من المتكور اليابس . و < b data - parsoid = ' { " dsr " : [433 , 452 , 3 , 3] } ' > الغلاف الصخري هو الغطاء الخارجي الصلب الذي يحيط بالكرة الأرضية ويرتكز على باطنها ، ويسمى بالقشرة الأرضية ، ويتألف من طبقات سميكة من الصخور ، تغطي جهة واسعة من البحار المحيطات ، وما يعلو فوق مستوى تلك المياه فهو الجزء اليابس من القشرة الأرضية ، وتغطيه في الغالب تربة نتجت من تفتت صخور القشرة الأرضية نفسها . ليحميها من التلف . +question : كم يبلغ عمق غلاف الأرض الصخري ؟ +prompt : أجب عن السؤال التالي : كم يبلغ عمق غلاف الأرض الصخري ؟ الجواب هو +pred_answer : أن الغلاف الصخري +answer : 100 200 كيلومتر + +context : إسكيا هي جزيرة بركانية في البحر التيراني . [1][2][3] تقع في الطرف الشمالي لخليج نابولي ، على بعد حوالى 30 كيلومترا من مدينة نابولي . وهي أكبر الجزر الفليغرية . +question : أين تقع جزيرة إسكيا ؟ +prompt : أجب عن السؤال التالي : أين تقع جزيرة إسكيا ؟ الجواب هو +pred_answer : في المحيط الهندي ، +answer : البحر التيراني + +context : التنازل عن مقديشو في 1905 لإيطاليا وممباسا لكينيا في 1963 . استقلت من بريطانيا كسلطنة ذات سيادة في 19 ديسمبر 1963 . +question : متى إستقلت زنجبار ؟ +prompt : أجب عن السؤال التالي : متى إستقلت زنجبار ؟ الجواب هو في عام +pred_answer : 1964 � +answer : 19 ديسمبر 1963 + +context : الهيجليين الشباب هم اتباع الفيلسوف الألماني الشهير غيورغ فيلهلم فريدريش هيغل صاحب كتاب " فينومينولوجيا الروح " ، وبعد موته سينقسم اتباعه إلى فئتين ، هيجلي اليسار : مثل كارل ماركس وفيورباخ وهم من سينتقد تصورات هيجل المثالية وينحون بفلسفته منحا مادي تماما كما قلب ماركس الجدلية المثالية إلى جدلية مادية أما الهيجليون اليمين فابقوا على الكثير من افكار هيجل المثالية . +question : من هو صاحب كتاب " فينومينولوجيا الروح " ؟ +prompt : أجب عن السؤال التالي : من هو صاحب كتاب " فينومينولوجيا الروح " ؟ الجواب هو +pred_answer : : كارل ياسبرز ( Karl J +answer : غيورغ فيلهلم فريدريش هيغل + +context : العاصمة هي فيلينيوس ( 541 ، 600 نسمة عام 2003 ) . أهم المدن الأخرى : كلايبيدا ( 192 . 000 نسمة عام 2003 ) وكاوناس ( 374 . 000 نسمة عام 2003 ) . +question : ما هي عاصمة ليتوانيا ؟ +prompt : أجب عن السؤال التالي : ما هي عاصمة ليتوانيا ؟ الجواب هو +pred_answer : العاصمة الليتوانية +answer : فيلينيوس + +context : الفاصمة ( ج فواصم ) أو المنصهر[1] أو الصهيرة أو المنصهرة أو الفيوز عنصر سلكي في دارة ، يحترق أو ينقطع عندما يتجاوز التيار المار فيه حدا معينا . يحمي المنصهر الدارات من الضرر الذي تسببه زيادة التيار . ويؤدي الوظيفة ذاتها التي يقوم بها قاطع الدارة ، ولكن دون إمكان إعادة التشغيل ، ولذا يجب تغييره عندما ينصهر . يتألف المنصهر من سلك قصير ، له تركيب محدد وسمك معين . وكلما ازداد سمك السلك ، ازداد التيار اللازم لصهر المصهر وفتح الدارة . فهي قطعة تركب في الدوائر الكهربائية والإلكترونية ، تقوم بقطع تدفق التيار الكهربائي في حالة حدوث دائرة قصر ( عند تلامس سلكي الكهرباء المتناقضين مع بعضها ) ، أو حمولة زائدة ( عند توصيل عدة أجهزة كهربائية ذات استهلاك عالي في وقت واحد ) . +question : ما هو الفيوز ؟ +prompt : أجب عن السؤال التالي : ما هو الفيوز ؟ الجواب هو +pred_answer : أن هناك نوعين من الفيوزات ، النوع الأول يسمى Fusion والنوع الثاني يسمى +answer : عنصر سلكي في دارة يحترق أو ينقطع عندما يتجاوز التيار المار فيه حدا معينا + +context : الورم الحميد هو مرض سرطاني يتصف بعدم عدائية خلاياه السرطانية وعدم نقل المرض إلى الأعضاء الأخرى عكس الورم الخبيث . [1][2][3] هناك بعض أنواع الأورام الحميدة قد تتحول إلى أورام خبيثة مثل الورم الغدي النبيبي ( أحد أنواع سرطان القولون ) . معظم الأورام الحميدة لا تحتاج للعلاج وإن كانت له حاجة ، فسيقتصر على الجراحة . +question : ما هو الورم الحميد ؟ +prompt : أجب عن السؤال التالي : ما هو الورم الحميد ؟ الجواب هو +pred_answer : أن الأورام الحميدة هي أورام غير سرطانية ، أي أنها لا تنتشر إلى أجزاء أخرى من الجسم ، ولا +answer : مرض سرطاني يتصف بعدم عدائية خلاياه السرطانية وعدم نقل المرض إلى الأعضاء الأخرى عكس الورم الخبيث + +context : طارق الطيب محمد البوعزيزي ( 29 مارس 1984[1] - 4 يناير 2011[2] ) ، هو شاب تونسي قام يوم الجمعة 17 ديسمبر كانون الأول عام 2010 م بإضرام النار في نفسه أمام مقر ولاية سيدي بوزيد احتجاجا على مصادرة السلطات البلدية في مدينة سيدي بوزيد لعربة كان يبيع عليها الخضار والفواكه لكسب رزقه ، وللتنديد برفض سلطات المحافظة قبول شكوى أراد تقديمها في حق الشرطية فادية حمدي التي صفعته أمام الملأ وقالت له : أي ارحل ( فأصبحت هذه الكلمة شعار الثورة للإطاحة بالرئيس وكذلك شعار الثورات العربية المتلاحقة ) . [3] أدى ذلك لانتفاضة شعبية وثورة دامت قرابة الشهر أطاحت بالرئيس زين العابدين بن علي ، أما محمد البوعزيزي فقد توفي بعد 18 يوما من إشعاله النار في جسده . أضرم على الأقل 50 مواطنا عربيا النار في أنفسهم لأسباب اجتماعية متشابهة تقليدا لاحتجاج البوعزيزي . أقيم تمثال تذكاري تخليدا له في العاصمة الفرنسية باريس . +question : من هو محمد البوعزيزي ؟ +prompt : أجب عن السؤال التالي : من هو محمد البوعزيزي ؟ الجواب هو +pred_answer : أن هذا الشاب التونسي الذي أشعل النار في جسده احتجاجا على مصادرة السلطات البلدية عربة الخضار التي كان يعتاش منها ، لم يكن ينتمي إلى أي حزب سياسي أو تيار إيديولوجي ، بل كان مجرد شاب عاطل عن العمل لا يملك +answer : شاب تونسي قام يوم الجمعة 17 ديسمبر كانون الأول عام 2010 م بإضرام النار في نفسه أمام مقر ولاية سيدي بوزيد احتجاجا على مصادرة السلطات البلدية في مدينة سيدي بوزيد لعربة كان يبيع عليها الخضار والفواكه لكسب رزقه + +context : الغاز المصاحب للنفط أو الغاز المصاحب هو شكل من أشكال الغاز الطبيعي ويوجد مع مستودعات النفط ويكون إما مذوب في النفط أو كقبة غازية فوق النفط في المستودع . تاريخيا كان هذا الغاز الذي يصاحب النفط الخام يخرج مع نفايات الإنتاج في صناعة استخراج النفط . وبحكم أن كثيرا من الحقول نائية في البراري والبحار هذا الغاز المصاحب كان يحرق للتخلص منه ويسمى هذا الغاز الذي يحرق غاز للإشعال . +question : ما هو الغاز المصاحب للنفط أو الغاز المصاحب ؟ +prompt : أجب عن السؤال التالي : ما هو الغاز المصاحب للنفط أو الغاز المصاحب ؟ الجواب هو +pred_answer : أنه عبارة عن خليط من +answer : شكل من أشكال الغاز الطبيعي + +context : مصطلح الدراسات الدولية يشير عموما إلى الشهادات والمواد الجامعية المحددة المعنية بدراسة " القضايا السياسية والاقتصادية والاجتماعية والثقافية الرئيسية التي تهيمن على جدول الأعمال الدولي " . [1] وقد يعني المصطلح تحديدا " الفهم المعاصر والتاريخي للمجتمعات العالمية والثقافات واللغات ونظم الحكم والعلاقات المعقدة بينهما التي تشكل العالم الذي نعيش فيه " . +question : إلى ماذا يشير مصطلح الدراسات الدولية ؟ +prompt : أجب عن السؤال التالي : إلى ماذا يشير مصطلح الدراسات الدولية ؟ الجواب هو +pred_answer : أن الدراسات الدولية هي فرع من فروع العلوم السياسية ، وهي تهتم بدراسة العلاقات بين الدول في مختلف المجالات +answer : الشهادات والمواد الجامعية المحددة المعنية بدراسة القضايا السياسية والاقتصادية والاجتماعية والثقافية الرئيسية التي تهيمن على جدول الأعمال الدولي + +context : الزرادشتية وتعرف بالمجوسية هي ديانة إيرانية قديمة وفلسفة دينية آسيوية . كانت الدين الرسمي للإمبراطوريات الأخمينية والبارثية والساسانية . [1] يقدر عدد معتنقي الديانة مابين 145 , 000 إلى 2 . 6 مليون نسمة . [2] معظمهم اليوم في الهند ويتواجدون في إيران وأفغانستان وأذربيجان بالإضافة لمهاجرين من هذه المناطق في الولايات المتحدة وأوروبا وأستراليا وكندا وسنغافورة . +question : ما هي ديانة الزرادشتية ؟ +prompt : أجب عن السؤال التالي : ما هي ديانة الزرادشتية ؟ الجواب هو +pred_answer : : زرادشت ( Zarathi ) ، وهو اسم يطلق على الديانة التي كانت سائدة في بلاد فارس +answer : ديانة إيرانية قديمة وفلسفة دينية آسيوية كانت الدين الرسمي للإمبراطوريات الأخمينية والبارثية والساسانية + +context : توماس هوبز ( 5 أبريل 1588 - 4 ديسمبر 1679 ) كان عالم رياضيات وفيلسوف إنجليزي . +question : من هو توماس هوبز ؟ +prompt : أجب عن السؤال التالي : من هو توماس هوبز ؟ الجواب هو +pred_answer : أنه فيلسوف سياسي إنجليزي ، +answer : عالم رياضيات وفيلسوف إنجليزي + +context : تصغير | خارطة تبين مشاريع البحث العلمي في غابة الجامعة جامعة هارفارد أقدم وأعرق الجامعات الأمريكية ، وإحدى أقدم جامعات العالم وأفضلها ، وأكبر جامعة في العالم من حيث المساحة والتجهيزات ، وإحدى الجامعات الثمانية في رابطة اللبلاب . تقع في مدينة كامبردج بولاية ماساتشوستس الأمريكية . أسسها القس البروتستانتي جون هارفارد عام 1636 لتناظر جامعتي كامبريدج وأوكسفورد في بريطانيا . [1] . تعد الجامعة أحد أصعب جامعات العالم في قبول الطلبة ، حيث إن ترتيبها الخامس عالميا من حيث صعوبة القبول . +question : متى تاسست جامعة هارفرد الامريكية ؟ +prompt : أجب عن السؤال التالي : متى تاسست جامعة هارفرد الامريكية ؟ الجواب هو في عام +pred_answer : 1636 +answer : 1636 + +context : مصراتة مدينة في ليبيا وبعض الاحصاءات تضعها ضمن ثالث أكبر التجمعات السكنية الليبية كثافة في عدد السكان بعد مدينتي طرابلس وبنغازي . تضم مصراتة 281 ألف نسمة في 2012 . [2] بلغ مجموع سكان شعبيتها ( مصراتة وزليتن وبني وليد ) حسب التعداد العام للسكان العام 2012 نحو 502 , 613 نسمة . وهي أكبر مدن شعبية مصراتة التي تضم مدن زليتن وبني وليد . تقع علي البحر الأبيض المتوسط عند الحافة الغربية لخليج السدرة على خط عرض 32 , 22 شمالا وخط طول 15 , 06 شرقا وتبعد عن مدينة طرابلس 208 كم شرقا ، +question : ماهو تعداد سكان مدينة مصراتة الليبية ؟ +prompt : أجب عن السؤال التالي : ماهو تعداد سكان مدينة مصراتة الليبية ؟ الجواب هو +pred_answer : أن عدد سكان مصراتة يبلغ حوالي +answer : 281 ألف نسمة في 2012 + +context : طارق الطيب محمد البوعزيزي ( 29 مارس 1984[1] - 4 يناير 2011[2] ) ، هو شاب تونسي قام يوم الجمعة 17 ديسمبر كانون الأول عام 2010 م بإضرام النار في نفسه أمام مقر ولاية سيدي بوزيد احتجاجا على مصادرة السلطات البلدية في مدينة سيدي بوزيد لعربة كان يبيع عليها الخضار والفواكه لكسب رزقه ، وللتنديد برفض سلطات المحافظة قبول شكوى أراد تقديمها في حق الشرطية فادية حمدي التي صفعته أمام الملأ وقالت له : أي ارحل ( فأصبحت هذه الكلمة شعار الثورة للإطاحة بالرئيس وكذلك شعار الثورات العربية المتلاحقة ) . [3] أدى ذلك لانتفاضة شعبية وثورة دامت قرابة الشهر أطاحت بالرئيس زين العابدين بن علي ، أما محمد البوعزيزي فقد توفي بعد 18 يوما من إشعاله النار في جسده . أضرم على الأقل 50 مواطنا عربيا النار في أنفسهم لأسباب اجتماعية متشابهة تقليدا لاحتجاج البوعزيزي . أقيم تمثال تذكاري تخليدا له في العاصمة الفرنسية باريس . +question : من حرق نفسه و كان شرارة الثورة التونسية في 2010 ؟ +prompt : أجب عن السؤال التالي : من حرق نفسه و كان شرارة الثورة التونسية في 2010 ؟ الجواب هو +pred_answer : محمد البوعزيزي الذي أشعل النار +answer : طارق الطيب محمد البوعزيزي + +context : الإمبراطور مكسيميانوس هرموليوس ( مكسيميان ) شريك دقلديانوس في حكم الغرب ( 286 - 305 ) إمبراطور الأمبراطورية الرومانية [305 - 313 م] أصدر دقلديانوس في مارس عام 303 م منشورين متلاحقين بسجن رؤساء الكنائس وتعذيبهم بقصد إجبارهم على ترك الإيمان . وفي 30 أبريل من نفس العام أصدر مكسيميانوس منشورا وهو أسوأها ويقضي بإرغام جميع المسيحيين في المدن والقرى في أنحاء الإمبراطورية بالتبخير والتضحية للآلهة . +question : من هو الإمبراطور مكسيميانوس ؟ +prompt : أجب عن السؤال التالي : من هو الإمبراطور مكسيميانوس ؟ الجواب هو +pred_answer : أنه كان إمبراطورا رومانيا في الفترة ما بين عامي 284 م و 305 +answer : شريك دقلديانوس في حكم الغرب 286 305 إمبراطور الأمبراطورية الرومانية + +context : المونتانية حركة مسيحية مبكرة ( منتصف القرن الثاني ) سميت نسبه لمؤسسها مونتانوس . ازدهرت أساسا في فريجيا وحولها ، ثم انتشرت بسرعة في مناطق الإمبراطورية الرومانية عندما أصبحت المسيحية مسموحة . ورغم أنتصار الكنيسة المسيحية التقليدية على المونتانية بعد أجيال قليلة ووصفها بأنها هرطقة بقيت الطائفة في بعض المجتمعات المعزولة حتى القرن الثامن . يشبه بعض الناس المونتانية بحركة الخمسينية الحديثة ، والتي تسمى المونتانية الحديثة . أشهر المونتانيين ترتليان الذي كان أهم كاتب مسيحي لاتيني قبل تحوله للمونتانية . +question : ما هي المونتانية ؟ +prompt : أجب عن السؤال التالي : ما هي المونتانية ؟ الجواب هو +pred_answer : أن كلمة " مونتانية " مشتقة من كلمتين يونانيتين ، هما : +answer : حركة مسيحية مبكرة منتصف القرن الثاني سميت نسبه لمؤسسها مونتانوس + +context : ولد إمانويل كانت عام 1724 في مدينة كونيغسبرغ عاصمة مملكة بروسيا ذلك الوقت في القرن الثامن عشر ، التي اصبحت تسمى اليوم كيلننغراد وتتبع لدولة روسيا . كان الرابع من بين أحد عشر ولدا ( ماتوا وهم أطفال إلا أربعة منهم ) . كان اسمه يكتب باللاتينية " Emanuel " وغير هجاء اسمه إلى " Immanuel " بعد أن تعلم اللغة العبرية . لم يسافر في حياته كلها أبدا ولم يبتعد أكثر من مئة ميل عن مدينته كونيغسبرغ . +question : اين ولد الفيلسوف إيمانويل كانت ؟ +prompt : أجب عن السؤال التالي : اين ولد الفيلسوف إيمانويل كانت ؟ الجواب هو +pred_answer : انه ولد في مدينة +answer : مدينة كونيغسبرغ + +context : تعد رومانيا جمهورية ذات نظام نصف رئاسي وتأتي في المرتبة التاسعة من حيث المساحة ( 238 , 391 كم مربع ) ، والسابعة من حيث عدد السكان ( 19 , 535 , 380 مليون نسمة ) [4] بالنسبة لدول الاتحاد الأوروبي . عاصمة البلاد هي بوخارست وهي أكبر مدن رومانيا ، وتحتل المرتبة السادسة من حيث عدد السكان ( 1 , 9 مليون نسمة ) بين مدن الاتحاد الأوروبي . وفي عام 2007 كانت مدينة سيبيو عاصمة الثقافة الأوروبية . [5] +question : ماهى مساحة رومانيا ؟ +prompt : أجب عن السؤال التالي : ماهى مساحة رومانيا ؟ الجواب هو +pred_answer : أن رومانيا هي دولة تقع في +answer : 238 391 كم مربع + +context : معاهدة الحظر الشامل للتجارب النووية ( بالإنجليزية : Comprehensive Test Ban Treaty ) هي معاهدة دولية تحظر اختبار الأسلحة النووية أو كل باقي أنواع التفجيرات النووية سواء أكانت لأغراض سلمية أو عسكرية في أي محيط كان . هذه المعاهدة فتحت للتوقيع في 24 سبتمبر 1996 في نيويورك في الولايات المتحدة ، و هي إلى حد الآن لم تدخل حيز التنفيذ . لتنفيذ هذا الهدف يجب على الدول 44 المعنيين " بالملحق 2 " أن يصادقوا على المعاهدة ، و في تاريخ 6 فبراير 2012 ، وقعت فقط 41 دولة من مجموع 44 دولة معنية بالملحق الثاني و صادقت 36 فقط عليها ، في حين لم توقع 3 دول و لم تصادق 8 دول من مجموع ال 44 دولة . +question : ما هي معاهدة الحظر الشامل للتجارب النووية ؟ +prompt : أجب عن السؤال التالي : ما هي معاهدة الحظر الشامل للتجارب النووية ؟ الجواب هو +pred_answer : : معاهدة حظر التجارب النووية ، التي تم التوقيع عليها في العام 1996 من قبل 189 دولة .وهي تهدف إلى منع +answer : معاهدة دولية تحظر اختبار الأسلحة النووية أو كل باقي أنواع التفجيرات النووية سواء أكانت لأغراض سلمية أو عسكرية في أي محيط كان + +context : دونالد جون ترامب ( بالإنجليزية : ) ( ولد في 14 يونيو 1946 ) هو الرئيس الخامس والأربعون للولايات المتحدة الأمريكية والحالي منذ 20 يناير 2017 ، وهو أيضا رجل أعمال وملياردير أمريكي ، وشخصية تلفزيونية ومؤلف أمريكي ورئيس منظمة ترامب ، والتي يقع مقرها في الولايات المتحدة . +question : في أي عام تولى ترامب رئاسة الولايات المتحدة ؟ +prompt : أجب عن السؤال التالي : في أي عام تولى ترامب رئاسة الولايات المتحدة ؟ الجواب هو في عام +pred_answer : 2017 . +answer : 2017 + +context : تمت مبايعة خادم الحرمين الشريفين الملك سلمان بن عبد العزيز ، ملكا للمملكة العربية السعودية ، في 3 ربيع الثاني 1436 ه الموافق 23 يناير 2015 م بعد وفاة الملك عبد الله بن عبد العزيز آل سعود . [14] +question : متى تولى الملك سلمان الحكم في المملكة العربية السعودية ؟ +prompt : أجب عن السؤال التالي : متى تولى الملك سلمان الحكم في المملكة العربية السعودية ؟ الجواب هو في عام +pred_answer : 1953 � +answer : 23 يناير 2015 + +context : الرسم اللفظي ( ) هو الرسم الدال على لفظ معين . [1][2][3] +question : ما هو الرسم اللفظي ؟ +prompt : أجب عن السؤال التالي : ما هو الرسم اللفظي ؟ الجواب هو +pred_answer : أن يقال : إن رسم الكلمة +answer : الرسم الدال على لفظ معين + +context : الفونوغراف أو غرامافون أو الحاكي . هو أول جهاز استخدم لتسجيل واستعادة الصوت إخترعه الأمريكي توماس إديسون في عام 1877 اشتهر اسمه بالفونوغراف وفقا للنقل الحرفي من كلمة فونوغراف ومعناها الكاتب الصوتي مشتقة من اليونانية حيث تشتق من كلمتي ( فونو - phono - ) وتعني الصوت و ( غراف - graph - ) وتعني الكتابة ، فهو يستعيد أصواتا مسجلة تماثليا على إسطوانات من الشمع أو أي أداة أخرى . [1][2][3] الإسطوانة بمعناها الوارد لأول مرة في الفونوغراف هي عبارة عن شكل مخروط ، أما في عرف الجراموفون ، وهو الأكثر انتشارا ، فهي عبارة عن قرص ذي أخدود حلزوني . يبدأ التسجيل عادة عند طرف القرص وينتهي عند مركزه . الحاكي كان وسط التخزين الأكثر شيوعا للتسجيلات الصوتية خلال القرن العشرين . ورغم حلول التسجيل الرقمي مكانه بدءا من الثمانينات إلا أنه لايزال ينتج ويستخدم كتحف فاخرة . +question : ما هو الفونوغراف أو غرامافون أو الحاكي ؟ +prompt : أجب عن السؤال التالي : ما هو الفونوغراف أو غرامافون أو الحاكي ؟ الجواب هو +pred_answer : أن لكل نوع من هذه الأنواع وظيفة +answer : أول جهاز استخدم لتسجيل واستعادة الصوت + +context : الجامعة الأمريكية بالقاهرة هي جامعة مصرية ، مستقلة ، غير هادفة للربح ، ومتعددة الثقافات والتخصصات ، وتعتبر الجامعة واحدة من أكبر الجامعات التي توفر تعليم متميز باللغة الإنجليزية . تأسست في عام 1919 في ميدان التحرير في وسط العاصمة المصرية ، القاهرة ، وأصبح مقرها الحالي بالقاهرة الجديدة ، ويوجد لها مجلس للأوصياء وبعض المكاتب الإدارية في نيويورك . كان الرئيس الأول لها هو تشارلز واتسون الذي ظل رئيسا لها لمدة 25 عاما ، والذي ولد بالقاهرة عام 1873[1] . تقدم الجامعة تعليما قائما على النهج الليبرالي المعتمد على التفكير النقدي والتحليلي لطلاب البكالوريوس والدراسات العليا ، وبرامج مهنية ، بالإضافة إلى برامج التعليم المستمر . [2] +question : متى تأسست الجامعة الأمريكية بالقاهرة ؟ +prompt : أجب عن السؤال التالي : متى تأسست الجامعة الأمريكية بالقاهرة ؟ الجواب هو في عام +pred_answer : 1866 +answer : 1919 + +context : جامعة هيوستن هي جامعة عامة في الولايات المتحدة تأسست سنة 1927 . +question : في أي عام تأسست جامعة هيوستن ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست جامعة هيوستن ؟ الجواب هو في عام +pred_answer : 1891 +answer : 1927 + +context : Coordinates : الريفيرا الفرنسي ( عرفها العرب قديما باسم سبتمانيا ) ' [1] منطقة تقع جنوب شرق فرنسا علي البحر المتوسط ، ومن أشهر مدنها نيس ، كان ، سانتروبيز ، تولون ومارسيليا . وتكثر فيها المنتجعات السياحية . +question : اين توجد الريفيرا ؟ +prompt : أجب عن السؤال التالي : اين توجد الريفيرا ؟ الجواب هو +pred_answer : في الشمال الشرقي من الولايات المتحدة +answer : جنوب شرق فرنسا علي البحر المتوسط + +context : وفي 30 يونيو من عام 2012 استقال غوارديولا من منصب كمدير فني لنادي برشلونة بعد أن حقق 14 لقبا في أربع سنوات قضاها في النادي الكتلوني . ثم أعلن نادي بايرن ميونخ عن التوقيع معه رسميا في 16 يناير 2013 ، ليشرف على النادي من موسم 2013 - 14 ، بعد مغادرة يوب هاينكس في يونيو من عام 2013 . قضى بيب مع بايرن ميونخ 3 مواسم حقق خلالها 3 لقب الدوري الألماني 3 مرات ، ولقب كأس ألمانيا مرتين ، ولقب كأس السوبر الأوروبي 2013 وكأس العالم للأندية لكرة القدم 2013 ، بحيث أصبح مجموع ما حققه مع بايرن ميونخ 7 ألقاب . وفي 1 فبراير 2016 أعلن نادي مانشستر سيتي عن التوقيع خلفا للمدرب التشيلي مانويل بلغريني ، واستلم مهمته رسميا في يونيو 2016 . [9] وفي موسم 2017 2018 استطاع تحقيق لقب الدوري الانجليزي ( البريمرليغ ) وكأس الرابطة الإنجليزية مع مانشستر سيتي . +question : متى تولى بيب غوارديولا تدريب مانشستر سيتي الانجليزي ؟ +prompt : أجب عن السؤال التالي : متى تولى بيب غوارديولا تدريب مانشستر سيتي الانجليزي ؟ الجواب هو في عام +pred_answer : 2014 ، عندما +answer : يونيو 2016 + +context : الهلال الأحمر الجزائري [1] ، هي جمعية إنسانية تطوعية جزائرية تأسست عام 1956 ، لكن لم يقع الاعتراف بها من قبل اللجنة الدولية للصليب الأحمر والهلال الأحمر إلا عام 1963 . +question : متى تأسست جمعية الهلال الأحمر الجزائري ؟ +prompt : أجب عن السؤال التالي : متى تأسست جمعية الهلال الأحمر الجزائري ؟ الجواب هو في عام +pred_answer : 1909 +answer : 1956 + +context : ياسر العظمة ( 16 مايو 1942 ، دمشق - ) ؛ ممثل سوري ، من عائلة آل العظمة الدمشقية خريج جامعة دمشق كلية الحقوق ، اشتهر من خلال مسلسل مرايا الذي ألفه وأعده لمدة تزيد عن خمسة وثلاثين عاما قام خلالها بتمثيل العديد من الشخصيات التي غالبا ما تحمل الطابع النقدي الكوميدي . [1] . +question : متى ولد الفنان السوري ياسر العظمة ؟ +prompt : أجب عن السؤال التالي : متى ولد الفنان السوري ياسر العظمة ؟ الجواب هو في عام +pred_answer : 1954 ، +answer : 1942 + +context : جمال الدين فالح الكيلاني ، باحث ومؤلف ومؤرخ عراقي متخصص في الدراسات الإسلامية . +question : من هو جمال الدين فالح الكيلاني ؟ +prompt : أجب عن السؤال التالي : من هو جمال الدين فالح الكيلاني ؟ الجواب هو +pred_answer : : ولد في بغداد سنة 18 +answer : باحث ومؤلف ومؤرخ عراقي + +context : دينو زوف حارس مرمى منتخب إيطاليا لكرة القدم سابقا ( من مواليد 28 فبراير , 1942 ) أحد أبرز حراس المرمى في تاريخ كرة القدم ، حطم العديد من الأرقام القياسية التي تكن مسجلة لأي حارس مرمى قبله يأتي في أبرزها محافظته على مرمى المنتخب الإيطالي نظيفا لمدة 1142 دقيقة ، في فترة مابين سبتمبر 1972 إلى يونيو 1974 م . شارك في الدوري المحلي الإيطالي مع فرق عديدة أبرزها نابولي واليوفنتوس الشهيران ، ومثل المنتخب 112 مباراة دولية . وفاز عام 1982 بكأس العالم وكان أكبر لاعب في التاريخ يفوز بالبطولة كقائد للمنتخب وهو في قمة عطائه الكروي . . [1][2] +question : متى ولد الحارس دينو زوف ؟ +prompt : أجب عن السؤال التالي : متى ولد الحارس دينو زوف ؟ الجواب هو في عام +pred_answer : 1978 ، أي +answer : 28 فبراير 1942 + +context : التعليم الإبتدائي وهي فترة ستة سنوات التعليم الإعدادي وهي فترة 3 سنوات ويحصل الطالب بالنهاية على شهادة الإعدادية التعليم الثانوي وهي فترة 3 سنوات ، في أول سنة يكون دراسة عامة بكل المواد وبعد ذلك يختار الطالب التخصص العلمي أم التخصص الأدبي ، يتحصل الطالب بالنهاية على شهادة الثانوية +question : كم عدد سنوات التعليم الثانوي في ليبيا ؟ +prompt : أجب عن السؤال التالي : كم عدد سنوات التعليم الثانوي في ليبيا ؟ الجواب هو +pred_answer : 12 سنة +answer : 3 سنوات + +context : بشار جعفري ( من مواليد دمشق 14 نيسان أبريل 1956 ) [1] هو الممثل الدائم حاليا للجمهورية العربية السورية في مقر الأمم المتحدة في نيويورك . ويتحدث العربية ، الإنكليزية ، الفرنسية والفارسية بطلاقة . +question : متى ولد بشار جعفري ؟ +prompt : أجب عن السؤال التالي : متى ولد بشار جعفري ؟ الجواب هو في عام +pred_answer : 1979 ، أي بعد +answer : 14 نيسان أبريل 1956 + +context : خرج النبي ومعه اثنا عشر ألف مقاتل في جيش المسلمين ، ولم يكن كل جيش المسلمين من صحابة النبي من المهاجرين والأنصار بل كان به كثيرا من الذين دخلوا في الإسلام حديثا بعد فتح مكة . وقد كان عدد جيش هوازن ثلاثون ألف مقاتل بقيادة " مالك بن عوف " ، وقد أمر مالك بن عوف قومه بأن يخرجوا جميعا لملاقاة المسلمين ويأخذوا معهم نساءهم وأبناءهم وأموالهم وأغنامهم وإبلهم وأبقارهم معهم في المعركة . وذلك حتى لا يفر المقاتلون من أرض المعركة . وقد خرج في جيش هوازن أحد شيوخها وهو دريد بن الصمه ، وقد كان عمره مائه وستون عاما ، وهو ذو درايه وخبرة بفنون الحرب وأساليب القتال . ولما علم من أمر مالك بن عوف مع قومه بأن يخرج الأبناء والنساء والأموال والماشية ؛ أنكر دريد هذا الرأي وقال إن هذا لاينفعنا ولكن مالك بن عوف أصر على رأيه وخرج الجيش بما فيه فقال دريد لمالك بن عوف : " إذا لقيت محمدا وجها لوجه فاعلم أنك مهزوم . فقال له مالك : " وما الرأي إذا " ، فقال دريد : " أكمن لهم فاذهب إلى حنين وأدخل بين الاشجار وعندما يصل المسلمون إلى وادي حنين اخرج عليهم وحاصرهم . " [7] +question : كم كان عدد جيوش المسلمين في غزوة حنين ؟ +prompt : أجب عن السؤال التالي : كم كان عدد جيوش المسلمين في غزوة حنين ؟ الجواب هو +pred_answer : أن الجيش الإسلامي وصل إلى +answer : اثنا عشر ألف مقاتل + +context : عصب حبل الطبل أو عصب الحبل الطبلي هو فرع من العصب الوجهي ، ينشأ من حليمات الذوق في الجزء الأمامي لسان ويمر عبر الأذن الوسطى وينقل رسائل حس التذوق إلى الدماغ . [1][2][3] يتصل عصب حبل الطبل بالعصب الوجهي في القناة الوجهية قرب مخرجه من الثقب الإبري الحلمي ( الخشائي ) . +question : ما هو عصب الحبل الطبلي ؟ +prompt : أجب عن السؤال التالي : ما هو عصب الحبل الطبلي ؟ الجواب هو +pred_answer : العصب القحفي العاشر ، وهو أحد الأعصاب القحفية التي تقع في الجزء الخلفي من الدماغ . يتكون هذا العصب من ألياف +answer : فرع من العصب الوجهي ينشأ من حليمات الذوق في الجزء الأمامي لسان ويمر عبر الأذن الوسطى وينقل رسائل حس التذوق إلى الدماغ + +context : أبو الوليد عبد الملك بن مروان بن الحكم بن أبي العاص بن أمية القرشي ( 26 ه - 86 ه 646 - 705 م ) الخليفة الخامس من خلفاء بني أمية والمؤسس الثاني للدولة الأموية . [1] ولد في المدينة وتفقه فيها علوم الدين ، وكان قبل توليه الخلافة ممن اشتهر بالعلم والفقه والعبادة ، وكان أحد فقهاء المدينة الأربعة ، قال الأعمش عن أبي الزناد : « كان فقهاء المدينة أربعة : سعيد بن المسيب ، وعروة بن الزبير ، وقبيصة بن ذؤيب ، وعبد الملك بن مروان » . [2] استلم الحكم بعد أبيه مروان بن الحكم سنة 65 ه الموافق 684 م ، وحكم دولة الخلافة الإسلامية واحدا وعشرين عاما . +question : كم استمرت خلافة عبد الملك بن مروان ؟ +prompt : أجب عن السؤال التالي : كم استمرت خلافة عبد الملك بن مروان ؟ الجواب هو +pred_answer : أن مدة خلافته +answer : واحدا وعشرين عاما + +context : يعتقد أن أول أشكال الأبجدية السريلية ظهرت في العام 940 ميلادية . +question : متى ظهرت أول أشكال الأبجدية السريلية ؟ +prompt : أجب عن السؤال التالي : متى ظهرت أول أشكال الأبجدية السريلية ؟ الجواب هو +pred_answer : : في عام +answer : 940 ميلادية + +context : الفلبين ( بالفلبينية : Pilipinas ) ، رسميا جمهورية الفلبين ، هي جمهورية دستورية تقع في جنوب شرق آسيا غرب المحيط الهادي . عبارة عن أرخبيل مكون من 7 , 641[1] جزيرة ، تحده تايوان إلى الشمال عبر مضيق لوزون ، وفيتنام إلى الغرب عبر بحر الصين الجنوبي . بحر سولو في الجنوب الغربي يفصلها عن جزيرة بورنيو وبحر سلبس إلى الجنوب يفصلها عن غيرها من الجزر في إندونيسيا . يحدها من الشرق بحر الفلبين . تصنف في ثلاثة أقسام جغرافية رئيسية هي لوزون وبيسايا ومنداناو . مانيلا هي العاصمة بينما المدينة الأكثر كثافة بالسكان هي كيزون وكلا المدينتين تعد جزء من مايطلق عليه ( مترو مانيلا ) . +question : ما عاصمة جمهورية الفلبين ؟ +prompt : أجب عن السؤال التالي : ما عاصمة جمهورية الفلبين ؟ الجواب هو +pred_answer : مانيلا ، +answer : مانيلا + +context : الخمسة أعين ، والمعروفة اختصارا " FVEY " , هو مصطلح يشير إلى تحالف مخابراتى يشمل كل من الولايات المتحدة الأمريكية , المملكة المتحدة , كندا , إستراليا ونيوزيلندا بموجب إتفاق " يو كيه يو إس إيه " المتعدد الأطراف و هي معاهدة تختص بمجال التعاون المشترك في مجال إستخبارات الإشارة . +question : ماهى دول أعضاء " الخمس عيون " ؟ +prompt : أجب عن السؤال التالي : ماهى دول أعضاء " الخمس عيون " ؟ الجواب هو +pred_answer : الولايات المتحدة الأمريكية ، المملكة المتحدة ، فرنسا ، ألمانيا ، +answer : الولايات المتحدة الأمريكية المملكة المتحدة كندا إستراليا ونيوزيلندا + +context : الناصرية مدينة عراقية تقع في جنوب شرق العراق على نهر الفرات وهي مركز محافظة ذي قار ( لواء المنتفك ) في العهد الملكي . وتعد تاسع أكبر مدينة مأهولة بالسكان بعد بغداد والبصرة والموصل اسسها الشريف الحجازي ناصر الأشكر باشا السعدون ، وكان يبلغ عدد سكانها عام 1987 حوالي 265 , 937 نسمة ، وعدد سكانها في سنة 2014 أكثر من 745 , 000 نسمة . يضم الجزء الجنوبي الغربي من الناصرية محطة لتوليد الطاقة الكهربائية التي بنيت في سبعينيات القرن الماضي والتي تعرضت لضرر بالغ عندما قصفتها طائرات التحالف خلال عملية عاصفة الصحراء يوم 3 فبراير 1991 . وقد أدعى الأمريكيون بوجود مواد كيماوية فيها . +question : أين تقع مدينة الناصرية ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة الناصرية ؟ الجواب هو +pred_answer : في جنوب العراق +answer : جنوب شرق العراق + +context : الأليل أو الحليل[1] أو البديل[2] allele هو نسخة أو شكل بديل للجين أو موقع كروموسومي ( عادة يتكون من مجموعة جينات ) . وللجين على الأقل نسختان أو شكلان بديلان . أحيانا قد ينتج عن ألألائل المختلفة المحتوية على اختلافات في الشفرة الوراثية خلات مختلفة ( كلون الجلد أو العين ) . إلا أن الكثير من الاختلافات لا تؤدي إلا لاختلاف ظاهري طفيف أو معدوم . [3][4] +question : ما هو الأليل ؟ +prompt : أجب عن السؤال التالي : ما هو الأليل ؟ الجواب هو +pred_answer : زوج من الكروموسومات ( الصبغيات ) يحمل الصفات الوراثية التي تحدد جنس الفرد +answer : نسخة أو شكل بديل للجين أو موقع كروموسومي عادة يتكون من مجموعة جينات + +context : يعود أصل كلمة " بورصة " إلى اسم عائلة فان در بورصن ( Van der B rsen ) البلجيكية التي كانت تعمل في مجال البنوك ، واتفق على أن يكون الفندق الذي تملكه هذه العائلة بمدينة بروج مكانا لالتقاء التجار المحليين في فترة القرن الخامس عشر ، فأصبح بمرور الزمن رمزا لسوق رؤوس الأموال وبورصة للسلع . جاء أول نشر لما يشبه قائمة بأسعار البورصة طيلة فترة التداول لأول مرة عام 1592 بمدينة أنتويرب . +question : ما هو أصل كلمة بورصة ؟ +prompt : أجب عن السؤال التالي : ما هو أصل كلمة بورصة ؟ الجواب هو +pred_answer : : بورصة هي نظام لتبادل الأوراق المالية يتم فيه تداول أسهم الشركات +answer : يعود أصل كلمة بورصة إلى اسم عائلة فان در بورصن + +context : السد أسطواني الشكل ومقوس بنصف قطر ( 140 ) م وعرض ( 9 . 50 ) م وأقصى ارتفاع له من الأساسات إلى القمة ( 73 ) م وطول قمته ( 274 ) م ، والجدير بالذكر أنه يحتوي على ( 110 . 000 ) م 3 من الخرسانة ويمر من فوقه طريق على جسر عرضه ( 4 . 5 ) م . [1] +question : ما هو ارتفاع سد وادي نجران ؟ +prompt : أجب عن السؤال التالي : ما هو ارتفاع سد وادي نجران ؟ الجواب هو +pred_answer : أن السد +answer : 274 + +context : ماريا إيزابيل لويسا دي بوربون ملكة إسبانيا في الفترة من 29 سبتمبر 1833 حتى 30 سبتمبر 1868 . [1] ولدت في مدريد في 10 أكتوبر عام 1830 . [2] اعتلت إيزابيل الثانية عرش إسبانيا وهي لا تزال طفلة صغيرة ، بعد وفاة والدها الملك فيرناندو السابع ، بموجب إلغاء القوانين المنظمة لتوريث العرش عام 1713 ( وهو ما يعرف باسم القانون السالي ) . كانت إيزابيل تحت وصاية والدتها ماريا كريستينا دي بوربون ، التي اعتمدت سياسة مختلفة في الحكم عن الملك فيرناندو ، وأدى ذلك إلى إحداث بعض التغير في بعض النظم الاجتماعية حتى تصبح مماثلة للنظام الليبرالي المتبع في بعض البلدان الأوروبية . [3] سبب ذلك الأمر تمرد الأمير كارلوس ماريا إسيدرو ، عم إيزابيل الثانية ، والذي دعمته الجماعات المؤيدة للحكم المطلق ، التي تطلق على نفسها اسم الكارليين ؛ وبدوره أدى ذلك إلى نشوب الحرب الكارلية بين مؤيدي كارلوس ماريا إسيدرو من جهة ومن جهة أخرى ، مؤيدي النظام الليبرالي . [4] وحاول إسيدرو وقت احتضار أخيه الملك فيرناندو السابع استلام الحكم خلال هذه الفترة التاريخية التي مرت بها إسبانيا . وتوفيت إيزابيل الثانية في باريس في 9 أبريل عام 1904 . [3] +question : أين ولدت إيزابيل الثانية ملكة إسبانيا ؟ +prompt : أجب عن السؤال التالي : أين ولدت إيزابيل الثانية ملكة إسبانيا ؟ الجواب هو +pred_answer : أنها ولدت +answer : مدريد + +context : معهد بورقيبة هو أحد أقدم معاهد مدينة تونس ، ويعود تأسيسه إلى فترة الحماية بتونس ، وتحديدا عام 1882 تحت اسم معهد كارنو أو ليسي كارنو وقد بقي يحمل نفس الاسم إلى عام 1983 ، ليتحول اسمه إلى معهد بورقيبة النموذجي بتونس . upright = 0 . 9 | تصغير | باب معهد بورقيبة +question : ما هو المعهد النموذجي بتونس ؟ +prompt : أجب عن السؤال التالي : ما هو المعهد النموذجي بتونس ؟ الجواب هو +pred_answer : أنه معهد نموذجي بكل المقاييس +answer : أحد أقدم معاهد مدينة تونس + +context : قمة أنشاص : الإسكندرية ، مصر ( 28 - 29 مايو أيار 1946 ) [33] . قمة بيروت : بيروت ، لبنان ( 13 - 15 نوفمبر تشرين الثاني 1956 ) . مؤتمر القمة العربي الأول : القاهرة ، مصر ( 13 - 17 يناير كانون الثاني 1964 ) . مؤتمر القمة العربي الثاني : الإسكندرية ، مصر ( 5 - 11 سبتمبر أيلول 1964 ) . مؤتمر القمة العربي الثالث : الدار البيضاء ، المغرب ( 13 - 17 سبتمبر أيلول 1965 ) . مؤتمر القمة العربي الرابع : الخرطوم ، السودان ( 29 أغسطس آب - 2 سبتمبر أيلول 1967 ) . مؤتمر القمة العربي الخامس : الرباط ، المغرب ( 21 - 23 ديسمبر كانون الأول 1969 ) مؤتمر القمة غير العادي الأول : القاهرة ، مصر ( 21 - 27 سبتمبر أيلول 1970 ) . مؤتمر القمة العربي السادس : الجزائر ، الجزائر ( 26 - 28 نوفمبر تشرين الثاني 1973 ) . مؤتمر القمة العربي السابع : الرباط ، المغرب ( 26 - 29 أكتوبر تشرين الأول 1974 ) . مؤتمر القمة السداسي : الرياض ، السعودية ( 6 - 18 أكتوبر تشرين الأول 1976 ) . مؤتمر القمة العربي الثامن : القاهرة ، مصر ( 25 - 26 أكتوبر تشرين الأول 1976 ) [34] . مؤتمر القمة العربي التاسع : بغداد ، العراق ( 2 - 5 نوفمبر تشرين الثاني 1978 ) . مؤتمر القمة العربي العاشر : تونس ، تونس ( 20 - 22 نوفمبر تشرين الثاني 1979 ) . مؤتمر القمة العربي الحادي عشر : عمان ، الأردن ( 25 - 27 نوفمبر تشرين الثاني 1980 ) . مؤتمر القمة العربي الثاني عشر : فاس ، المغرب ( 25 نوفمبر تشرين الثاني 1981 ) . مؤتمر القمة العربي غير العادي الثاني : فاس ، المغرب ( 6 - 9 سبتمبر أيلول 1982 ) . مؤتمر القمة العربي غير العادي الثالث : الدار البيضاء ، المغرب ( 7 - 9 أغسطس آب 1985 ) . مؤتمر القمة العربي غير العادي الرابع : عمان ، الأردن ( 8 - 12 نوفمبر تشرين الثاني 1987 ) . مؤتمر القمة العربي غير العادي الخامس : الجزائر ، الجزائر ( 7 - 9 يونيو حزيران 1988 ) . مؤتمر القمة العربي غير العادي السادس : الدار البيضاء ، المغرب ( 23 - 26 مايو أيار 1989 ) . مؤتمر القمة العربي غير العادي السابع : بغداد ، العراق ( 28 - 30 مايو أيار 1990 ) . مؤتمر القمة العربي غير العادي الثامن : القاهرة ، مصر ( 9 - 10 أغسطس آب 1990 ) . مؤتمر القمة العربي غير العادي التاسع : القاهرة ، مصر ( 15 أغسطس آب 1991 ) [35] . مؤتمر القمة العربي غير العادي العاشر : القاهرة ، مصر ( 22 - 23 يونيو حزيران 1996 ) . مؤتمر القمة العربي غير العادي الحادي عشر : القاهرة ، مصر ( 21 - 22 أكتوبر تشرين الأول 2000 ) . مؤتمر قمة عمان ، الأردن ( 27 - 30 مارس آذار 2001 ) . مؤتمر قمة بيروت ، لبنان ( 27 - 28 مارس آذار 2002 ) . مؤتمر قمة شرم الشيخ ، مصر ( 1 مارس آذار 2003 ) . مؤتمر قمة تونس ، تونس ( 22 - 23 مايو أيار 2004 ) . مؤتمر قمة الجزائر ، الجزائر ( 22 - 23 مارس آذار 2005 ) . مؤتمر قمة الخرطوم ، السودان ( 28 - 29 مارس آذار 2006 ) . مؤتمر قمة الرياض ، المملكة العربية السعودية ( 28 - 29 مارس آذار 2007 ) . مؤتمر قمة دمشق ، الجمهورية العربية السورية ( 29 - 30 مارس آذار 2008 ) . مؤتمر قمة الدوحة ، دولة قطر ( 30 - 31 مارس آذار 2009 ) . مؤتمر قمة سرت ، الجماهيرية العربية الليبية الشعبية الاشتراكية العظمى ( 27 - 28 مارس آذار 2010 ) . [36] . مؤتمر بغداد ، العراق القمة العربية الثالث وعشرون : بغداد ، العراق ( 27 - 29 مارس أذار 2012 ) . مؤتمر الدوحة ، قطر القمة العربية الرابع وعشرون : الدوحة ، قطر ( 26 - 27 مارس أذار 2013 ) . مؤتمر الكويت القمة العربية الخامس وعشرون : الكويت ( 25 - 26 مارس أذار 2014 ) . مؤتمر شرم الشيخ القمة العربية السادسة وعشرون : شرم الشيخ ، مصر ( 28 - 29 مارس أذار 2015 ) . مؤتمر نواكشوط القمة العربية السابعة وعشرون : نواكشوط ، موريتانيا ( 25 - 26 يوليو تموز 2016 ) . مؤتمر عمان للقمة العربية الثامنة والعشرون : عمان ، الأردن ( 23 - 29 مارس أذار 2017 ) . مؤتمر الظهران للقمة العربية التاسعة والعشرون : الظهران ، السعودية ( 14 - 15 أبريل نيسان 2018 ) . مؤتمر تونس للقمة العربية الثلاثون : تونس ، تونس ( مارس أبريل 2019 ) . +question : متى نشأة القمة العربية ؟ +prompt : أجب عن السؤال التالي : متى نشأة القمة العربية ؟ الجواب هو في عام +pred_answer : 1945 ، أي بعد +answer : 29 مايو أيار 1946 + +context : معركة مطار طرابلس إحدى معارك الحرب الأهلية الليبية 2014 . نشبت في يوليو وأغسطس 2014 ، [1] بين جماعة فجر ليبيا الإسلامية[2] ( مكونة من غرفة عمليات ثوار ليبيا وكتائب من مصراتة ) [3] وكتائب الزنتان ، [4] لا سيما كتيبة أمن المطار . فجر ليبيا ربطت اسمها كاسم رمزي للمعركة ، التي دعيت عملية فجر ليبيا . +question : متى دمرة المليشيات مطار طرابلس الدولي في ليبيا ؟ +prompt : أجب عن السؤال التالي : متى دمرة المليشيات مطار طرابلس الدولي في ليبيا ؟ الجواب هو في عام +pred_answer : 2014 ، +answer : 2014 + +context : تقع بين مدينتي فلورنسا وبستويا على مساحة 100 كيلومتر مربع ، بالقرب من جبال يصل ارتفاعها إلى 818 متر ، يخترها نهر نهر بيزنسيو الرافد من نهر أرنو . +question : كم تبلغ مساحة مدينة براتو ؟ +prompt : أجب عن السؤال التالي : كم تبلغ مساحة مدينة براتو ؟ الجواب هو +pred_answer : : 1 . +answer : 100 كيلومتر مربع + +context : زكي نجيب إبراهيم الأرسوزي ( اللاذقية ، يونيو 1899 - دمشق ، 1968 ) ، مفكر وعربي سوري ومن أهم مؤسسي الفكر القومي العربي . +question : متى توفي المفكر زكي الأرسوزي ؟ +prompt : أجب عن السؤال التالي : متى توفي المفكر زكي الأرسوزي ؟ الجواب هو في عام +pred_answer : 1904 +answer : 1968 + +context : إيمانويل كانت أو إيمانويل كانط [ملاحظة 1] هو فيلسوف ألماني من القرن الثامن عشر ( 1724 - 1804 ) . عاش كل حياته في مدينة كونيغسبرغ في مملكة بروسيا . كان آخر الفلاسفة المؤثرين في الثقافة الأوروبية الحديثة . وأحد أهم الفلاسفة الذين كتبوا في نظرية المعرفة الكلاسيكية . كان إيمانويل كانت آخر فلاسفة عصر التنوير الذي بدأ بالمفكرين البريطانيين جون لوك وجورج بيركلي وديفيد هيوم . +question : من هو إيمانويل كانت ؟ +prompt : أجب عن السؤال التالي : من هو إيمانويل كانت ؟ الجواب هو +pred_answer : أنه فيلسوف ألماني ( 1724 - +answer : فيلسوف ألماني من القرن الثامن عشر + +context : شظاظ الضبي التميمي ، ويضرب فيه المثل في ذلك وقالت العرب : ألص من شظاظ ! أبو خراش الهذلي ، واسمه خويلد بن مرة . أشهر صعاليك هذيل شاعر فحل مخضرم أدرك الإسلام فأسلم وحسن إسلامه . قضى طرفا كبيرا من حياته قبل الإسلام ثائرا بدم إخوته بني لبنى . توفي في خلافة عمر من لدغة حية . عروة بن الورد ، أشهرهم على الإطلاق وكان سيدا لهم يلجأون له وقت الحاجة . مات عام 596 م . السليك بن السلكة ، من بني مقاعس من سعد بن زيد مناة من تميم ، توفي نحو 605 م ؟ مرة بن خليف الفهمي وهو صعلوك من شياطين العرب قيل انه من فتاك العرب في الجاهلية تأبط شرا : قدرت وفاته بين عامي 530 م و 535 م . البراض بن قيس الكناني ، وهو من الفتاك وقالت العرب : أفتك من البراض . وهو قاتل عروة الرحال بن عتبة بن جعفر بن كلاب ما أجج حرب الفجار بين كنانة و قيس عيلان . [1] وهو القائل : +question : من هو اشهر شعراء الجاهلية ؟ +prompt : أجب عن السؤال التالي : من هو اشهر شعراء الجاهلية ؟ الجواب هو +pred_answer : امرؤ القيس بن حجر +answer : شظاظ الضبي التميمي + +context : المركب التناسقي[1] أو المعقد التساندي [2] أو المتراكب التناسقي[3] في الكيمياء عبارة عن بنية كيميائية تتألف من ذرة مركزية أو أيون واحد غالبا أو أكثر ، والتي عادة ما تكون عبارة عن فلز ، يحيط بها مجموعة من الذرات والجزيئات ، تدعى عادة بالربيطات . تكون الرابطة في المعقدات عبارة عن رابطة تناسقية . [4] [5] +question : ما هو المركب التناسقي ؟ +prompt : أجب عن السؤال التالي : ما هو المركب التناسقي ؟ الجواب هو +pred_answer : أن كل مركب يتألف من عنصرين أو أكثر ، وكل عنصر يتكون من +answer : بنية كيميائية تتألف من ذرة مركزية أو أيون واحد غالبا أو أكثر + +context : أما اكتشاف النايلون , فقد تم عام 1938 م , وقد شكل هذا التاريخ نقطة البداية لهذا النوع من الصناعات ( أي البلاستيكية بشكل عام ) . مخترع النايلون هو والاس كاروثرز ومساعديه في شركة دو بونت . ففي عام 1928 قام كاروثيرز ( 1896 - 1937 ) والمولود في ولاية أيوا الأمريكية بترك وظيفته كمحاضر للكيمياء العضوية في جامعة هارفارد ليقود فريق الأبحاث بمخابر شركة دوبونت في ديلاوير . وهناك بدأ برنامج أبحاث عن المكاثير بدراسة تشكلها والعوامل المؤثرة على خواصها ، وبغضون عدة سنوات اكتشف هو ومساعدوه أن كوثرة ( بلمرة ) مزيج من حمض الأديبيك و 6 ، 1 - ثنائي أمينو الهكسان ينتج مادة مكثورة يمكن سحبها إلى خيوط حريرية قوية . وتم إطلاق اسم البولي أميد 6 ، 6 على هذا الناتج المكثوري قبل أن يتم إيجاد اسم النايلون 6 ، 6 . كان أول تطبيق عملي للنايلون كمنتج للزبائن في عام 1938 عندما تم استخدامه في صناعة شعيرات فراشي الأسنان . إلا أنه وجد تطبيقا كبيرا له في أكتوبر 1939 عندما استخدم في صناعة الجوارب النسائية وذلك بسبب مشابهته لملمس الحرير ولرخص ثمنه . +question : متى اكتشف النايلون ؟ +prompt : أجب عن السؤال التالي : متى اكتشف النايلون ؟ الجواب هو في عام +pred_answer : 1890 +answer : 1938 + +context : حسب بعض الروايات فقد انتقلت عائلته من مدينة خوارزم[4] في إقليم خراسان الإسلامي ( والتي تسمى ’ ’ خيوا ‘ ‘ في العصر الحالي ، في جمهورية أوزبكستان ) إلى بغداد . وأنجز الخوارزمي معظم أبحاثه بين عامي 813 م و 833 م في دار الحكمة في بغداد ، التي أسسها الخليفة المأمون . حيث أن المأمون عينه على رأس خزانة كتبه ، وعهد إليه بجمع الكتب اليونانية وترجمتها . وقد استفاد الخوارزمي من الكتب التي كانت متوافرة في خزانة المأمون فدرس الرياضيات ، والجغرافية ، والفلك ، والتاريخ ، إضافة إلى إحاطته بالمعارف اليونانية والهندية . ونشر كل أعماله باللغة العربية ، التي كانت لغة العلم في ذلك العصر . ويسميه الطبري في تاريخه : محمد بن موسى الخوارزمي القطربلي ، نسبة إلى قرية قطربل من ضواحي بغداد . وبدأ الخوارزمي كتابه ( الجبر والمقابلة ) بالبسملة ( بسم الله الرحمن الرحيم ) . وتجمع المصادر التأريخية والموسوعات العلمية - كالموسوعة البريطانية ( نسخة الطلاب ) وموسوعة مايكروسوفت إنكارتا وموسوعة جامعة كولومبيا وغيرها على أنه عربي[10] . +question : أين ولد أبوعبدالله الخوارزمي ؟ +prompt : أجب عن السؤال التالي : أين ولد أبوعبدالله الخوارزمي ؟ الجواب هو +pred_answer : في خوار +answer : جمهورية أوزبكستان + +context : يقع جهاز الشرطة الجزائرية تحت قيادة المديرية العامة للأمن الوطني إختصارا DGSN وذلك تحت رعاية وزارة الداخلية ، تم إنشاؤها بموجب مرسوم 22 جويلية 1962 لتخلف المديرية العامة للشرطة الوطنية الفرنسية بعيد استقلال الجزائر عن فرنسا . +question : متى تأسست الشرطة الجزائرية ؟ +prompt : أجب عن السؤال التالي : متى تأسست الشرطة الجزائرية ؟ الجواب هو في عام +pred_answer : 1857 ، +answer : 22 جويلية 1962 + +context : الذرة الشاذة وهي نوع من بوزونات المركبة ، يحدد نوعه من بين بوزونات المركبة الأخرى بحسب الدور الذي يلعبه عدد كم مغزلي في انتماء الجسيم الحامل للعزم المغزلي ونوع توزيع الجسيمات في نظام كبير منها ، أي الدور الذي يلعبه العزم المغزلي في الإحصاء . +question : ما هي الذرة الشاذة ؟ +prompt : أجب عن السؤال التالي : ما هي الذرة الشاذة ؟ الجواب هو +pred_answer : أن كل ذرة تحتوي على نواة تدور حولها إلكترونات سالبة الشحنة ، وتدور حولها أيضا بروتونات موجبة الشحنة . وفي حالة عدم وجود أي من هذه الإلكترونات أو البروتونات ، فإن الذرة تكون مشحونة بشحنة موجبة ( + ) . +answer : نوع من بوزونات المركبة يحدد نوعه من بين بوزونات المركبة الأخرى بحسب الدور الذي يلعبه عدد كم مغزلي في انتماء الجسيم الحامل للعزم المغزلي ونوع توزيع الجسيمات في نظام كبير منها أي الدور الذي يلعبه العزم المغزلي في الإحصاء + +context : أبو الفتح الشهرستاني ( 479 ه - 548 ه = 1086 م - 1153 م ) هو أحد علماء أهل السنة والجماعة الأشاعرة . [1][2] وله عدد مؤلفات مشهورة في التراث الإسلامي . +question : من هو أبو الفتح الشهرستاني ؟ +prompt : أجب عن السؤال التالي : من هو أبو الفتح الشهرستاني ؟ الجواب هو +pred_answer : : محمد بن محمد بن الحسين الشهرستاني +answer : أحد علماء أهل السنة والجماعة الأشاعرة + +context : صفيحة المحيط الهادئ هي الصفيحة التكتونية المحيطية في قاع المحيط الهادئ . وتبلغ مساحتها 103 ملايين متر مربع ؛ مما يجعلها أكبر صفيحة تكتونية . [1] +question : كم تبلغ مساحة صفيحة المحيط الهادي ؟ +prompt : أجب عن السؤال التالي : كم تبلغ مساحة صفيحة المحيط الهادي ؟ الجواب هو +pred_answer : 1 . 2 مليون كيلومتر +answer : 103 ملايين متر مربع + +context : القبة الحديدية ( بالعبرية : ) نظام دفاع جوي بالصواريخ ذات القواعد المتحركة ، طورته شركة رافئيل لأنظمة الدفاع المتقدمة والهدف منه هو اعتراض الصواريخ قصيرة المدى والقذائف المدفعية . في شهر فبراير من عام 2007 اختار وزير الدفاع الإسرائيلي عمير بيرتز نظام القبة الحديدية كحل دفاعي لإبعاد خطر الصواريخ قصيرة المدى عن إسرائيل . [1] ، منذ ذلك الحين بدأ تطور النظام الذي بلغت كلفته 210 مليون دولار بالتعاون مع جيش الدفاع الإسرائيلي وقد دخل الخدمة في منتصف عام 2011 م . +question : متى قامت إسرائيل بصنع قبة الحماية الجوية ؟ +prompt : أجب عن السؤال التالي : متى قامت إسرائيل بصنع قبة الحماية الجوية ؟ الجواب هو في عام +pred_answer : 1948 م +answer : منتصف عام 2011 + +context : بعد إقالة بهيج الخطيب عام 1941 ، في محاولة من قبل الفرنسيين خلال الحرب العالمية الثانية استمالة القوى السياسية الوطنية في سوريا ، عهدت إليه رئاسة الدولة السورية بالوكالة ، جامعا بين منصبي رئاسة الدولة ورئيس الوزراء فشكل وزارته الأولى ، التي كان مهامها الإعداد لعودة الحياة الدستورية إلى البلاد ؛ [6] دمغ حكومته الأولى بعدد من القرارات الهامة ، فأصدر عفوا عاما عن جميع المعتقلين السياسيين الذين أودعتهم فرنسا الفيشية في السجون ، وحفظ البلاد من تبعات انقلاب رشيد عالي الكيلاني في العراق ، غير أن فرنسا انتهجت سياسة المماطلة والتسويف ، وأخيرا استبدلته بعد خمس أشهر بالرئيس السابق تاج الدين الحسني على أنه رئيس جمهورية ، وهو من الشخصيات المحسوبة على أنها مقربة من الانتداب . +question : كم استمرت فترة رئاسة خالد العظم لسوريا ؟ +prompt : أجب عن السؤال التالي : كم استمرت فترة رئاسة خالد العظم لسوريا ؟ الجواب هو +pred_answer : ما يلي : +answer : خمس أشهر + +context : السوق السوداء الاقتصاد التحتي أو السوق السوداء هي السوق التي تتكون من كل التعاملات التجارية التي يتم فيها تجنب كل القوانين الضريبية والتشريعات التجارية . [1][2][3] في المجتمعات الحديثة يغطي الاقتصاد التحتي مجموعة واسعة من النشاطات . و يكون حجم السوق السوداء أصغر في الدول التي تكون الحرية الاقتصادية أكبر ، ويزداد حجمها في المجتمعات التي يكون فيها فساد أكبر . +question : ما هي السوق السوداء ؟ +prompt : أجب عن السؤال التالي : ما هي السوق السوداء ؟ الجواب هو +pred_answer : أن هناك العديد من المواقع الإلكترونية التي تقوم ببيع وشراء العملات الأجنبية مثل الدولار واليورو والج +answer : السوق التي تتكون من كل التعاملات التجارية التي يتم فيها تجنب كل القوانين الضريبية والتشريعات التجارية + +context : سانتياغو دي كالي وتعرف اختصارا ب " كالي " هي ثالث أكبر مدينة في كولومبيا تقع جنوب غرب البلاد في مقاطعة بالي دل كاوكا ويبلغ عدد سكانها 2 . 5 مليون نسمة تقريبا . وقد تأسست المدينة سنة 1536 على يد المستكشف سيباستيان دي بيلالكازار . +question : اين تقع مدينة كالي ؟ +prompt : أجب عن السؤال التالي : اين تقع مدينة كالي ؟ الجواب هو +pred_answer : في شمال غرب +answer : كولومبيا + +context : نقل البيانات أو تراسل البيانات هو إرسال واستقبال البيانات سواء كانت رقمية أو تشابهية عبر قناة اتصال . قد تكون البيانات تتابع من البتات أو إشارة تشابهية مستمرة بالنسبة للزمن ، أما القنوات فتصل بين أطراف الاتصال ، وقد تكون قنوات اتصال نقطة إلى نقطة أو متعددة النقاط . +question : ماهو نقل البيانات ؟ +prompt : أجب عن السؤال التالي : ماهو نقل البيانات ؟ الجواب هو +pred_answer : تحويل البيانات من شكل إلى آخر ، أو تحويلها من صورة إلى أخرى +answer : إرسال واستقبال البيانات سواء كانت رقمية أو تشابهية عبر قناة اتصال + +context : الملك الصالح نجم الدين أيوب بن الملك الكامل محمد بن العادل أبي بكر بن أيوب لقب ب أبي الفتوح ، [1] ( ولد بالقاهرة 1205 م 603 ه - توفى بالمنصورة 22 نوفمبر 1249 م 647 ه ) . سابع سلاطين بني أيوب بمصر ، [2] حكم من 1240 م إلى 1249 م . أنشأ المماليك البحرية بمصر ، ودخل في صراعات مع الملوك الأيوبيين في الشام ، وفي آخر سنة من حكمه تعرضت مصر لحملة صليبية ضخمة عرفت بالحملة الصليبية السابعة بقيادة لويس التاسع ملك فرنسا . توفي الصالح أيوب أثناء احتلال الفرنج لدمياط وخلفته أرملته شجرة الدر التي تحملت بجسارة عبء الدفاع عن مصر . +question : أين ولد الصالح أيوب ؟ +prompt : أجب عن السؤال التالي : أين ولد الصالح أيوب ؟ الجواب هو +pred_answer : في قرية +answer : القاهرة + +context : معركة ملاذكرد ( بالتركية : Malazgirt Meydan Muharebesi ) هي معركة دارت بين الإمبراطورية البيزنطية والسلاجقة الأتراك في 26 أغسطس 1071 بالقرب من ملاذكرد ( ملازغرد حاليا في محافظة موش ، تركيا ) . لعبت الخسارة الحاسمة للجيش البيزنطي وأسر الإمبراطور رومانوس الرابع ديوجينيس[1] دورا مهما في ضعضعة الحكم البيزنطي في الأناضول وأرمينيا ، [2] وسمحت بالتتريك التدريجي للأناضول . +question : متى وقعت معركة ملاذكرد ؟ +prompt : أجب عن السؤال التالي : متى وقعت معركة ملاذكرد ؟ الجواب هو في عام +pred_answer : 1071 � +answer : 26 أغسطس 1071 + +context : جامعة ينا أو جامعة فريدريش شيلر إحدى أشهر الجامعات الألمانية وأكثرها عراقة ، تأسست سنة 1558 في مدينة ينا . [1][2][3] وفي عام 1934 تقرر تسمية الجامعة باسم فريدريش شيلر الذي مثل أحد أشهر الأساتذة الذي مروا على الجامعة ، وقد كان شيلر بدأ التدريس في الجامعة بدءا من 1787 وذلك على إثر توصية خاصة من غوته . +question : في أي عام تأسست جامعة ينا الألمانية ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسست جامعة ينا الألمانية ؟ الجواب هو في عام +pred_answer : 1866 +answer : 1558 + +context : جزيرة مافيا هي جزيرة تابعة لجمهورية تنزانيا المتحدة ، وهي واحدة من جزر البهار التنزانية ( جزيرة أنغوجا و جزيرة بمبا ) ولكنها ليست تابعة لأرخبيل زنجبار . كما أنها واحدة من المقاطعات الست لإقليم باواني لتنزانيا . +question : أين تقع جزيرة مافيا ؟ +prompt : أجب عن السؤال التالي : أين تقع جزيرة مافيا ؟ الجواب هو +pred_answer : في خليج المكسيك +answer : جمهورية تنزانيا المتحدة + +context : القرنية عبارة عن نسيج شفاف مقوس موجود في العين . [1][2][3] تتكون من خمس طبقات ، يفصل بينها غشائان . ينكسر الضوء عند القرنية قبل أن يدخل العين . لا تحتوي على الأوعية الدموية ، وتأخذ ما تحتاجه من الأكسجين مباشرة من الهواء الجوي ، فهي تقع خارج العين . يمكن إعادة تشكيل القرنية عن طريق العمليات الجراحية مثل الليزك . [4] +question : ما هي القرنية ؟ +prompt : أجب عن السؤال التالي : ما هي القرنية ؟ الجواب هو +pred_answer : أن القرنية هي الجزء الأمامي الشفاف من العين +answer : نسيج شفاف مقوس موجود في العين + +context : إربد مدينة أردنية ، ومركز محافظة إربد في شمال الأردن وأكبر مدنها . تقع على بعد 71 كيلومترا شمال العاصمة عمان ، كما تبعد حوالي 20 كم إلى الجنوب من الحدود السورية الأردنية . وتعد ثالث أكبر مدن المملكة بعد العاصمة الأردنية والزرقاء بالنسبة لعدد السكان ، حيث يبلغ عدد سكان المدينة وضواحيها أكثر 530 ألف نسمة حسب تعداد السكان لسنة 2017 , وتقدر مساحة المدينة مع ضواحيها بحوالي 30 كيلو متر مربع . تقع المدينة في موقع متوسط بالنسبة لباقي مناطق المحافظة ؛ إذ تقع على دائرة عرض 32 شمالا وخط طول 35 شرقا . تتميز الطبيعة الجغرافية للمدينة بالطبيعة السهلية ، وإن كانت المناطق الغربية منها ذات طبيعة أقرب للطبيعة الجبلية [1] . +question : ماهى مساحة إربد الأردنية ؟ +prompt : أجب عن السؤال التالي : ماهى مساحة إربد الأردنية ؟ الجواب هو +pred_answer : أن مدينة إربد هي +answer : 30 كيلو متر مربع + +context : جغرافية الباز الاشهب قراءة ثانية في سيرة الشيخ عبد القادر الجيلاني ، وتحقيق محل ولادته وفق منهج البحث العلمي ( دراسة تاريخية ) للباحث العراقي جمال الدين فالح الكيلاني ، مراجعة وتقديم المؤرخ عماد عبد السلام رؤوف . +question : من هو مؤلف كتاب جغرافية الباز الأشهب ؟ +prompt : أجب عن السؤال التالي : من هو مؤلف كتاب جغرافية الباز الأشهب ؟ الجواب هو +pred_answer : العالم الجغرافي الشهير ( +answer : جمال الدين فالح الكيلاني + +context : جان دارك [1] ( بالفرنسية : Jeanne d ' Arc ) الملقبة بعذراء أورليان ( بالفرنسية : La Pucelle d ' Orl ans ) ، ولدت لعائلة من الفلاحين في الوسط الشرقي من فرنسا عام 1412 ، [2] وتوفيت في 30 مايو 1431 ، وتعد بطلة قومية فرنسية وقديسة في الكنيسة الرومانية الكاثوليكية . ادعت جان دارك الإلهام الإلهي ، وقادت الجيش الفرنسي إلى عدة انتصارات مهمة خلال حرب المئة عام ، ممهدة بذلك الطريق لتتويج شارل السابع ملكا على البلاد . قبض عليها بعد ذلك وأرسلت إلى الإنجليز مقابل المال ، وحوكمت بتهمة " العصيان والزندقة " ، [3] ثم أعدمت حرقا بتهمة الهرطقة عندما كانت تبلغ 19 عاما . [4] +question : متى تم إعدام القديسة جان دارك حرقا بالنار ؟ +prompt : أجب عن السؤال التالي : متى تم إعدام القديسة جان دارك حرقا بالنار ؟ الجواب هو في عام +pred_answer : 1431 � +answer : 30 مايو 1431 + +context : ينتمي سكان أيرلندا إلى قومية الأيريش Irish ويسمون بي أيريش - مان ، وهم ينحدرون من الأصول الكلتية . أصول معظم السكان هي كلتية ، بينما هناك أيضا أصول إنجليزية . ترتفع كثافتهم في الشرق والجنوب ، وحوالي ثلث السكان في منطقة العاصمة ، والنشاط البشري يتمثل في الزراعة والرعي ، والتعدين ، والأخشاب ، وبعض الصناعات الخفيفة ، وأهم الغلات الزراعية القمح ، والشعير ، والشوفان ، والبنجر ، والثروة الحيوانية تتكون من الأبقار ( 7 ملايين رأس ) والأغنام ( 4 ملايين رأس ) ، وتنتج الفحم والغاز الطبيعي ، والرصاص ، والزنك ، والفضة . حيث أن عدد سكان ايرلندا حسب التعداد السكاني لعام 2018 بلغ 4 , 857 , 000 مليون نسمة [2] . +question : ماهو تعداد سكان آيرلندا الجنوبية ؟ +prompt : أجب عن السؤال التالي : ماهو تعداد سكان آيرلندا الجنوبية ؟ الجواب هو +pred_answer : أن عدد السكان في آيرلندا +answer : 4 857 000 مليون + +context : الفخر والازدراء أو الكبرياء والتحامل [1] تم نشرها لأول مرة في 28 كانون الثاني يناير 1813 م ، وهي الأكثر شهرة من روايات جين اوستن واحدة من أولى الروايات الكوميديه الرومانسيه في تاريخ الرواية . +question : من صاحب " قصة كبرياء وتحامل " ؟ +prompt : أجب عن السؤال التالي : من صاحب " قصة كبرياء وتحامل " ؟ الجواب هو +pred_answer : الكاتب المصري الراحل +answer : جين اوستن + +context : هيرونيموس بوس ( 1450 - 9 أغسطس 1516 ) رسام هولندي من القرنين الخامس عشر والسادس عشر . العديد من أعماله تصور الخطيئة والفشل الأخلاقي الإنساني . [1] +question : من هو صاحب لوحة " حديقة المباهج الأرضية " ؟ +prompt : أجب عن السؤال التالي : من هو صاحب لوحة " حديقة المباهج الأرضية " ؟ الجواب هو +pred_answer : جورج أورويل ، +answer : هيرونيموس بوس + +context : علم التعمية أو علم التشفير أو الكريبتولوجيا هو علم وممارسة إخفاء البيانات ؛ أي بوسائل تحويل البيانات ( مثل الكتابة ) من شكلها الطبيعي المفهوم لأي شخص إلى شكل غير مفهوم بحيث يتعذر على من لا يملك معرفة سرية محددة معرفة فحواها . يحظى هذا العلم اليوم بمكانة مرموقة بين العلوم ، إذ تنوعت تطبيقاته العملية لتشمل مجالات متعددة نذكر منها : المجالات الدبلوماسية والعسكرية ، والأمنية ، والتجارية ، والاقتصادية ، والإعلامية ، والمصرفية والمعلوماتية . في شكلها المعاصر ، التعمية علم من أفرع الرياضيات وعلوم الحوسبة . +question : ما هو علم التشفير ؟ +prompt : أجب عن السؤال التالي : ما هو علم التشفير ؟ الجواب هو +pred_answer : أن كل شيء في +answer : علم وممارسة إخفاء البيانات + +context : يمتدد الساحل السوري من محافظة طرطوس جنوبا حتى رأس البسيط شمالا في محافظتين رئيستين هما : اللاذقية وطرطوس ، وبطول يمتدد ب 180 كلم . و يساوي 35 ميلا بحريا ( 65 كلم ) تقريبا من شاطئ البحر الأبيض المتوسط . ويضم الساحل السوري مواقع سياحية وأثرية وأماكن اصطياف عديدة ، حيث أقيمت فيها عشرات المنتجعات والفنادق مختلفة المستويات والمطاعم المتنوعة وأماكن التنزه والملاهي والمقاهي . +question : ما طول سواحل سوريا ؟ +prompt : أجب عن السؤال التالي : ما طول سواحل سوريا ؟ الجواب هو +pred_answer : أن الساحل السوري +answer : 180 كلم + +context : ميان محمد نواز شريف المعروف ب < b data - parsoid = ' { " dsr " : [2771 , 2786 , 3 , 3] } ' > نواز شريف ( بالأردو : م ا محمد نواز شر ف ) ( ولد 25 ديسمبر ، 1949 في لاهور ) هو سياسي ورجل أعمال باكستاني . ورئيس حزب الرابطة الإسلامية الباكستانية ( ن ) ، رئيس وزراء باكستان لثلاث مرات غير متتالية ، أول فترة كانت من 1 نوفمبر 1990 إلى 18 يوليو 1993 ، والثانية من 17 فبراير 1997 إلى 12 أكتوبر 1999 عندما أطيح به في انقلاب عسكري أبيض قاده برويز مشرف ، ثم نفي خارج بلاده بعد ان حكم عليه بالسجن مدى الحياة بتهمة الخطف والإرهاب لأنه رفض السماح لطائرة تقل مشرف بالهبوط في باكستان ، كما أدين بتهم تتعلق بالفساد ، وحرم من كافة الأنشطة السياسية . عاد إلى باكستان منهيا منفاه في السعودية في 25 نوفمبر تشرين الثاني 2007 ، بعد أن أصدرت المحكمة الدستورية العليا بإسلام آباد قرارا يسمح بعودته وأسرته للبلاد . عاد لمنصب رئاسة الوزراء عقب انتخابه من قبل البرلمان الباكستاني في 4 يونيو 2013 بعد نيله 244 صوتا في البرلمان . [1] وبذلك تولى رئاسة الوزراء للمرة الثالثة والأخيرة من 7 يونيو 2013 م إلى 28 يوليو 2017 ، عندما استقال من منصبه اثر أدانة المحكمة العليا إياه بتهم فساد متعلقة بتسريبات أوراق بنما والتهرب الضريبي والحكم بعدم أهليته للبقاء في منصبه ، حكم عليه في 5 يوليو 2018 بالسجن لمدة 10 سنوات بتهم الفساد . +question : من هو نواز شريف ؟ +prompt : أجب عن السؤال التالي : من هو نواز شريف ؟ الجواب هو +pred_answer : أنه رئيس وزراء باكستان الحالي ، وهو +answer : از شر ف ولد 25 ديسمبر 1 + +context : في فيزياء الجسيمات ، المادة المضادة هي امتداد لمفهوم الجسيم المضاد للمادة ، حيث تتكون المادة المضادة من جسيمات مضادة بنفس الطريقة التي تتكون منها المادة العادية من جزيئات . على سبيل المثال ، الإلكترون المضاد ( البوزيترون ، هو إلكترون ذو شحنة موجبة ) والبروتون المضاد ( بروتون ذو الشحنة سالبة ) يمكن أن يشكلوا ذرة مضاد الهيدروجين بنفس الطريقة التي يشكل بها الإلكترون والبروتون ذرة هيدروجين عادية . وعلاوة على ذلك ، فإن خلط المادة مع المادة المضادة يؤدي إلى فناء كل منهما وبنفس الطريقة تفنى الجسيمات والجسيمات المضادة ، مما يؤدي ظهور طاقة كبيرة من الفوتونات ( أشعة غاما ) أو غيرها من أزواج من الجسيمات والجسيمات المضادة . +question : ما هي المادة المضادة من جسيمات المضادة في الفيزياء ؟ +prompt : أجب عن السؤال التالي : ما هي المادة المضادة من جسيمات المضادة في الفيزياء ؟ الجواب هو +pred_answer : أنه لا توجد مادة مضادة على الإطلاق ، ولا يوجد أي جسيم مضاد للمادة . ولكن هناك بعض الجسيمات التي يمكن أن تكون موجودة +answer : امتداد لمفهوم الجسيم المضاد للمادة حيث تتكون المادة المضادة من جسيمات مضادة بنفس الطريقة التي تتكون منها المادة العادية من جزيئات + +context : أرنولد ألويس شوارزنيجر ( ولد في 8 أغسطس 1947 ، في ستيريا ، النمسا ) لاعب كمال أجسام ، وممثل ، وسياسي جمهوري أمريكي من أصل نمساوي . حاكم ولاية كاليفورنيا الأمريكية الثامن والثلاثون . +question : متى ولد أرنولد شوارزنيجر ؟ +prompt : أجب عن السؤال التالي : متى ولد أرنولد شوارزنيجر ؟ الجواب هو في عام +pred_answer : 1954 ، عندما +answer : 8 أغسطس 1947 + +context : إم بي سي 3 هي قناة عربية سعودية للناشئين تابعة لمجموعة مركز تلفزيون الشرق الأوسط ( MBC ) . بدأت البث في 8 ديسمبر 2004 ( 12 8 2004 ) بعد أن أدركت مجموعة MBC بأن 40 % من مشاهديها أعمارهم تقل عن 15 عاما . تبث القناة المسلسلات الكرتونية الشهيرة الناطقة باللغة العربية ومن بين تلك المسلسلات هي : يوغي ( YU - GI - OH ) ، ابطال النينجا , يوغي GX , مغامرات جاكي شان , ميغا مان محارب النت , وفيرلي أود بارنتس ( ( والذي لم يعد يعرض ) ) , جنود السايبورغ وبز يطير وتعرض أيضا مسلسلات الأطفال المترجمة وهي : ذاتس سو رايفن ( That ' s So Raven ) , الليث الأبيض ( Kimba The White Lion ) , هانا مونتانا ( Hannah Montana ) و باور رينجرز ( Power Rangers ) . واي كارلي و زيك ولوثر وفكتورياس كما تنتج القناة بنفسها بعض البرامج مثل قولوا لي كيف وعيش سفاري . وتعمل في أذاعة القناة المذيعة دانية شافعي , والمذيعة عزة زعرور والمذيعة اصالة كامل والمذيع مهند بخيت بدأ أول بث لقناة أم بي سي 3 في 8 ديسمبر 2004 وكانت أيضا تعرض لساعتين في قناة أم بي سي 1 أول أسبوع لها ، وفي بداية الأشهر الأولى للقناة ، كانت القناة لا تعمل في أوقات الليل المتأخرة وتستبدل المسلسلات الكرتونية بأغاني وصورة شعار أم بي سي 3 وهي نائم ، وأول مذيعة لقناة أم بي سي 3 هي دانية شافعي وفي بداية صيف 2005 عمل حسن عبد الله مذيع آخر لقناة أم بي سي 3 ، وبعد مرور على القناة ثلاث سنوات رأت القناة أن تجعل من هذه الذكرى الثالثة مميزة جدا لهذا قامت القناة بإدخال فرد ثالث للإم بي سي 3 دخلت عزة زعرور كمذيعة ثالثة للقناة وبعدها ببداية 2012 انضمت اصالة كامل لطاقم المذيعين ومن ثم انضم المذيع مهند بخيت إلى طاقم المذيعين . +question : متى أنشأت أم بي سي 3 ؟ +prompt : أجب عن السؤال التالي : متى أنشأت أم بي سي 3 ؟ الجواب هو في عام +pred_answer : 2005 ، أي +answer : 8 ديسمبر 2004 + +context : ناوسيكا أميرة وادي الرياح ( باليابانية : , كازي نو تاني نو ناوشيكا ) و فيلم رسوم متحركة ياباني ( أنمي ) من أنتج عام 1984 قام بإخراجه هاياو ميازاكي . يستند الفيلم إلى مانغا تحمل نفس الاسم من تأليفه . تم إنتاج الفيلم قبل إنشاء إستديو جيبلي . +question : من هي الشركة المنتجة لمسلسل الأنمي ناوسيكا أميرة وادي الرياح ؟ +prompt : أجب عن السؤال التالي : من هي الشركة المنتجة لمسلسل الأنمي ناوسيكا أميرة وادي الرياح ؟ الجواب هو +pred_answer : شركة نيبون أنيميشن +answer : إستديو جيبلي + +context : دي ستايل ( بالهولندية : De Stijl ؛ بالإنجليزية : The Style ) أيضا تعرف ب " Neoplasticism " مدرسة فنية تأسست في هولندا في عام 1917 . مصطلح De Stijl يشير بشكل ضيق إلى الأعمال التي ظهرت ما بين 1917 - 1931 والتي شيدت في هولندا . [1][2] De Stijl أيضا هو اسم صحيفة هولندية نشرها الرسام والمصمم والكاتب والناقد ثيو فان دوسبرغ ( 1883 - 1931 ) . ظهرت بوادر هذه الحركة من بعض الفنانين امثال موندريان وبعض المعماريين ، الذين أخذوا على عاتقهم الفلسفة الفنية التي شكلت أساسا لعمل الفريق والمعروف باسم neoplasticism — الفن التشكيلي الجديد أو ( Nieuwe Beelding بالهولندية ) . +question : ما هي مدرسة دي ستايل ؟ +prompt : أجب عن السؤال التالي : ما هي مدرسة دي ستايل ؟ الجواب هو +pred_answer : أن هذه المدرسة تعتمد على البساطة في التصميم ، +answer : مدرسة فنية تأسست في هولندا في عام 1917 + +context : صحار احدى ولايات محافظة شمال الباطنة في منطقة الباطنة في الجزء الشمالي من سلطنة عمان ، تبعد عن العاصمة مسقط 234 كم شمالا . وهي العاصمة القديمة لعمان ، وصحار مدينة تعتمد على صيد الأسماك والتجارة وايضا الزراعة ، ولكن تعرف في الوقت الحالي بأنها محور الصناعة العمانية ، حيث التطور القوي في ميناء صحار الصناعي . +question : أين تقع مدينة صحار ؟ +prompt : أجب عن السؤال التالي : أين تقع مدينة صحار ؟ الجواب هو +pred_answer : في محافظة شمال الباطنة ، وهي +answer : الجزء الشمالي من سلطنة عمان + +context : الصحافة الصفراء هي صحافة غير مهنية تهدف إلى إثارة الرأي العام لزيادة عدد المبيعات وإشاعة الفضائح بإستخدام المبالغة أو الإنحياز ، ساعد علي نشوئها الناشر والصحفي ويليام راندولف هيرست ( 1863 - 1951 ) ، وقد كانت له في كل ناحية من نواحي الولايات المتحدة الأمريكية صحيفة أو مجلة . انتهج في نشر الأخبار نهجا مثيرا ، فأظهر الفضائح والجرائم مما ساعد علي نشوء الصحافة الصفراء . سميت بالصحافة الصفراء نظرا لأنها كانت تطبع على أوراق صفراء رخيصة الثمن وقد تكون الصحف الصفراء يومية أو أسبوعية أو شهرية أو دورية . +question : ما هي الصحافة الصفراء ؟ +prompt : أجب عن السؤال التالي : ما هي الصحافة الصفراء ؟ الجواب هو +pred_answer : أن الصحافة الصفراء هي تلك التي تعتمد على الإثارة الرخيصة من خلال نشر أخبار كاذبة أو مبالغ فيها بهدف تحقيق +answer : صحافة غير مهنية تهدف إلى إثارة الرأي العام لزيادة عدد المبيعات وإشاعة الفضائح بإستخدام المبالغة أو الإنحياز + +context : أعلن عن تأسيسها الشيخ أحمد ياسين بعد حادث الشاحنة الصهيونية في 6 كانون الأول 1987 م ، حيث اجتمع سبعة من كوادر وكبار قادة العمل الدعوي الإسلامي معظمهم من الدعاة العاملين في الساحة الفلسطينية وهم : أحمد ياسين ، وإبراهيم اليازوري ، ومحمد شمعة ( ممثلو مدينة غزة ) ، وعبد الفتاح دخان ( ممثل المنطقة الوسطى ) ، وعبد العزيز الرنتيسي ( ممثل خان يونس ) ، وعيسى النشار ( ممثل مدينة رفح ) ، وصلاح شحادة ( ممثل منطقة الشمال ) ، وكان هذا الاجتماع إيذانا بانطلاق حركة حماس وبداية الشرارة الأولى للعمل الجماهيري الإسلامي ضد الاحتلال الذي أخذ مراحل متطورة لاحقا . [5] +question : متى قامت حركة حماس ؟ +prompt : أجب عن السؤال التالي : متى قامت حركة حماس ؟ الجواب هو في عام +pred_answer : 1987 م +answer : 6 كانون الأول 1987 + +context : الفلبين دولة رئاسية وحدوية ( باستثناء منطقة مندناو ذاتية الحكم إلى حد كبير عن الحكومة الوطنية ) ، حيث يشغل الرئيس منصب رئيس الدولة ورئيس الحكومة والقائد العام للقوات المسلحة . يتم انتخاب الرئيس بالاقتراع الشعبي لولاية واحدة مدتها ست سنوات ، وهي الفترة التي يعين ويترأس فيها مجلس الوزراء . [41] +question : ما نظام الحكم في الفلبين ؟ +prompt : أجب عن السؤال التالي : ما نظام الحكم في الفلبين ؟ الجواب هو +pred_answer : النظام الملكي الدستوري ، وهو +answer : دولة رئاسية وحدوية + +context : حركة 8 شباط 1963 أو ثورة رمضان هي حركة مسلحة أطاحت بنظام حكم رئيس الوزراء في العراق العميد عبد الكريم قاسم ، فهي حركة كما يسميها الباحثون المحايدون وثورة كما أسماها قادتها ومؤيدوها ، وانقلاب كما أسماها معارضوها . +question : ما هي حركة 8 شباط 1963 ؟ +prompt : أجب عن السؤال التالي : ما هي حركة 8 شباط 1963 ؟ الجواب هو +pred_answer : أن هذه الحركة جاءت ردا على انقلاب 17 تموز 1968 الذي قام به حزب +answer : حركة مسلحة أطاحت بنظام حكم رئيس الوزراء في العراق العميد عبد الكريم قاسم + +context : الفضاء الإلكتروني هو الوسط الذي تتواجد فيه شبكات الحاسوب ويحصل من خلالها التواصل الإلكتروني . [1][2][3] +question : ما هو الفضاء الإلكتروني ؟ +prompt : أجب عن السؤال التالي : ما هو الفضاء الإلكتروني ؟ الجواب هو +pred_answer : أن الإنترنت هي شبكة عالمية من الشبكات الحاسوبية المترابطة ، والتي +answer : الوسط الذي تتواجد فيه شبكات الحاسوب ويحصل من خلالها التواصل الإلكتروني + +context : رئيس جمهورية سنغافورة هو رئيس الدولة . في نظام وستمنستر البرلماني ، والذي يحكم نفسه سنغافورة ، ورئيس الوزراء هو رئيس الحكومة في حين أن موقف الرئيس شرفي إلى حد كبير . قبل عام 1993 ، تم اختيار رئيس سنغافورة من قبل البرلمان . بعد التعديلات التي أدخلت على الدستور الذي سن في عام 1991 ، أصبح مكتب الرئاسة انتخابه شعبيا . وكان أول رئيس منتخب من قبل غالبية الشعب اونج تنغ تشونغ ، الذي خدم من 1 سبتمبر 1993 إلى 31 أغسطس 1999 . الرئيس الحالي لسنغافورة هو حليمة يعقوب . +question : من هو رئيس سنغافورة ؟ +prompt : أجب عن السؤال التالي : من هو رئيس سنغافورة ؟ الجواب هو +pred_answer : لي كوان يو +answer : حليمة يعقوب + +context : الفهد أو النمر الصياد[1][2][3] هو نوع فريد من فصيلة السنوريات ، يتميز بسرعة فائقة لا ينازعه فيها أحد من أبناء فصيلته ولا أي نوع آخر من الدواب ، وبذلك فهو يعتبر أسرع حيوان على وجه الأرض ، إلا أن تلك السرعة الفائقة يقابلها ضعف بنيوي كبير عند المقارنة بأنواع أخرى من هذه الفصيلة ، إذ أن تأقلم أجساد هذه الحيوانات للعدو جعل منها نحيلة لا تقوى على قتال الضواري الأكبر حجما والطرائد الأضخم قدا . +question : ما أسرع حيوان في العالم ؟ +prompt : أجب عن السؤال التالي : ما أسرع حيوان في العالم ؟ الجواب هو +pred_answer : الحوت الأزرق +answer : الفهد + +context : قادت انتخابات 1990 إلى تكوين مجلس برلماني يهيمن عليه ثلاثة أحزاب على أساس عرقي وطائفي ، وقد شكلت تحالفا فضفاضا لطرد الشيوعيين من السلطة . ثم أعلنت كلا من كرواتيا واعقبتها سلوفينيا الاستقلال ، فالحرب التي تلت ذلك وضعت البوسنة والهرسك والشعوب الثلاثة المكونة لها في موقف حرج . وقد كان هناك انقسام كبير سرعان ماتطور ووضع مسألة ما إذا كان البقاء ضمن الإتحاد اليوغوسلافي ( ويؤيده الصرب بشكل ساحق ) أو طلب الاستقلال ( ويؤيده البوشناق والكروات بشكل ساحق ) . فأعضاء البرلمان الصرب ، وخاصة من حزب الصربي الديموقراطي ، تركوا البرلمان المركزي في سراييفو وشكلوا برلمانا أسموه المجلس الوطني لصرب البوسنة ولهرسك وذلك في 24 أكتوبر 1991 ، مما أنهى التعاون العرقي الثلاثي الذي حكم البلاد في أعقاب انتخابات 1990 ، وهذا المجلس انشأ جمهورية صرب البوسنة والهرسك يوم 9 يناير 1992 ، ثم غير الاسم إلى الجمهورية الصربية في أغسطس 1992 . وفي 18 نوفمبر 1991 كان فرع البوسنة والهرسك للحزب الحاكم في كرواتيا المسمى الاتحاد الديموقراطي الكرواتي ( HDZ ) أعلن بإنشاء مايسمى بالمجتمع الكرواتي للبوسنة والهرسك وهو منفصل سياسيا وثقافيا واقتصاديا بكامل أراضيه عن إقليم البوسنة والهرسك وله جيش خاص به يسمى بمجلس الدفاع الكرواتي[1] . وهو مالم تعترف به الحكومة البوسنية . واعلنت المحكمة الدستورية البوسنية مرتين بأن تلك الجمهورية غير شرعية ، بالمرة الأولى بتاريخ 14 سبتمبر 1992 والثانية في 20 يناير 1994[2][3] . +question : في أي عام تأسس جيش جمهورية صرب البوسنة ؟ +prompt : أجب عن السؤال التالي : في أي عام تأسس جيش جمهورية صرب البوسنة ؟ الجواب هو في عام +pred_answer : 1992 . +answer : 1992 + +context : الجماع كما يعرف بأسماء المضاجعة أو الوطء[1] أو المواقعة[2] هو العملية الجنسية التي تقوم أساسا على إدخال القضيب منتصبا إلى داخل المهبل بهدف الحصول على المتعة الجنسية أو للتكاثر أو كليهما . [3] كما تعرف هذه العملية باسم الجماع المهبلي أو الجنس المهبلي . [4][5] توجد الغريزة الجنسية في الكائنات الحية الراقية والغرض منها التكاثر وحفظ النوع ، أما في الكائنات الحية البدائية فيتم التكاثر غالبا بصورة لاجنسية . +question : ماهو الجنس لغة ؟ +prompt : أجب عن السؤال التالي : ماهو الجنس لغة ؟ الجواب هو +pred_answer : ( مذكر - مؤنث ) ، أما اصطلاحا فالجواب هو ( ذكر - أنثى ) .والجواب أيضا هو أن +answer : العملية الجنسية التي تقوم أساسا على إدخال القضيب منتصبا إلى داخل المهبل بهدف الحصول على المتعة الجنسية أو للتكاثر أو كليهما + +context : جامعة الدول العربية هي منظمة إقليمية تضم دولا في آسيا وأفريقيا ويعتبر أعضاؤها دولا عربية . ينص ميثاقها على التنسيق بين الدول الأعضاء في الشؤون الاقتصادية ، ومن ضمنها العلاقات التجارية ، الاتصالات ، العلاقات الثقافية ، الجنسيات ووثائق وأذونات السفر والعلاقات الاجتماعية والصحة . المقر الدائم لجامعة الدول العربية يقع في القاهرة ، عاصمة مصر ( تونس من 1979 إلى 1990 ) . وأمينها العام الحالي هو أحمد أبو الغيط . المجموع الكلي لمساحة الدول الأعضاء في المنظمة 13 ، 953 ، 041 كم ، وتشير إحصاءات 2007 إلى وجود 339 , 510 , 535 نسمة فيها ، حيث أن مجموع مساحة الوطن العربي يجعل مساحته الثاني عالميا بعد روسيا ومجموع سكانها هو الرابع عالميا بعد الصين ، الهند والاتحاد الأوروبي . +question : اين مقر الجامعة العربية ؟ +prompt : أجب عن السؤال التالي : اين مقر الجامعة العربية ؟ الجواب هو +pred_answer : في القاهرة +answer : القاهرة + +context : مقاطعة داون هي إحدى مقاطعات أيرلندا الشمالية الستة . [1][2] +question : أين تقع مقاطعة داون ؟ +prompt : أجب عن السؤال التالي : أين تقع مقاطعة داون ؟ الجواب هو +pred_answer : في شمال شرق +answer : أيرلندا الشمالية + +context : إييتشيرو أودا ( أودا إييتشيرو ) هو مانغاكا ياباني ولد في 1 يناير 1975 في كوماموتو . والمعروف أيضا باسم منشئ المانغا الأكثر مبيعا على وجه الكرة الأرضية " ون بيس " . +question : من هو مؤلف مانغا ون بيس ؟ +prompt : أجب عن السؤال التالي : من هو مؤلف مانغا ون بيس ؟ الجواب هو +pred_answer : " مونكي دي لوفي " +answer : إييتشيرو أودا + +context : تقنية الجزيئات متناهية الصغر[1] أو تقنية الصغائر أو تقنية النانو هي العلم الذي يهتم بدراسة معالجة المادة على المقياس الذري والجزيئي . [2][3][4] تهتم تقنية النانو بابتكار تقنيات ووسائل جديدة تقاس أبعادها بالنانومتر وهو جزء من الألف من الميكرومتر أي جزء من المليون من الميليمتر . عادة تتعامل تقنية النانو مع قياسات بين 1 إلى 100 نانومتر أي تتعامل مع تجمعات ذرية تتراوح بين خمس ذرات إلى ألف ذرة . وهي أبعاد أقل كثيرا من أبعاد البكتيريا والخلية الحية . حتى الآن لا تختص هذه التقنية بعلم الأحياء بل تهتم بخواص المواد ، وتتنوع مجالاتها بشكل واسع من أشباه الموصلات إلى طرق حديثة تماما معتمدة على التجميع الذاتي الجزيئي . هذا التحديد بالقياس يقابله اتساع في طبيعة المواد المستخدمة ، فتقنية النانو تتعامل مع أي ظواهر أو بنايات على مستوى النانوالصغير . مثل هذه الظواهر النانوية يمكن أن تتضمن تقييد كمي التي تؤدي إلى ظواهر كهرومغناطيسية وبصرية جديدة للمادة التي يبلغ حجمها بين حجم الجزيء وحجم المادة الصلبة المرئي . تتضمن الظواهر النانوية أيضا تأثير جيبس - تومسون - وهو انخفاض درجة انصهار مادة ما عندما يصبح قياسها نانويا ، اما عن بنايات النانو فأهمها أنابيب النانوالكربونية . +question : ما هي تقنية الجزيئات متناهية الصغر أو النانو ؟ +prompt : أجب عن السؤال التالي : ما هي تقنية الجزيئات متناهية الصغر أو النانو ؟ الجواب هو +pred_answer : أن هذه التقنية يمكن استخدامها في العديد من المجالات ، بما في ذلك الطب +answer : العلم الذي يهتم بدراسة معالجة المادة على المقياس الذري والجزيئي + +context : ولد محمد بن العربي بن محمد أبي شنب يوم الثلاثاء 20 رجب 1286 ه ، الموافق 26 أكتوبر 1869 م ، بمنطقة " عين الذهب " التي تبعد بحوالي ثلاث كيلومترات عن وسط المدية[2] ، من عائلة تجمع بين الأصلين التركي والجزائري ، وهو النوع الذي يعرف في التاريخ ب " زيجة الكراغلة " [3] ، وهي عقود الزواج التي تجمع بين تركي وجزائرية وهي أحد العائلات التركية المقيمة في الجزائر التي نجت من الطرد إلى " أزمير " التركية بعد الاحتلال الفرنسي [3] . +question : متى ولد محمد بن أبي شنب ؟ +prompt : أجب عن السؤال التالي : متى ولد محمد بن أبي شنب ؟ الجواب هو في عام +pred_answer : 1160 � +answer : 26 أكتوبر 1869 + +context : حمض الهيدروكلوريك ( أو حمض كلور الماء ؛ وسماه جابر بن حيان روح الملح[ع 1] ) هو حمض معدني قوي ، وهو عبارة عن محلول مائي لغاز كلوريد الهيدروجين HCl ؛ يعد حمض الهيدروكلوريك المكون الرئيس للعصارة الهضمية ، وله نطاق استخدام واسع في الصناعة . التعامل مع حمض الهيدروكلوريك يجب أن يتم بحرص شديد مع اتخاذ احتياطات الأمان الملائمة حيث أنه سائل أكال ، ويطلق على أملاحه اسم الكلوريدات ، وعندما يكون التفاعل مع قاعدة عضوية يشكل أملاح الهيدروكلوريدات . +question : ما هي أملاح حمض الهيدروكلوريك ؟ +prompt : أجب عن السؤال التالي : ما هي أملاح حمض الهيدروكلوريك ؟ الجواب هو +pred_answer : أن أملاح +answer : الكلوريدات + +context : الأميرة منى الحسين أو انطوانيت غاردنر ( 25 أبريل 1941 - ) ، الزوجة الثانية لملك الأردن الراحل الحسين بن طلال ووالدة ملك الأردن الحالي عبد الله الثاني بن الحسين . بعد زواجها أطلق عليها زوجها لقب الأميرة منى الحسين . +question : ما هو أسم والد ملك الأردن ؟ +prompt : أجب عن السؤال التالي : ما هو أسم والد ملك الأردن ؟ الجواب هو +pred_answer : الملك عبد الله الثاني +answer : الحسين بن طلال + +context : الحريات المدنية هو الاسم المعطى لحماية حريات الفرد من الحكومة تماما . [1][2][3] الحريات المدنية تضع حدودا للحكومة حتى أنها لا تستطيع إساءة استعمال قوتها أو تتدخل في حياة مواطنيها . +question : ما معنى مصطلح الحريات المدنية ؟ +prompt : أجب عن السؤال التالي : ما معنى مصطلح الحريات المدنية ؟ الجواب هو +pred_answer : أن الحرية هي القدرة على الاختيار ، +answer : حماية حريات الفرد من الحكومة تماما + +context : ابيضاض الدم أو اللوكيميا هو عبارة عن مرض خبيث للجملة المكونة للدم ويتصف بزيادة عدد الكريات البيضاء غير الناضجة في الدم ونقي العظم . في دراسة أجرتها مجموعة الشرق الأوسط لأبحاث السرطان أظهرت إصابة 515 شخص في مصر ما بين العامين 1999 - 2001 و 1354 شخص في الأردن بابيضاض الدم ما بين عامي 1996 - 2001 . و يسمى أيضا باللوكيميا أو سرطان الدم يبدأ هذا المرض في نخاع العظام وينتشر إلى الأجزاء الأخرى من الجسم . [1] +question : ماهى اللوكيميا ؟ +prompt : أجب عن السؤال التالي : ماهى اللوكيميا ؟ الجواب هو +pred_answer : سرطان الخلايا اللمفاوية ( ابيضاض الدم ) ، وهو نوع من أنواع السرطانات التي تصيب خلايا الدم +answer : مرض خبيث للجملة المكونة للدم ويتصف بزيادة عدد الكريات البيضاء غير الناضجة في الدم ونقي العظم + +context : الصمغ العربي الاسم العلمي : ( Sengalia Senegal ) هو عصير شجرة السنغال 2 12 m . أكاسيا سينغال ( Acacia senegal ) أو أكاسيا سيال ( Acacia seyal ) وهو بوليسكاريد طبيعي لا لون له حتى اللون البني لا رائحة له يذوب في الماء الحار يكون خيوط لزجة طعمها حامض خفيف لا تذوب بالكحول . تتكون من ل - ارابينوزه د - جالاكتوزه ل - راهمنوزه ود - جلوكورونحامض بنسبة 3 : 3 : 1 : 1 L - Arabinose , D - Galactose , L - Rhamnose und D - Glucurons ure يتم حصاد الصمغ من الأشجار البرية تجاريا في جميع أنحاء الساحل من السنغال والسودان إلى الصومال ، على الرغم من أنه قد تم زراعتها تاريخيا في السعودية وغرب آسيا . +question : ماهو اسم الشجرة التي يستخرج منها الصمغ ؟ +prompt : أجب عن السؤال التالي : ماهو اسم الشجرة التي يستخرج منها الصمغ ؟ الجواب هو +pred_answer : شجرة الطلح +answer : شجرة السنغال + +context : النيوترون جسيم تحت ذري كان يظن في بادئ الأمر أنه جسيم أولي ( لا يتكون من جسيمات أصغر ) ولكن تبين فيما بعد خطأ هذا الاعتقاد[1] ، كتلته تساوي تقريبا كتلة البروتون ، يوجد في أنوية الذرات ، كما يمكن أن يوجد خارجها حيث يدعى بالنيوترون الحر . النيوترون الحر غير مستقر له متوسط عمر قدره حوالي 886 ثانية ( حوالي 15 دقيقة ) ، حيث يتحلل بعد هذه الفترة القصيرة إلى بروتون وإلكترون . ولأن النيوترونات غير مشحونة يجعل من الصعب كشفها أو التحكم بها ، الأمر الذي أدى لتأخر اكتشافها . فقد اكتشفها عالم الفيزياء حامل جائزة نوبل " جيمس شادويك " . +question : ما هو النيترون ؟ +prompt : أجب عن السؤال التالي : ما هو النيترون ؟ الجواب هو +pred_answer : أنه غاز عديم اللون +answer : جسيم تحت ذري + +context : عبد الرحمن الصوفي هو أبو الحسين عبد الرحمن بن عمر بن سهل الصوفي الرازي أحد أشهر الفلكيين ( 291 ه - 376 ه 903 - 986 م ) . كان عالم فلك فارسي[1][2][3] مسلم من القرن العاشر الميلادي . ولد بالري في بلاد فارس في 9 محرم 291 ه ( الموافق : 7 ديسمبر 903 م ) ، اتصل بعضد الدولة البويهي . وهو من الذين قالوا بأن الأرض كروية بعد إراتوستينس الذي كان قد أثبت كرويتها قبل الميلاد ، وكان من كبار علماء الفلك . وهو من أعظم فلكيي الإسلام على حد تعبير المؤرخ جورج سارطون . وقد كان صديقا للخليفة البويهي عضد الدولة الذي اتخذه فلكيا ومعلما له لمعرفة مواضع النجوم والكواكب المختلفة وحركة الأجرام الفلكية . وقد قام عضد الدولة ببناء مرصد خاص للصوفي في شيراز مما ساعده في القيام بإنجازاته الفلكية . كانت لغته فارسية ولكنه كتب كتبه العلمية باللغة العربية كونها كانت لغة العلوم في العصر الذهبي للإسلام في تلك الفترة . [3] وقد توفي الصوفي في 8 محرم 376 ه ( الموافق : 25 مايو 986 م ) وعمره 83 عاما . +question : من وضع كتاب صور الكواكب الثمانية والأربعين ؟ +prompt : أجب عن السؤال التالي : من وضع كتاب صور الكواكب الثمانية والأربعين ؟ الجواب هو +pred_answer : أبو معشر الب +answer : عبد الرحمن الصوفي + +context : يلف الغموض تاريخ الموناليزا ؛ إذ لا تتوافر معلومات دقيقة عن اللوحة ، أو أن المعلومات المتوافرة قليلة . ومن ضمن الحقائق التي يلفها الغموض ، الزمن الذي استغرقه ليوناردو في رسم اللوحة ، والأجر المدفوع له مقابل هذا العمل ، والمدة التي احتفظ فيها باللوحة ، وكيف وصلت إلى فرنسا . بالإضافة إلى ذلك هنالك هوية الشخصية التي هي موضوع هذه اللوحة ، حيث لا يوجد إلى الآن أي دليل قطعي يمكن منه معرفة هوية هذه الشخصية بالضبط ، [10] ومن جهة أخرى تحتوي سيرة حياة ليوناردو دا فينشي التي كتبها جورجيو فاساري عام 1550 ( أي بعد 31 سنة من موت دا فينشي ) على الكثير من المعلومات عن الموناليزا ، والتي هي الآن أهم مصدر للحصول على معلومات عن هوية الشخصية الجالسة في اللوحة . ووفقا لهذه السيرة فإن الشخصية الجالسة هي ليزا جيرارديني زوجة التاجر الثري فرانشيسكو ديل جيوكوندو ، حيث قال في سيرته حياة أفضل المصورين والنحاتين والمهندسين المعماريين 1550 : [25] بعد اكتشاف اللوحة ظهرت العديد من الأسئلة حول هوية الشخصية الجالسة . وبالرغم من أن المؤرخين اتفقوا على أن الشخصية الجالسة هي ليزا جيرارديني ، إلا أن هنالك مجموعة من الأشخاص اتفقوا على أن هذه اللوحة هي في الحقيقة بورتريه ذاتي ، وأن ملامح الوجه تشابه كثيرا بورتريه ذاتي آخر من عمل ليوناردو . [26] +question : كم سنة استغرق ( ليوناردو دا فينشي ) لرسم لوحة الموناليزا ؟ +prompt : أجب عن السؤال التالي : كم سنة استغرق ( ليوناردو دا فينشي ) لرسم لوحة الموناليزا ؟ الجواب هو +pred_answer : أن مدة بقاء هذه اللوحة في متحف اللوفر +answer : إذ لا تتوافر معلومات دقيقة عن اللوحة + +context : ثيودور روبرت بندي ( ولد ثيودور روبرت كويل ; نوفمبر 24 , 1946 – يناير 24 , 1989 ) كان سفاح ، خاطف ، ومغتصب أميريكي ، وأدين بمجامعة الموتى وكان قد اعتدى وقتل العديد من النساء والفتيات خلال 1970 ، وربما في وقت سابق . [1][2][3] قبل إعدامه بفترة وجيزة ، وبعد أكثر من عقد من النفي ، اعترف ب 30 من جرائم القتل التي ارتكبت في سبع ولايات بين عامي 1974 و 1978 . ولا يزال عدد الضحايا الحقيقي غير معروف ، ويمكن أن يكون أعلى من ذلك بكثير . +question : من هو تيد بندي ؟ +prompt : أجب عن السؤال التالي : من هو تيد بندي ؟ الجواب هو +pred_answer : : رجل أعمال أمريكي ، ولد في مدينة نيويورك عام 1909 +answer : سفاح خاطف ومغتصب أميريكي وأدين بمجامعة الموتى + +context : المستحضرات الدوائية الحيوية ، تعرف أيضا بالمنتجات الطبية الحيوية أو البيولوجية ، هي أي منتج دوائي مصنع من ، أو مستخلص من ، أو شبه ( نصف ) مصنع من مصادر حيوية . يختلف عن المنتجات الدوائية المركبة كيميائيا ، فهو يحتوي على لقاحات ، دم ، أو مكونات الدم ، مواد مثيرة للحساسية ، خلايا جسدية ، أنسجة ، بروتينات دوائية مهجنة ، وخلايا حية تستخدم للعلاج بالخلايا . تعزل من المصادر الطبيعية - الانسان ، الحيوان ، أو الميكروبات . +question : ما هي المستحضرات الدوائية الحيوية ؟ +prompt : أجب عن السؤال التالي : ما هي المستحضرات الدوائية الحيوية ؟ الجواب هو +pred_answer : : مستحضرات دوائية حيوية ( Biological Drugs ) وهي عبارة عن +answer : أي منتج دوائي مصنع من أو مستخلص من أو شبه نصف مصنع من مصادر حيوية + +context : البنجاب ولاية هندية تقع في شمال الهند ، وتشكل الجزء الكبير من اقليم البنجاب . يحدها من الشمال ولاية جامو وكشمير ، من الغرب هيمشال بارديش ، هاريانا من الجنوب والجنوب الشرقي ، ومحافظة البنجاب الباكستانية من الشرق ، راجستان من الجنوب الغربي . عاصمتها مدينة شانديغرا . +question : أين تقع ولاية البنجاب ؟ +prompt : أجب عن السؤال التالي : أين تقع ولاية البنجاب ؟ الجواب هو +pred_answer : في باكستان . +answer : شمال الهند + +context : محمود سامي بن حسن حسين بن عبد الله البارودي المصري ( 1255 ه 6 أكتوبر 1839 - 1322 ه 12 ديسمبر 1904 ) ، هو شاعر مصري ولد عام 1838 م من أسرة مؤثرة لها صلة بأمور الحكم . نشأ طموحا تبوأ مناصب مهمة بعد ان التحق بالسلك العسكري ، وقد ثقف نفسه بالاطلاع على التراث العربي ولا سيما الأدبي ؛ فقرأ دواوين الشعراء وحفظ شعرهم وهو في مقتبل عمره . أعجب بالشعراء المجدين مثل أبي تمام والبحتري والشريف الرضي والمتنبي وغيرهم ، وهو رائد مدرسة البعث والإحياء في الشعر العربي الحديث ، وهو أحد زعماء الثورة العرابية . تولى وزارة الحربية ثم رئاسة الوزراء باختيار الثوار له . لقب برب السيف والقلم . [1][2][3] +question : من هو محمود سامي البارودي ؟ +prompt : أجب عن السؤال التالي : من هو محمود سامي البارودي ؟ الجواب هو +pred_answer : أنه شاعر مصري ، ولد عام 1868 م في قرية " شباس عمير +answer : شاعر مصري ولد عام 1838 م من أسرة مؤثرة لها صلة بأمور الحكم + +context : النحل العملاق يعتبر هذا النوع من النحل أكبر وأشرس أنواع النحل ويعيش في حالة برية وله نمط غريب ومختلف في حياته حيث نجده متراصا في صفوف ساكنة ولكنهه يتحرك خلال ثوان ليشن هجوما عنيفا عند حدوث أي خطر معتمدا علي قوته وشدة لسعه مما يشكل خطورة علي الإنسان . +question : ما هو أكبر نوع من النحل ؟ +prompt : أجب عن السؤال التالي : ما هو أكبر نوع من النحل ؟ الجواب هو +pred_answer : نحل العسل . +answer : النحل العملاق + +context : جوزيف عطية ( 14 مايو 1987 - ) ، مغني لبناني من البترون شمال لبنان ، اشتهر بعد فوزه بالمركز الأول في مسابقة ستار أكاديمي في موسمها الثالث عام 2005 ، بحوالي 55 % من الأصوات ، وهو أول مغني لبناني يفوز بالمركز الأول في البرنامج وحاليا له العديد من الأغاني الناجحة . +question : متى ولد المغني جوزيف عطية ؟ +prompt : أجب عن السؤال التالي : متى ولد المغني جوزيف عطية ؟ الجواب هو في عام +pred_answer : 1982 . +answer : 1987 + +context : السيف المشهور في شرح عقيدة أبي منصور هو كتاب للإمام تاج الدين السبكي الشافعي الأشعري ( المتوفى سنة 771 ه ) شرح فيه العقيدة المنسوبة للإمام أبي منصور الماتريدي ( المتوفى سنة 333 ه ) إمام المدرسة الماتريدية التي يتبعها غالبية أتباع المذهب الحنفي في العقيدة . شرحها التاج السبكي شرحا متوسطا ، مبينا فيه أن عقيدة الأشعرية هي عقيدة الحنفية الماتريدية ، وأن الخلاف بينهم وبين الأحناف يسير جدا وفي مسائل معدودة ، لا يقتضي تكفيرا ولا تبديعا . وأن عقيدة الشيخ أبي الحسن الأشعري قد أجمع عليها الشافعية والحنفية والمالكية وفضلاء الحنابلة . [1] وقد ذكر هذا الكتاب تاج الدين السبكي في طبقاته الكبرى بقوله : " إن عقيدة أبي حنيفة النعمان ، والأشعري حقيقة الإتقان ، فكلاهما والله صاحب سنة بهدي نبي الله مقتديان ، قد قررنا هذه المسألة في كتابنا في شرح عقيدة الأستاذ أبي منصور " . [2] +question : من هو مؤلف كتاب السيف المشهور في شرح عقيدة أبي منصور ؟ +prompt : أجب عن السؤال التالي : من هو مؤلف كتاب السيف المشهور في شرح عقيدة أبي منصور ؟ الجواب هو +pred_answer : الشيخ محمد بن عبد الوهاب +answer : تاج الدين السبكي الشافعي الأشعري + +context : الجرمنتيون ( كذلك : الجرمنت ، أو الغرامنت ) هم أسلاف الطوارق ، الذين استوطنوا جنوب غربي ليبيا ، وجزءا من جنوب الجزائر ، وهي المنطقة التي يسميها الطوارق آزجر . [1] وتعد المعلومات عن تاريخ الجرمنتيين مشوبة بالشك ، فرغم رجوع معلومات هيرودوت إلى القرن الخامس قبل الميلاد ، لكنه لم يقدم لنا إلا القليل منها عن الجرمنتيين . غير أن الآثار المعمارية التي ترجع إلى زمن ما قبل هيرودوت قد اكتشفت في الكثير من المواقع بفزان ، ووجدت فيها أدوات حجرية تعود إلى زمن الثقافات الأشيولينية والأتيرية ( من 100 ألف إلى 30 ألف سنة ق . م ) ، ومازالت الكثير من المواقع بانتظار الكشف . وهناك الكثير أيضا من الصور والرسومات الصخرية ، رغم أن العلماء لا يرون أنها تعود إلى زمن سابق للعصر الحجري الحديث . [2] ويعد أول مرجع كتابي مدون عن الجرمنتيين هو من وضع هيرودوت ، ثم حدثت بعده فجوة ، لم تسد بحق حتى كتب بليني عن حملة كورنيليوس بالبوس ضد الجرمنتيين . [3] +question : من هم الجرمنتيون ؟ +prompt : أجب عن السؤال التالي : من هم الجرمنتيون ؟ الجواب هو +pred_answer : أن هناك ثلاثة أنواع للجرمنتيين وهم : 1 - جرمنتي الأرض . 2 - وجرمنتي السماء . +answer : أسلاف الطوارق الذين استوطنوا جنوب غربي ليبيا وجزءا من جنوب الجزائر وهي المنطقة التي يسميها الطوارق آزجر + +context : نظم المعلومات الادارية ( بالإنجليزية : Management Information Systems ) أو ما يعرف باسم ( MIS ) هو علم ذات طابع تكنولوجي إداري حديث مهم في العصر الحال فهو يجمع مابين تقنية المعلومات وعلوم الحاسبات و الادارة ، ويمكن من خلاله تجاوز المشكلات والمصاعب التي تربط بين تكنولوجيا المعلومات وإدارة الشركات . كما يدخل في العديد من المهاهم والوظائف كبرمجة وتطوير وإنشاء التطبيقات والمشاريع التكنولوجية . +question : ما هو علم نظم المعلومات الإدارية ؟ +prompt : أجب عن السؤال التالي : ما هو علم نظم المعلومات الإدارية ؟ الجواب هو +pred_answer : أن هذا العلم من العلوم الحديثة التي ظهرت في أوائل القرن العشرين ، وهو فرع من فروع علم الإدارة +answer : علم ذات طابع تكنولوجي إداري حديث مهم في العصر الحال فهو يجمع مابين تقنية المعلومات وعلوم الحاسبات و الادارة + +context : مالاوي أو رسميا جمهورية مالاوي هي دولة حبيسة في جنوب شرق أفريقيا عرفت سابقا باسم نياسالاند . تحدها زامبيا إلى الشمال الغربي وتنزانيا إلى الشمال الشرقي وموزمبيق من الشرق والجنوب والغرب . تنفصل البلاد عن تنزانيا وموزامبيق ببحيرة مالاوي . تتجاوز مساحتها 118 , 000 كم 2 بينما يبلغ تعداد السكان أكثر من 13 , 900 , 000 نسمة . عاصمتها ليلونغوي وهي ثاني أكبر مدينة بعد بلانتيري بينما الثالثة هي مدينة مزوزو . يأتي الاسم مالاوي من مارافي وهو الاسم القديم لشعب نيانجا الذي يسكن المنطقة . تلقب البلاد أيضا باسم " القلب الدافئ لأفريقيا " . [1] +question : ما هي أكبر مدينة في جمهورية مالاوي ؟ +prompt : أجب عن السؤال التالي : ما هي أكبر مدينة في جمهورية مالاوي ؟ الجواب هو +pred_answer : العاصمة مابوتو +answer : بلانتيري + +context : الوز هو العضو الأكبر حجما من عائلة البط ويتميز عن اقرانه بالعائله بطول رقبته . الوز من أكبر الطيور التي تستطيع الطيران حيث يبلغ وزن الاوز حتى 16 كلغم ويتميز الذكر عن الانثى بحجمه ووزنه حيث يكون أكبر وأثقل . الاوز الذي يعيش في النصف الشمالي من الكره الأرضية له ريش أبيض اللون في حين ان سلالات الوز في النصف الجنوبي من الكره الأرضية له ريش أبيض وأسود ويعيش في أستراليا سلالة من الوز لونه أسود كليا باستثناء بعض الريش الأبيض على الجنحان والذي يستخدم للطيران واما صغاره فيكون لونها سكني فاتح . +question : كم يبلغ وزن الإوزة البالغة ؟ +prompt : أجب عن السؤال التالي : كم يبلغ وزن الإوزة البالغة ؟ الجواب هو +pred_answer : 1 . 5 +answer : 16 كلغم + +context : الشريان المساريقي العلوي هو فرع أمامي من الأبهر البطني يبدأ من على بعد 1 سم من الشريان البطني . +question : ما هو الشريان المساريقي العلوي ؟ +prompt : أجب عن السؤال التالي : ما هو الشريان المساريقي العلوي ؟ الجواب هو +pred_answer : شريان مساريقي علوي يقع في منتصف المسافة بين الأذين الأيمن والبطين الأيمن ، +answer : فرع أمامي من الأبهر البطني يبدأ من على بعد 1 سم من الشريان البطني + +context : بسبب هجرة العمالة في الستينات ووفود العديد من اللاجئيين السياسيين منذ السبعينات أصبح الإسلام دينا واضحا في ألمانيا ، [1] ووفقا للتعداد الوطني الذي أجري في عام 2011 فإن 1 . 9 % من سكان ألمانيا ( أي ما يقارب 1 . 5 مليون شخصا ) أعلنوا أنفسهم كمسلمين ، وبالرغم من ذلك فإن هذا الرقم لا يعطي العدد الحقيقي لعدد المسلمين هناك حيث أن العديد ممن تم سؤالهم عن ديانتهم استخدموا حقهم في عدم الإجابة عن السؤال . [2][3][4][5] ووفقا لتقدير أجري في عام 2015 ، تبين وجود 4 . 4 - 4 . 7 مليون مسلم في ألمانيا ( أي ما يقارب 5 . 4 % - 5 . 7 من السكان ) ، [6] وبحسب المكتب الإحصائي الألماني فإن 9 . 1 % من المواليد الجدد في ألمانيا لديهم آباء مسلمون في 2005 . [7] ووفقا لمركز بيو ، فقد بلغ عدد المسلمين في ألمانيا نحو 5 مليون سنة 2016 ( 6 , 1 % من السكان ) ، ومن المتوقع أن ترتفع النسبة بحلول 2050 إلى 8 . 7 % على الأقل ( في حالة افتراض عدم حدوث أي هجرة لألمانيا ) ، ويعود ذلك في المقام الأول لأن المسلمين في ألمانيا أصغر بكثير من غير المسلمين - مع معدل أعمار يصل إلى 31 عام بالمقارنة مع الألمان ( 47 عام ) في عام 2016 ، ولأن النساء المسلمات لديهن عدد أكبر من الأطفال ( 1 . 9 في المتوسط ) بالمقارنة مع غير المسلمين في ألمانيا ( 1 . 4 ) . [8] +question : ما نسبة المسلمين في ألمانيا حاليا ؟ +prompt : أجب عن السؤال التالي : ما نسبة المسلمين في ألمانيا حاليا ؟ الجواب هو +pred_answer : أن عدد +answer : 1 9 + +context : تم إنشاء الباب في العام 485 هجرية ( 1092 ميلادي ) ، ويتكون من كتلة بنائية ضخمة عمقها 25 مترا وعرضها 25 . 72 متر وارتفاعها 24 مترا عن مستوى الشارع . [1] +question : كم يبلغ ارتفاع باب زويلة في القاهرة ؟ +prompt : أجب عن السؤال التالي : كم يبلغ ارتفاع باب زويلة في القاهرة ؟ الجواب هو +pred_answer : أن الباب +answer : 24 مترا + +context : عملية رافيف ( Hebrew : ، رذاذ ) ، المعروفة أيضأ باسم حرب العشر ساعات ، كانت غارة شنها جيش الدفاع الإسرائيلي على ساحل البحر الأحمر في مصر خلال حرب الاستنزاف . رافيف التي جرت في 9 سبتمبر 1969 ، كانت الهجوم البري الرئيسي الوحيد الذي يقوم به جيش الدفاع الإسرائيلي ضد مصر طوال فترة الحرب . وشهدت العملية تستر القوات الإسرائيلية تحت غطاء القوات المصرية واستخدامها المدرعات العربية المستولى عليها . [1] +question : متى جرت عملية رافيف ؟ +prompt : أجب عن السؤال التالي : متى جرت عملية رافيف ؟ الجواب هو في عام +pred_answer : 1967 ، عندما +answer : 9 سبتمبر 1969 + +context : عبد السلام بن محمد بن أحمد العلمي ( 1246 ه - 1322 ه 1830 - 1904 م ) . طبيب مغربي ، عالم بالمواقيت والفلك والرياضيات وشاعر ولاعب شطرنج ألف كتابا في حل ألغاز لعبة الشطرنج ، وهو مشارك في علوم عصره . من أهل فاس مولدا ووفاة . تخرج من المدرسة الطبية بمصر ( مدرسة القصر العيني بالقاهرة ) في عهد الخديوي إسماعيل باشا ، وأنشأ مصحة صغيرة في بلده بعد رجوعه إلى أرض الوطن . يعده المؤرخون لتاريخ الطب بالمغرب نقطة تحول بين الطب التقليدي والطب الحديث في مغرب عصر النهضة الحديثة على حد قول الطبيب الفرنسي والمؤرخ للطب بالمغرب الدكتور رينو Renaud 1881 - 1945 ، على الخصوص . شغل طبيبا خاصا للسلطان مولاي الحسن الأول ولعياله . ولقد عاصر في مدة حياته أربعة سلاطين ممن حكموا المغرب في ظل الدولة العلوية بالترتيب : أبو الفضل عبد الرحمن بن هشام ، محمد الرابع بن عبد الرحمن ، الحسن الأول بن محمد ، عبد العزيز بن الحسن . وأشتغل في بلاط اثنين منهم . +question : متى ولد عبدالسلام بن محمد ؟ +prompt : أجب عن السؤال التالي : متى ولد عبدالسلام بن محمد ؟ الجواب هو في عام +pred_answer : 1337 ه +answer : 1246 ه + +context : مقاطعة إيست باتون روغ هي إحدى مقاطعات ولاية لويزيانا في الولايات المتحدة . تأسست سنة 1812 ، وتبلغ مساحتها 1219 كم 2 ، بلغ عدد سكانها 440171 نسمة في عام 2010 حسب إحصاء مكتب تعداد الولايات المتحدة وتصل الكثافة السكانية فيها 350 نسمة كم 2 . [1] +question : أين تقع مقاطعة إيست باتون روغ ؟ +prompt : أجب عن السؤال التالي : أين تقع مقاطعة إيست باتون روغ ؟ الجواب هو +pred_answer : في شمال ولاية لويزيانا . +answer : ولاية لويزيانا في الولايات المتحدة + +context : جامعة قسنطينة هي جامعة حكومية جزائرية تأسست في 29 مارس 1968 . [1] +question : متى تأسست جامعة قسنطينة في الجزائر ؟ +prompt : أجب عن السؤال التالي : متى تأسست جامعة قسنطينة في الجزائر ؟ الجواب هو في عام +pred_answer : 1955 � +answer : 29 مارس 1968 + +context : إنترنت الأشياء ، مصطلح برز حديثا [1][2] ، يقصد به الجيل الجديد من الإنترنت ( الشبكة ) الذي يتيح التفاهم بين الأجهزة المترابطة مع بعضها ( عبر بروتوكول الإنترنت ) [3] . وتشمل هذه الأجهزة الأدوات والمستشعرات والحساسات وأدوات الذكاء الاصطناعي المختلفة وغيرها [4] . ويتخطى هذا التعريف المفهوم التقليدي وهو تواصل الأشخاص مع الحواسيب والهواتف الذكية عبر شبكة عالمية واحدة ومن خلال بروتوكول الإنترنت التقليدي المعروف . وما يميز إنترنت الأشياء أنها تتيح للإنسان التحرر من المكان ، أي أن الشخص يستطيع التحكم في الأدوات من دون الحاجة إلى التواجد في مكان محدد للتعامل مع جهاز معين [5] . +question : ماهى بروتوكولات إنترنت الأشياء ؟ +prompt : أجب عن السؤال التالي : ماهى بروتوكولات إنترنت الأشياء ؟ الجواب هو +pred_answer : أنها عبارة عن مجموعة من البروتوكولات التي تربط بين الأجهزة المختلفة في المنزل أو المكتب أو المصنع +answer : الجيل الجديد من الإنترنت الشبكة الذي يتيح التفاهم بين الأجهزة المترابطة مع بعضها عبر بروتوكول الإنترنت + +context : الجمهورية هي نظام حكم يتم اختيار الحاكم ( ويسمى عادة رئيس الجمهورية ) من قبل الشعب بشكل مباشر كما هو الحال في فرنسا والولايات المتحدة ، أو من قبل البرلمان المنتخب من الشعب كما هو الحال في إيطاليا . [1][2][3] +question : ما هي الجمهورية ؟ +prompt : أجب عن السؤال التالي : ما هي الجمهورية ؟ الجواب هو +pred_answer : جمهورية أفلاطون ، +answer : نظام حكم + +context : رؤوبين سنير ( في الأصل شهرباني ) ولد في حيفا لأبوين هاجرا من بغداد عام 1951 . اللغة المحكية في البيت كانت العربية العراقية وثقافة الوالدين كانت عربية محضة إلا أن العبرية كانت لغته المفضلة في طفولته والثقافة العبرية الصهيوينة كانت الإطار التعليمي والتربوي الذي نشأ في سياقه ، شأنه شأن سائر الأطفال في المجتمع اليهودي الإسرائيلي . أما العربية فلم تكن ، وفقا لمعايير الثقافة الصهيونية التي فرضت على النشء الجديد ، سوى لغة العدو واعتبرت الحضارة العربية مبتذلة ومنحطة . في مقالة في مجلة فكر وفن الألمانية تطرق سنير إلى حياته كطفل يهودي من أصل عربي في المجتمع الإسرائيلي في الخمسينات قائلا : “ في محاولتي كطفل للتكيف مع المعايير الصهيونية - الإشكينازية الغربية السائدة ، وكما كانت الحال مع بقية الأطفال من ذوي الخلفية الاجتماعية المماثلة ، كنت ، وأنا طفل ، أشعر بالخجل من عروبة والدي . فلم أكن بالنسبة إليهما سوى عميل جهاز القمع الصهيوني الحكومي الذي أرسلته المؤسسة الإسرائيلية الحاكمة ، بعد تلقي أفضل التمرينات والتدريبات ، إلى قلب استحكامات العدو ، أي : عائلتي ، وقد أتممت المهمة على أكمل وجه يمكن أن يؤديه طفل أمام والديه المحبين ، مستغلا استغلالا تاما ما تنطوي عليه محبة الوالدين من ضعف إزاء طفلهما : حظرت عليهما الكلام بالعربية في الأماكن العامة ، أو الاستماع إلى الموسيقى العربية داخل بيتهما . ولم تكن العروبة مشكلة والدي الوحيدة فحسب ، إذ كان نشيطا شيوعيا في وقت كان فيه الانتماء للشيوعية في إسرائيل لا يختلف عن الانتماء إلى منظمة إرهابية “ . تلقى سنير تعليمه الابتدائي في مدرسة « نيريم » في حي « محاني داوود » في مشارف حيفا ، وهو في أصله مخيم أقيم للاجئين اليهود القادمين من البلدان العربية . ثم انتقل إلى مدرسة هاريئلي هاعبري في حيفا حيث درس لأول مرة العربية في إطار مشروع تعليمي كان في أساسه يرمي إلى إعداد الطلاب للخدمة في الجيش الإسرائيلي في مناصب تطلب إجادة العربية . [1] وبعد أن أكمل الخدمة العسكرية بدأ دراسة الأدب العربي والفلسفة في الجامعة العبرية في القدس حيث حصل على الماجستير ( 1982 ) بعد أن قدم أطروحة حقق في إطارها مخطوطة زهدية من القرن الثاني الهجري للمعافى بن عمران ( لم نتشر بعد ) . [2] وفي عام 1987 حصل على لقب الدكتوراه من نفس الجامعة وتناولت أطروحته الملامح الصوفية في الشعر العربي المعاصر ( لم نتشر بعد ) . [3] وفي أثناء دراسته الجامعية ، عمل كمحرر أخبار في صوت إسرائيل بللغة العربية ( 1977 - 1988 ) . وبين عامي 2000 - 2004 أشغل منصب رئيس قسم اللغة العربية وآدابها في جامعة حيفا ، ومنذ 1996 يشغل منصب محرر مساعد في مجلة الكرمل — أبحاث في اللغة والأدب الصادرة في حيفا . لقد اشترك في المعرض الدولي الذي أقيم على شرف الشاعر أدونيس في معهد العالم العربي في باريس الذي صدر عنه كتاب يجمع دراسات عن أعمال أدونيس . [4] كذلك أمضى سنير عدة فترات في معاهد للدراسات العالية في الخارج مثل معهد الدراسات العالية في برلين ( Wissenschaftskolleg zu Berlin ) ( 2004 - 2005 ) ، ومركز الدراسات العبرية واليهودية في أوكسفورد ( Oxford Centre for Hebrew and Jewish Studies ) ( في عامي 2000 و 2008 ) ؛ وكذلك حاضر في جامعة هايدلبرغ ( 2002 ) وفي جامعة برلين الحرة ( 2005 ) . وفي أعقاب مساق دراسي أشرف عليه في برلين ، نشر طلابه أول مجموعة قصصية لكتأب يهود عراقيين . [5] +question : أين ولد رؤوبين سنير ؟ +prompt : أجب عن السؤال التالي : أين ولد رؤوبين سنير ؟ الجواب هو +pred_answer : أنه ولد +answer : حيفا + +context : البلوتوقراطية أو حكم الأثرياء هي أحد أشكال الحكم تكون فيها الطبقة الحاكمة مميزة بالثراء . في البلوتوقراطية ، درجة التفاوت الاقتصادي تكون عالية بينما مستوى الحراك الاجتماعي يكون منخفضا . الكلمة " بلوتوقراطية " مشتقة من الكلمة اليونانية : . +question : ما هي البلوتوقراطية ؟ +prompt : أجب عن السؤال التالي : ما هي البلوتوقراطية ؟ الجواب هو +pred_answer : أن هذه الكلمة مشتقة من كلمة بلوتو ( Pl +answer : أحد أشكال الحكم تكون فيها الطبقة الحاكمة مميزة بالثراء + +context : حرب الاستقلال الأمريكية ( 1775 – 1783 ) ، وتعرف أيضا باسم الحرب الثورية الأمريكية حرب دولية بدأت صراعا بين بريطانيا العظمى ومستعمراتها الثلاثة عشر التي أعلنت استقلالها وقيام الولايات المتحدة الأمريكية . +question : متى انتهت حرب الاستقلال الأمريكية ؟ +prompt : أجب عن السؤال التالي : متى انتهت حرب الاستقلال الأمريكية ؟ الجواب هو في عام +pred_answer : 1776 +answer : 1783 + +context : صدام حسين المجيد التكريتي الذي ينتمي إلى عشيرة البيجات[1][معلومة 1] ( 28 أبريل 1937[2] – 30 ديسمبر 2006 ) [3] رابع رئيس لجمهورية العراق والأمين القطري لحزب البعث العربي الاشتراكي والقائد الأعلى للقوات المسلحة العراقية في الفترة ما بين عام 1979 م وحتى 9 أبريل عام 2003 م [4] ، ونائب رئيس جمهورية العراق عضو القيادة القطرية ورئيس مكتب الأمن القومي العراقي بحزب البعث العربي الاشتراكي بين 1975 و 1979 . +question : أي حزب كان موالي لصدام حسين في العراق ؟ +prompt : أجب عن السؤال التالي : أي حزب كان موالي لصدام حسين في العراق ؟ الجواب هو +pred_answer : حزب البعث العربي الاشتراكي +answer : البعث العربي الاشتراكي + +context : ميشال فوكو ( 1926 - 1984 ) فيلسوف فرنسي ، يعتبر من أهم فلاسفة النصف الأخير من القرن العشرين ، تأثر بالبنيويين ودرس وحلل تاريخ الجنون في كتابه " تاريخ الجنون " , وعالج مواضيع مثل الإجرام والعقوبات والممارسات الاجتماعية في السجون . ابتكر مصطلح " أركيولوجية المعرفة " . أرخ للجنس أيضا من " حب الغلمان عند اليونان " وصولا إلى معالجاته الجدلية المعاصرة كما في " تاريخ الجنسانية " . +question : متى ولد الفيلسوف ميشيل فوكو ؟ +prompt : أجب عن السؤال التالي : متى ولد الفيلسوف ميشيل فوكو ؟ الجواب هو في عام +pred_answer : 1929 ، +answer : 1926 + +context : أعلن عن تأسيسها الشيخ أحمد ياسين بعد حادث الشاحنة الصهيونية في 6 كانون الأول 1987 م ، حيث اجتمع سبعة من كوادر وكبار قادة العمل الدعوي الإسلامي معظمهم من الدعاة العاملين في الساحة الفلسطينية وهم : أحمد ياسين ، وإبراهيم اليازوري ، ومحمد شمعة ( ممثلو مدينة غزة ) ، وعبد الفتاح دخان ( ممثل المنطقة الوسطى ) ، وعبد العزيز الرنتيسي ( ممثل خان يونس ) ، وعيسى النشار ( ممثل مدينة رفح ) ، وصلاح شحادة ( ممثل منطقة الشمال ) ، وكان هذا الاجتماع إيذانا بانطلاق حركة حماس وبداية الشرارة الأولى للعمل الجماهيري الإسلامي ضد الاحتلال الذي أخذ مراحل متطورة لاحقا . [5] +question : متى تأسست حركة حماس ؟ +prompt : أجب عن السؤال التالي : متى تأسست حركة حماس ؟ الجواب هو في عام +pred_answer : 1987 م +answer : كانون الأول 1987 + +context : الموناليزا ( باللغة الفرنسية : Mona Lisa ، وباللغة الإيطالية : Monna Lisa ) أو الجيوكاندا ( باللغة الفرنسية : La Joconde ، نقحرة : لا جوكوند ، وباللغة الإيطالية : La Gioconda ، نقحرة : لا جوكوندا ) ، هي لوحة فنية نصفية تعود للقرن السادس عشر لسيدة يعتقد بأنها ليزا جوكوندو ، بريشة الفنان ، والمهندس ، والمهندس المعماري ، والنحات الإيطالي ليوناردو دا فينشي ، [1] حيث رسمها خلال عصر النهضة الإيطالية . استخدم دا فينشي في إنهائها طلاء زيتيا ولوحا خشبيا من الحور الأسود . تعد هذه اللوحة ملكا للحكومة الفرنسية حيث تعلق هناك على جدار متحف اللوفر خلف لوح زجاجي مقاوم للرصاص وفي بيئة يتم التحكم بمناخها . لقد وصفت هذه اللوحة بأنها " أكثر الأعمال الفنية شهرة في تاريخ الفن ، وأكثر عمل فني يتم الكتابة عنه ، والتغني به ، وزيارته من بينهم " ، كما وصفت أيضا بأنها " أكثر الأعمال الفنية التي تمت محاكاتها بشكل ساخر في العالم " . [2] +question : من رسم الموناليزا ؟ +prompt : أجب عن السؤال التالي : من رسم الموناليزا ؟ الجواب هو +pred_answer : ليوناردو دافنشي . +answer : ليوناردو دا فينشي + +context : رابطة التجارة الحرة الأوروبية أو تسمى اختصارا بال ( الافتا ) هي منظمة التجارة الحرة بين أربعة بلدان أوروبية أن تعمل بالتوازي ، ومرتبطة ، بالاتحاد الأوروبي ( الاتحاد الأوروبي ) . [1][2][3] تأسست رابطة التجارة الحرة الأوروبية في 3 مايو 1960 كبديل للتجارة تكتل للدول الأوروبية الذين إما لم يتمكنوا ، أو اختاروا عدم والانضمام إلى آنذاك الجماعة الاقتصادية الأوروبية ( السوق الأوروبية المشتركة ) والتي أصبحت الآن الاتحاد الأوروبي ( الاتحاد الأوروبي ) . وقد تم توقيع اتفاقية في استكهولم ، وإنشاء منطقة التجارة الحرة الأوروبية ، في 4 يناير 1960 في ستوكهولم من قبل سبع دول . +question : متى تأسست رابطة التجارة الحرة الأوروبية ؟ +prompt : أجب عن السؤال التالي : متى تأسست رابطة التجارة الحرة الأوروبية ؟ الجواب هو في عام +pred_answer : 1815 ، +answer : 3 مايو 1960 + +context : مؤتمر مراكش بشأن الاحتباس الحراري وتختصر كوب 22 هو مؤتمر واجتماع قمة جرى عقده في مراكش خلال الفترة ما بين 7 و 18 نوفمبر 2016 . ويعد هذا المؤتمر النسخة 22 من مؤتمر الأطراف ( COP22 ) حسب اتفاقية الأمم المتحدة المبدئية بشأن التغير المناخي ، وشاركت فيه 196 دولة . [1][2] +question : متى كانت قمة مراكش للبيئة ؟ +prompt : أجب عن السؤال التالي : متى كانت قمة مراكش للبيئة ؟ الجواب هو في عام +pred_answer : 1992 ، أي قبل عشر +answer : 7 و 18 نوفمبر 2016 + +context : ثنائية الجنس أو الخنوثة أو الإنترسكس هي حالة الشخص الذي ولد بجنس وسط ( حرفيا إنترسكس ) ، أي بين ما يعد معيارا للذكورة والأنوثة . المعني بجنس وسط هو وجود اختلافات عن المعايير المعهودة للجنسين الذكر والأنثى ، قد تكون اختلافات عضوية ، صبغية \ كروموسومية أو اختلافات في الخصائص الجنسية الثانوية أو غيرها من الاختلافات التي قد نعرفها أو لا نعرفها والتي قد لا تحدد بشكل قاطع كذكر أو أنثى حسب المعايير المقبولة طبيا و \ أو قانونيا و \ أو اجتماعيا . وقد تبنى الطب هذا اللفظ خلال القرن الماضي مشيرا إلى أي إنسان لا يصنف على أنه ذكر أو أنثى . +question : ما هي ثنائية الجنس ؟ +prompt : أجب عن السؤال التالي : ما هي ثنائية الجنس ؟ الجواب هو +pred_answer : أن هناك نوعين من الثنائية الجنسية ، +answer : حالة الشخص الذي ولد بجنس وسط + +context : محمد عزة بن عبد الهادي دروزة ( 21 حزيران 1887 - 26 تموز 1984 ) [1] مفكر وكاتب ومناضل قومي عربي ولد في نابلس وتوفي في دمشق . [2] إضافة إلى نضاله السياسي ، كان أديبا ومؤرخا وصحفيا ومترجما ومفسرا للقرآن . [3] هو أحد مؤسسي الفكر القومي العربي[4] إلى جانب ساطع الحصري وزكي الأرسوزي . +question : من هو محمد عزة دروزة ؟ +prompt : أجب عن السؤال التالي : من هو محمد عزة دروزة ؟ الجواب هو +pred_answer : : ولد في مدينة نابلس بفلسطين عام +answer : مفكر وكاتب ومناضل قومي عربي + +context : الهجرة في الإسلام معناها اصطلاحا هي : الخروج من أرض الكفر إلى أرض الإسلام[1] ، كالهجرة من مكة إلى المدينة ، وكهجرة بعض الصحابة إلى الحبشة ، وكانت الهجرة إلى المدينة واجبة قبل فتح مكة ، فلما فتحت مكة أصبحت دار الإسلام[2] ، فقال النبي محمد : [3] لا هجرة بعد الفتح ، ولكن جهاد ونية ، وإذا استنفرتم فانفروا ، وللهجرة معنى معنوي وهو : هجرة الإنسان لما حرم الله عليه[2] . +question : ما هي الهجرة في الإسلام ؟ +prompt : أجب عن السؤال التالي : ما هي الهجرة في الإسلام ؟ الجواب هو +pred_answer : أن الله سبحانه وتعالى خلق الإنسان من أجل +answer : الخروج من أرض الكفر إلى أرض الإسلام + +context : معركة الزلاقة أو معركة سهل الزلاقة ( يوم الجمعة 12 رجب 479 ه 23 أكتوبر 1086 ) ، [1] تعتبر أول معركة كبيرة شهدتها شبه الجزيرة الإيبيرية في العصور الوسطى[2] وإحدى أبرز المعارك الكبرى في التاريخ الإسلامي . استطاع فيها أمير المسلمين يوسف بن تاشفين قائد المرابطين يسانده جيش أندلسي بقيادة المعتمد بن عباد صاحب إشبيلية إلحاق هزيمة كبيرة بجيش قشتالي مسيحي بقيادة ألفونسو السادس ملك قشتالة وليون . وقعت المعركة بعد تردي أحوال الأندلس ، والتي أدت لخضوع ملوك الطوائف لسلطة ألفونسو السادس ودفع الجزية له ، وانتهت هذه الحالة بسقوط طليطلة في يد ألفونسو وجيشه عام 478 ه الموافق 1085 م ، أي قبل عام واحد من معركة الزلاقة . على إثر ذلك ، قام أهل الأندلس وأمراؤهم بإرسال سفارات ورسائل للأمير يوسف بن تاشفين تستنجده وتطلب منه الغوث والنصرة ، فاستجاب لهم وعبر البحر بجيش المرابطين لنصرة مسلمي الأندلس ، وتوحد جيش الأندلس مع جيش المرابطين في جيش كبير يقوده ابن تاشفين . سار الجيش حتى وصل سهل الزلاقة ، وسار إليه ألفونسو السادس بجيش كبير احتشد من أرجاء أوروبا ، ودارت بين الجيشين معركة كبيرة ، انتهت بانتصار المسلمين انتصارا عظيما ، وهزيمة الجيش القشتالي المسيحي . [3] +question : أين كان يحكم ملك قشتاله ألفونسو ؟ +prompt : أجب عن السؤال التالي : أين كان يحكم ملك قشتاله ألفونسو ؟ الجواب هو +pred_answer : في مدينة طليطلة +answer : قشتالة وليون + +context : جمعية الرياضيات الأوروبية ( بالإنجليزية : European Mathematical Society ؛ بالفرنسية : Soci t math matique europ enne ) هي هيئة تم تأسيسها سنة 1990 في بولندا بهدف تنمية وتطوير وإحاطة كل ما يتعلق بمجال الرياضيات في أوروبا . [1][2][3] تتكون هذه الهيئة من أكثر من 50 جمعية عضو لمختلف دول أوروبا وكذلك تقبل في صفوفها الشخصيات الفردية . +question : متى تأسست جمعية الرياضيات الأوروبية ؟ +prompt : أجب عن السؤال التالي : متى تأسست جمعية الرياضيات الأوروبية ؟ الجواب هو في عام +pred_answer : 1896 +answer : 1990 + +context : تركيا الفتاة أو الأتراك الشباب ( بالتركية : J n T rkler ) هو اتحاد لمجموعات عديدة مؤيدة لإصلاح الإدارة في الدولة العثمانية . أدت الحركة إلى الحقبة الدستورية الثانية بواسطة ثورة تركيا الفتاة . في عام 1889 بدأت الحركة في صفوف الطلاب العسكريين وامتدت بعدها لتشمل قطاعات أخرى ، وكانت بدايتها كممانعة للسلطة المطلقة للسلطان عبد الحميد الثاني . عند تأسيس جمعية الاتحاد والترقي في 1906 ، ضمت الجمعية معظم أعضاء تركيا الفتاة . بنت الحركة واقعا جديدا للانشقاقات التي صاغت الحياة الثقافية ، السياسية والفنية للإمبراطورية العثمانية في الفترة الأخيرة قبل إلغائها . +question : ما هو اتحاد الأتراك الشباب ؟ +prompt : أجب عن السؤال التالي : ما هو اتحاد الأتراك الشباب ؟ الجواب هو +pred_answer : أن هذا الاتحاد تأسس في عام 1990 ، وهو منظمة +answer : تحاد لمجموعات عديدة مؤيدة لإصلاح الإدارة في الدولة العثمانية + +context : ديموستيني أو ديموسثينيس ( 384 ق . م . - 322 ق . م . ) ( باليونانية : ) كان رجل دولة إغريقي وخطيبا بارزا في أثينا القديمة . [1][2][3] تشكل خطبه تعبيرا هاما للمهارة العالية للثقافة الأثينية القديمة ، وتوفر فهما شاملا لسياسة وثقافة اليونان القديمة أثناء القرن الرابع قبل الميلادي . تعلم ديموستيني البلاغة بعد دراسته لخطابات الخطباء العظماء السابقين . قام بأول خطاباته القضائية في سن العشرين ، التي جادل فيها عمليا لكي يكسب ما بقي من ميراثه . لفترة من الزمن ، جعل ديموستيني معيشته ككاتب خطابة ومحام محترف ، حيث قام بكتابة خطابات ليستعملها في الدعاوى القانونية الخاصة . +question : من هو ديموستيني ؟ +prompt : أجب عن السؤال التالي : من هو ديموستيني ؟ الجواب هو +pred_answer : أن هذا الاسم مشتق من الكلمة اليونانية " ديموس " +answer : رجل دولة إغريقي وخطيبا بارزا في أثينا القديمة + +context : سياسة الأرض المحروقة[1][2] هي إستراتيجية عسكرية أو طريقة عمليات يتم فيها « إحراق » أي شيء قد يستفيد منه العدو عند التقدم أو التراجع في منطقة ما . في الأصل كان المصطلح يشير إلى إحراق المحاصيل الفلاحية لعدم استعمالها من طرف العدو كمؤونة أما الآن فهو يشير إلى إحراق المنتوجات الغذائية وتدمير الهياكل الأساسية مثل المأوى والنقل والاتصالات والموارد الصناعية . وقد يتبع الجيش هذه السياسة في أرض العدو أو في أرضه . +question : ماهي سياسة الأرض المحروقة ؟ +prompt : أجب عن السؤال التالي : ماهي سياسة الأرض المحروقة ؟ الجواب هو +pred_answer : ما يلي : 1 - تدمير البنية التحتية .2 - قتل المدنيين .3 - استخدام الأسلحة المحرمة دوليا .4 - +answer : إستراتيجية عسكرية أو طريقة عمليات يتم فيها إحراق أي شيء قد يستفيد منه العدو عند التقدم أو التراجع في منطقة ما + +context : تنقسم ليبيريا إلى 15 مقاطعة ( County ) وهي التقسيم الأول والتي تنقسم إلى 90 ضاحية ( District ) كمستوى ثاني . وتنقسم هذه الضواحي إلى عشائر ( Clan ) . +question : الى كم مقاطعة تنقسم ليبيريا ؟ +prompt : أجب عن السؤال التالي : الى كم مقاطعة تنقسم ليبيريا ؟ الجواب هو +pred_answer : : +answer : 15 + +context : ظهر أول معجون للأسنان بشكله الحالي في عام 1873 ويعرف معجون الأسنان على أنه " تركيبة كيميائية تستعمل بواسطة الفرشاة لتنظيف أسطح الأسنان بهدف تأمين الناحية الجمالية من تنظيف وتلميع والحصول على نفس ذي رائحة زكية ومنع الإصابة بتسوس الأسنان وذلك بإضافة العقاقير لمعالجتها مع الأنسجة الداعمة لها " . +question : متى تم اختراع معجون الاسنان ؟ +prompt : أجب عن السؤال التالي : متى تم اختراع معجون الاسنان ؟ الجواب هو في عام +pred_answer : 1880 +answer : 1873 + +context : الوجودية هو تيار فلسفي يميل إلى الحرية التامة في التفكير بدون قيود ويؤكد على تفرد الإنسان ، وأنه صاحب تفكير وحرية وإرادة واختيار ولا يحتاج إلى موجه . وهي جملة من الاتجاهات والأفكار المتباينة ، وليست نظرية فلسفية واضحة المعالم ، ونظرا لهذا الاضطراب والتذبذب لم تستطع إلى الآن أن تأخذ مكانها بين العقائد والأفكار . وتكرس الوجودية في التركيز على مفهوم أن الإنسان كفرد يقوم بتكوين جوهر ومعنى لحياته . ولقد ظهرت كحركة أدبية وفلسفية في القرن العشرين ، على الرغم من وجود من كتب عنها في حقب سابقة . فالوجودية توضح أن غياب التأثير المباشر لقوة خارجية ( الإله ) يعني بأن الفرد حر بالكامل ولهذا السبب هو مسؤول عن أفعاله الحرة . والإنسان هو من يختار ويقوم بتكوين معتقداته والمسؤولية الفردية خارجا عن أي نظام مسبق . وهذه الطريقة الفردية للتعبير عن الوجود هي الطريقة الوحيدة للنهوض فوق الحالة المفتقرة للمعنى المقنع ( المعاناة والموت وفناء الفرد ) . +question : ما هي الفلسفة الوجودية ؟ +prompt : أجب عن السؤال التالي : ما هي الفلسفة الوجودية ؟ الجواب هو +pred_answer : أن الفيلسوف الفرنسي جان بول سارتر ( Jean - Paul Sartre ) يعتبر من أهم الفلاسفة الوجوديين +answer : تيار فلسفي يميل إلى الحرية التامة في التفكير بدون قيود ويؤكد على تفرد الإنسان وأنه صاحب تفكير وحرية وإرادة واختيار ولا يحتاج إلى موجه + +context : سد أسوان العالي أو السد العالي هو سد مائي على نهر النيل في جنوب مصر ، أنشئ في عهد جمال عبد الناصر و قد ساعد السوفييت في بناءه . [1][2][3] وقد ساعد السد كثيرا في التحكم على تدفق المياه والتخفيف من آثار فيضان النيل . يستخدم لتوليد الكهرباء في مصر . طول السد 3600 متر ، عرض القاعدة 980 متر ، عرض القمة 40 مترا ، والارتفاع 111 متر . حجم جسم السد 43 مليون متر مكعب من إسمنت وحديد ومواد أخرى ، ويمكن أن يمر خلال السد تدفق مائي يصل إلى 11 , 000 متر مكعب من الماء في الثانية الواحدة . بدأ بناء السد في عام 1960 وقد قدرت التكلفة الإجمالية بمليار دولار شطب ثلثها من قبل الاتحاد السوفييتي . عمل في بناء السد 400 خبير سوفييتي وأكمل بناؤه في 1968 . ثبت آخر 12 مولد كهربائي في 1970 وافتتح السد رسميا في عام 1971 . ولكن أدى السد العالي إلي تقليل خصوبة نهر النيل وعدم تعويض المصبات في دمياط ورأس البر بالطمي مما يهدد بغرق الدلتا بعد نحو أكثر من مائة عام وبسبب بعض العوامل الأخرى مثل الاحتباس الحراري وذوبان الجليد بالقطبين الشمالي والجنوبي بتأثير سلبي من طبقة الأوزون . وتجدر الإشارة هنا إلى أن أول من اشار ببناء هذا السد هو العالم العربي المسلم الحسن بن الحسن بن الهيثم - ( ولد عام 965 م وتوفى عام 1029 م ) . والذي لم تتح له الفرصة لتنفيذ فكرته وذلك بسبب عدم توفر الآلات اللازمة لبناءه في عهده . +question : كم يبلغ ارتفاع السد العالي في مصر ؟ +prompt : أجب عن السؤال التالي : كم يبلغ ارتفاع السد العالي في مصر ؟ الجواب هو +pred_answer : أن سد أسوان +answer : 111 متر + diff --git a/arabert/aragpt2/results/Detection of Machine Generated Text - Google Forms.pdf b/arabert/aragpt2/results/Detection of Machine Generated Text - Google Forms.pdf new file mode 100644 index 0000000000000000000000000000000000000000..be819c9ed25b24f84a7afdbc2d34a3664d84627d Binary files /dev/null and b/arabert/aragpt2/results/Detection of Machine Generated Text - Google Forms.pdf differ diff --git a/arabert/aragpt2/train_bpe_tokenizer.py b/arabert/aragpt2/train_bpe_tokenizer.py new file mode 100644 index 0000000000000000000000000000000000000000..c99f221b78a66c4c310f1b84872c6d25c4ae03c7 --- /dev/null +++ b/arabert/aragpt2/train_bpe_tokenizer.py @@ -0,0 +1,59 @@ +import argparse +import glob +import os +from tokenizers import ByteLevelBPETokenizer +from transformers import GPT2TokenizerFast + + +if __name__ == "__main__": + parser = argparse.ArgumentParser() + parser.add_argument("--data-files", type=str, required=True) + parser.add_argument("--vocab-size", type=int, required=True) + parser.add_argument("--output-dir", type=str, required=True) + parser.add_argument("--output-file-name", type=str, required=True) + args = parser.parse_args() + + gpt2_tok = ByteLevelBPETokenizer(add_prefix_space=True) + + files = glob.glob(args.data_files) + if len(files) > 10: + print(files[0:10]) + else: + print(files) + + gpt2_tok.train( + files=files, + vocab_size=args.vocab_size, + show_progress=True, + special_tokens=["<|endoftext|>", "", "", ""], + ) + + if not os.path.exists(args.output_dir): + os.makedirs(args.output_dir) + + + gpt2_tok.save( + os.path.join(args.output_dir,"tokenizer.json"), pretty=True + ) # FIX Access is denied. (os error 5) + gpt2_tok.save_model(args.output_dir, args.output_file_name) + + # tokenizer = GPT2TokenizerFast( + # vocab_file=os.path.join(args.output_dir, args.output_file_name) + "-vocab.json", + # merges_file=os.path.join(args.output_dir, args.output_file_name) + # + "-merges.txt", + # add_prefix_space=True, + # ) + + # tokenizer.add_special_tokens( + # { + # "eos_token": "<|endoftext|>", + # "bos_token": "<|endoftext|>", + # "unk_token": "<|endoftext|>", + # "pad_token": "<|endoftext|>", + # "mask_token": "<|endoftext|>", + # } + # ) + + # tokenizer.save_pretrained( + # args.output_dir, legacy_format=False, filename_prefix=args.output_file_name + # ) diff --git a/arabert/examples/README.md b/arabert/examples/README.md new file mode 100644 index 0000000000000000000000000000000000000000..233d5411417695a92db48e18e00575fdc554bc1a --- /dev/null +++ b/arabert/examples/README.md @@ -0,0 +1,21 @@ +**Examples** + +- The `old` folder contains all the old examples that works with AraBERTv1 + +- For Question Answering check the `question-answering` folder, and these 2 notebooks: + - Arabic TyDiQA: [![Open In Colab][COLAB]](https://colab.research.google.com/drive/1hik0L_Dxg6WwJFcDPP1v74motSkst4gE?usp=sharing) + - Arabic-SQuAD + ARCD: [![Open In Colab][COLAB]](https://colab.research.google.com/drive/1eIoVxKZP9KWLumkHHrfmU8Vtb-BLWiVD?usp=sharing) + +- Text generation with AraGPT2 [![Open In Colab][COLAB]](https://colab.research.google.com/drive/1T5xKRAtKeuUmmokyThvkK8pulHw02CoK?usp=sharing) + +- Zero-Shot Question Answering and Translation with AraGPT2-mega [![Open In Colab][COLAB]](https://colab.research.google.com/drive/1NBghhl2laYZ9jHPKYWTLLUM8R1LePdU6?usp=sharing) + +- Text-classification/Sentiment Analysis with Hyper Parameter tuning [![Open In Colab][COLAB]](https://colab.research.google.com/drive/1P9iQHtUH5KUbTVtp8B4-AopZzEEPE0lw?usp=sharing) + +- NER with ANERCorp-CamelSplits and Hyper Parameter tuning [![Open In Colab][COLAB]](https://colab.research.google.com/drive/128wX6r_Nz-2LZ_lROeWjWS_yTi96KR7J?usp=sharing) + + +- Extract word embeddings from sentences using the Transformers Library [![Open In Colab][COLAB]](https://colab.research.google.com/drive/1Xk8IGcwGTr-YNlB6lhl8jYdIU_M7Mcjx?usp=sharing) + + +[COLAB]: https://colab.research.google.com/assets/colab-badge.svg \ No newline at end of file diff --git a/arabert/examples/old/AraBERT_ANERCorp_CamelSplits.ipynb b/arabert/examples/old/AraBERT_ANERCorp_CamelSplits.ipynb new file mode 100644 index 0000000000000000000000000000000000000000..6f229e5d79512f9b54bb5b91de77d9c6d616b28d --- /dev/null +++ b/arabert/examples/old/AraBERT_ANERCorp_CamelSplits.ipynb @@ -0,0 +1,18838 @@ +{ + "nbformat": 4, + "nbformat_minor": 0, + "metadata": { + "colab": { + "name": "AraBERT-ANERCorp-CamelSplits", + "provenance": [], + "collapsed_sections": [], + "toc_visible": true + }, + "kernelspec": { + "name": "python3", + "display_name": "Python 3" + }, + "widgets": { + "application/vnd.jupyter.widget-state+json": { + "db5981dd08804ac684153396abce449e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_91e29953bc0848f8a651c1a2371d4688", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_f395a364345c4bf9ba448f0d932113bb", + "IPY_MODEL_48ad718df8fa4d6cab60cbb20f3df204" + ] + } + }, + "91e29953bc0848f8a651c1a2371d4688": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f395a364345c4bf9ba448f0d932113bb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_aa9a63cbba0d49e7982d1c8091e4ce25", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_9052e6678b4247e09b550b5067060e44" + } + }, + "48ad718df8fa4d6cab60cbb20f3df204": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_1900035cd0044bcb8ac2d36a99c9bac2", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.46it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_df681e320ef04c93b30e79993df729cc" + } + }, + "aa9a63cbba0d49e7982d1c8091e4ce25": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "9052e6678b4247e09b550b5067060e44": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "1900035cd0044bcb8ac2d36a99c9bac2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "df681e320ef04c93b30e79993df729cc": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c9919bce589943a3bed91d77f3ed74ad": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_8fd0ad78e9d04b64807430445e76dba9", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_7fe58410936e48889b487b94fa4f42d2", + "IPY_MODEL_d5a646591df54d95925f8f2c43097b0d" + ] + } + }, + "8fd0ad78e9d04b64807430445e76dba9": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7fe58410936e48889b487b94fa4f42d2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_802d10e4f6104a83b213f8992e6d4ddd", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_f5c4d2bddb634f9c92f13d2e8736f076" + } + }, + "d5a646591df54d95925f8f2c43097b0d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_8d1ae0eb14e24979a0769141a4dd5dcf", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 17.29it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_097f49ba1705439eb8c135173967ccc3" + } + }, + "802d10e4f6104a83b213f8992e6d4ddd": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "f5c4d2bddb634f9c92f13d2e8736f076": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "8d1ae0eb14e24979a0769141a4dd5dcf": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "097f49ba1705439eb8c135173967ccc3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "df55ba7759874d2ba5a495f02d1ab304": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_0ebbc10a88724713b9b40414ad426bbd", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_3e0a8ecfb12b4a5d913850d5e7958ee7", + "IPY_MODEL_ff937713c3144cb7b5f2feb85d67c446" + ] + } + }, + "0ebbc10a88724713b9b40414ad426bbd": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "3e0a8ecfb12b4a5d913850d5e7958ee7": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_0bac92432218417fb980e29a13229288", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_9fc5cdb64ed34c03a93febae7f7db86b" + } + }, + "ff937713c3144cb7b5f2feb85d67c446": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_9de5cf5a90164b528af42143df53e246", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [16:24<00:00, 9.85s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_85bf98868d984a879e4d441483b4b934" + } + }, + "0bac92432218417fb980e29a13229288": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "9fc5cdb64ed34c03a93febae7f7db86b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9de5cf5a90164b528af42143df53e246": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "85bf98868d984a879e4d441483b4b934": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "05bb6cf575094e5faf69111b27e5ecf8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_94e7cd5d27d845bb885f32bdb9532dc3", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_56db6dbb9dcc422da1304c09e5f2ce6a", + "IPY_MODEL_0bb5c8c743e448a3b29f32bbfd52a398" + ] + } + }, + "94e7cd5d27d845bb885f32bdb9532dc3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "56db6dbb9dcc422da1304c09e5f2ce6a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_0ef4fd4e686d427ab8552533f30bdee6", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_b527c61cacab4817a06df08e50863f36" + } + }, + "0bb5c8c743e448a3b29f32bbfd52a398": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_6ec1e587c13b407ba14f7a70b00a39f2", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.99it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_f6f17bf0284a4913b500e1bcccafa21b" + } + }, + "0ef4fd4e686d427ab8552533f30bdee6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "b527c61cacab4817a06df08e50863f36": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "6ec1e587c13b407ba14f7a70b00a39f2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "f6f17bf0284a4913b500e1bcccafa21b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "00acead444af4c5bae21cc79e0d55481": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_6a86b5705afc460898c4f1037e33ae02", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_44e44f2ef0284eccae5d75fdbd2da488", + "IPY_MODEL_ab19f1bd26bd45308a78ba4a12c27949" + ] + } + }, + "6a86b5705afc460898c4f1037e33ae02": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "44e44f2ef0284eccae5d75fdbd2da488": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_f3e4e8648b994b66b7db4c287d047d91", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_70d1893574c241f5aa69f4b94a4c6f4d" + } + }, + "ab19f1bd26bd45308a78ba4a12c27949": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_9dbcb8ac8d014cdb8bde08ae84b28302", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:03<00:00, 1.57it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_cc2e170cb0124126bd5611c345e1f21d" + } + }, + "f3e4e8648b994b66b7db4c287d047d91": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "70d1893574c241f5aa69f4b94a4c6f4d": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9dbcb8ac8d014cdb8bde08ae84b28302": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "cc2e170cb0124126bd5611c345e1f21d": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "5d6e251fbc2b4176a12c74c4d96eb137": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_a1c8d55fbf4f496b9cb7cd797479646c", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_571a2cc9c4d54a3f9687e30797104640", + "IPY_MODEL_861f6a70db6e4999b3dc2d60985f270b" + ] + } + }, + "a1c8d55fbf4f496b9cb7cd797479646c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "571a2cc9c4d54a3f9687e30797104640": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_0907210bea0a4e8eaa31a9db29bccfb7", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_2045d1a4c4b44326af91998c13c68c8f" + } + }, + "861f6a70db6e4999b3dc2d60985f270b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_53c3b1fca93f48409d4b7c5d40710be4", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.91it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_17c8f4b3d4cc448fb687d852b4355f41" + } + }, + "0907210bea0a4e8eaa31a9db29bccfb7": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "2045d1a4c4b44326af91998c13c68c8f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "53c3b1fca93f48409d4b7c5d40710be4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "17c8f4b3d4cc448fb687d852b4355f41": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ee7e678fc5314e83bcd2c27ef2b3c926": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_82894fb514b543d3bcb1a1fb52a48130", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_437695a7f4f14a8e8282bbfe11216c49", + "IPY_MODEL_1d692223bc8c4ab6bb10108c54032477" + ] + } + }, + "82894fb514b543d3bcb1a1fb52a48130": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "437695a7f4f14a8e8282bbfe11216c49": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_77be4e59392443a8aecc376ce3b8b31e", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_06b8ddcbd4cd4ef6abad7c23c99c9744" + } + }, + "1d692223bc8c4ab6bb10108c54032477": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_fdf7655dddeb40938b1a0be6e537a917", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_a50277c304a64882836c6612a43b869d" + } + }, + "77be4e59392443a8aecc376ce3b8b31e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "06b8ddcbd4cd4ef6abad7c23c99c9744": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "fdf7655dddeb40938b1a0be6e537a917": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "a50277c304a64882836c6612a43b869d": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "47b415f1bee14445ae04d45a72f72849": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_1d82ab9772ab46a3a3e8dcb0fb7b0159", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_beb13ad07b484fb6bf8325c9047a9bc3", + "IPY_MODEL_333c3918a6304fc6a4fdd3e8e33dfb71" + ] + } + }, + "1d82ab9772ab46a3a3e8dcb0fb7b0159": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "beb13ad07b484fb6bf8325c9047a9bc3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_363bcf6e013341a797f5100586e1b20d", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_af0a43a07ffe4c028c98e61ab335179a" + } + }, + "333c3918a6304fc6a4fdd3e8e33dfb71": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_356d2fa41e56451fb81e6b96b1fba74d", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 17.10it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_5ebb26219665448baeed5405d5bd50ee" + } + }, + "363bcf6e013341a797f5100586e1b20d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "af0a43a07ffe4c028c98e61ab335179a": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "356d2fa41e56451fb81e6b96b1fba74d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "5ebb26219665448baeed5405d5bd50ee": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "4a9a4aa57c2f4b2c8df15fd1f7659f68": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_04e998d7bbc74ca6ace37b74a7bdef8b", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_015489a50aa9429f86f82a7a8f557ed5", + "IPY_MODEL_4eac98e1a9f6467c882a581827c8fbdc" + ] + } + }, + "04e998d7bbc74ca6ace37b74a7bdef8b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "015489a50aa9429f86f82a7a8f557ed5": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_4f8f27ebf13c4356bf776570b0190437", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_30aab655f11d45e3975f052a72e97cf2" + } + }, + "4eac98e1a9f6467c882a581827c8fbdc": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_bff848a362a647dc8b94070d3ab63f32", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_5da4ae3ee97b401fb5c54d9a40f38790" + } + }, + "4f8f27ebf13c4356bf776570b0190437": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "30aab655f11d45e3975f052a72e97cf2": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "bff848a362a647dc8b94070d3ab63f32": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "5da4ae3ee97b401fb5c54d9a40f38790": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "6553341a2cb140b8b86a4ab5dd896d37": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_049c30ff5be34f86b3bc98f15a74c6a7", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_295c18d45f664a038b06bd0b290bbea1", + "IPY_MODEL_d21834da4afc4e599a87a863a04341b6" + ] + } + }, + "049c30ff5be34f86b3bc98f15a74c6a7": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "295c18d45f664a038b06bd0b290bbea1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_7a87ec73ed4d49acb79dd2c209406c71", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_24be250a134e4bc48a1ead86d9d67ba8" + } + }, + "d21834da4afc4e599a87a863a04341b6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_9ca79cc8aed24f39a63731fabd61aeae", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.89it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_f4f3cd1ab87b449aaa77db0c6f7faebe" + } + }, + "7a87ec73ed4d49acb79dd2c209406c71": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "24be250a134e4bc48a1ead86d9d67ba8": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9ca79cc8aed24f39a63731fabd61aeae": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "f4f3cd1ab87b449aaa77db0c6f7faebe": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "beb966caaba146dbb813628629f17b31": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_e89436a8a18941659e7d4fabdf62b348", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_145f1b478ec8428cae895fdd7bc7ebbc", + "IPY_MODEL_1916c1d41a9d4266a518cad88ff354d9" + ] + } + }, + "e89436a8a18941659e7d4fabdf62b348": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "145f1b478ec8428cae895fdd7bc7ebbc": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_6db0abd5440349a2941f3ef26971a03a", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_53eed69fa09641d294580ab95860c463" + } + }, + "1916c1d41a9d4266a518cad88ff354d9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_c9a3c118c671427a926497850df10024", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:09<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_d92106c8ec3f4b44a66848fe0cde53b9" + } + }, + "6db0abd5440349a2941f3ef26971a03a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "53eed69fa09641d294580ab95860c463": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c9a3c118c671427a926497850df10024": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "d92106c8ec3f4b44a66848fe0cde53b9": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7ab957d43de04aeaa74f9afbcac6f351": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_d02f50d6add44542aa983e402cd36bf0", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_fe6e4c1f9ede4c87847ae737b06952b1", + "IPY_MODEL_ff3ba6bd59f549d6932147d0ab6376c2" + ] + } + }, + "d02f50d6add44542aa983e402cd36bf0": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "fe6e4c1f9ede4c87847ae737b06952b1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_7ef7b42e14ce4df1879cce676da5d2a9", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_b493099d9d8b45ac9394309a8dad64a6" + } + }, + "ff3ba6bd59f549d6932147d0ab6376c2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_390ebc2783184d83b2c901876b2c3913", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 17.16it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_a71253e72bc9469fa3c2a735442f07b3" + } + }, + "7ef7b42e14ce4df1879cce676da5d2a9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "b493099d9d8b45ac9394309a8dad64a6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "390ebc2783184d83b2c901876b2c3913": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "a71253e72bc9469fa3c2a735442f07b3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "681f01d603864529a2537011ea1794a5": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_861f98f569974847a8d8154ccebee1d3", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_1c447ef2e4124174909caf1b71d162e4", + "IPY_MODEL_66692bf13e544528b920ea8b93960bdc" + ] + } + }, + "861f98f569974847a8d8154ccebee1d3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "1c447ef2e4124174909caf1b71d162e4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_2fe12cb81046477a868bd279b94140a8", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_77a445a1017646599df9e23f1728428f" + } + }, + "66692bf13e544528b920ea8b93960bdc": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_275716da7e214cfd860320b8f50185b7", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_ee1b22a358464514bdda239f9733918e" + } + }, + "2fe12cb81046477a868bd279b94140a8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "77a445a1017646599df9e23f1728428f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "275716da7e214cfd860320b8f50185b7": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "ee1b22a358464514bdda239f9733918e": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "6d7dcdf328254d75b6f6ca8b8fd1ad90": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_2ab9b2bae53c46169cb9924f1e2867ef", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_ccc6ef5303814691b505b1736e7c2e68", + "IPY_MODEL_bac2e14f37ca45f39fc676b9578a81d3" + ] + } + }, + "2ab9b2bae53c46169cb9924f1e2867ef": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ccc6ef5303814691b505b1736e7c2e68": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_6fad86f3e635481bb9b7b6605c535d8e", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_45f6ed7e9eaa495aae7187249dc3f11f" + } + }, + "bac2e14f37ca45f39fc676b9578a81d3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_b586787a170b4dc191f0550974787213", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.94it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_f90673944683471ebc5eb69fbc6b76f8" + } + }, + "6fad86f3e635481bb9b7b6605c535d8e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "45f6ed7e9eaa495aae7187249dc3f11f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "b586787a170b4dc191f0550974787213": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "f90673944683471ebc5eb69fbc6b76f8": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "84c7bc15fd63405db569d68bb3e6dcdb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_e5f53a106dc64ff8a7518b25b7cf8b5f", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_7feb7fc0e1284c7babeca0683bb1166f", + "IPY_MODEL_afaf655e402840fdbf0cab7aaa135b32" + ] + } + }, + "e5f53a106dc64ff8a7518b25b7cf8b5f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7feb7fc0e1284c7babeca0683bb1166f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_554ba0311d3c40baab27d4a150c2ae5c", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_bacc0a1952d74d72b304dfb9ec0cd725" + } + }, + "afaf655e402840fdbf0cab7aaa135b32": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_069173b4cee645c79ae803e7ab27d1f8", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:03<00:00, 1.58it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_35e6dbdc25114541874bfe846f98af1c" + } + }, + "554ba0311d3c40baab27d4a150c2ae5c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "bacc0a1952d74d72b304dfb9ec0cd725": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "069173b4cee645c79ae803e7ab27d1f8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "35e6dbdc25114541874bfe846f98af1c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "3dc76d69c7864f6a9af02ae29f24e183": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_2b74d2ace83d4550886757f94222c64e", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_f01648fbe4564055b5ae3aef3fcd65e0", + "IPY_MODEL_5c58317ccfc0483bb50a6d1f8d3faf93" + ] + } + }, + "2b74d2ace83d4550886757f94222c64e": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f01648fbe4564055b5ae3aef3fcd65e0": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_6a1ac8c0918245cd9d33f20aea7d0212", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_b5fef062488049b68f88196cc91d9164" + } + }, + "5c58317ccfc0483bb50a6d1f8d3faf93": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_1ae43a3205d74e3b8c41d4ded04b3ba5", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 17.08it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_5e28b805849947038876f585b6116def" + } + }, + "6a1ac8c0918245cd9d33f20aea7d0212": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "b5fef062488049b68f88196cc91d9164": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "1ae43a3205d74e3b8c41d4ded04b3ba5": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "5e28b805849947038876f585b6116def": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e739d8114d5844cf9a4910cc432b132c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_49849ffaf279422ba8f6c1b273e4debe", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_9169156c331c4a04bb9162bbec0b44d7", + "IPY_MODEL_93838599a2fc4969baeaea5ce7328344" + ] + } + }, + "49849ffaf279422ba8f6c1b273e4debe": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9169156c331c4a04bb9162bbec0b44d7": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_7306a03669524a3298c664165a57ce1e", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_e6f7b09740d046599d27832871817281" + } + }, + "93838599a2fc4969baeaea5ce7328344": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_c90e29a6e5c4449fa8de450a880554cf", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:03<00:00, 1.58it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_9cba44b966ef4d83b4980b6d03dd5556" + } + }, + "7306a03669524a3298c664165a57ce1e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "e6f7b09740d046599d27832871817281": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c90e29a6e5c4449fa8de450a880554cf": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "9cba44b966ef4d83b4980b6d03dd5556": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7073b81b56a3472eb3c9e5d385760d19": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_26f6341eec544e048d8e26e67a56639c", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_3c71a9bf3221431795497b57293b696d", + "IPY_MODEL_ed4ea6acb5344243980125dd96227fd1" + ] + } + }, + "26f6341eec544e048d8e26e67a56639c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "3c71a9bf3221431795497b57293b696d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_04896eeef4b84e859d0b4fdc271a2f6a", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_0789326d58114acf92fe76d54645ac92" + } + }, + "ed4ea6acb5344243980125dd96227fd1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_9289b1c62bbb465697ac40d4d46d2aac", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 17.02it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_59298b7dac624ed0847427535f7bbe45" + } + }, + "04896eeef4b84e859d0b4fdc271a2f6a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "0789326d58114acf92fe76d54645ac92": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9289b1c62bbb465697ac40d4d46d2aac": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "59298b7dac624ed0847427535f7bbe45": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "214edbfe84a447379f9d6f9f240ef801": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_7f26923ba89049dcadf3fec6468712e5", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_3ca69efca0cb41eda766fe02a9197b6b", + "IPY_MODEL_1bca156f7b9b4df4985d3399af6c95dc" + ] + } + }, + "7f26923ba89049dcadf3fec6468712e5": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "3ca69efca0cb41eda766fe02a9197b6b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_742f3623e47247319c8530833067ab0b", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_8cf9929faa22404ea2db8f79325da548" + } + }, + "1bca156f7b9b4df4985d3399af6c95dc": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_6724aae8cbce4c5995050b5cff7cbafd", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [06:59<00:00, 4.19s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_bf60baf45fc546e29d7f6cbebc90651e" + } + }, + "742f3623e47247319c8530833067ab0b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "8cf9929faa22404ea2db8f79325da548": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "6724aae8cbce4c5995050b5cff7cbafd": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "bf60baf45fc546e29d7f6cbebc90651e": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7e5d6f5b41aa498ba757a77af2a1586f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_1c596c6fc9ac48c0bdda92d593844b0f", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_2c403dfb4bd14c5da7233ca7cd6df4e1", + "IPY_MODEL_99b9d169a05d4ef3aafd2a2ff963c72e" + ] + } + }, + "1c596c6fc9ac48c0bdda92d593844b0f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "2c403dfb4bd14c5da7233ca7cd6df4e1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_33f87de362aa447f9376b822b2adf252", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_3a4d8a9c0d2e4c6abb0d798f10f36745" + } + }, + "99b9d169a05d4ef3aafd2a2ff963c72e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_e398d5839524475c81eacbe08ac8c610", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.99it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_25b66c9ffc7b4434af5b8c61e955cc7f" + } + }, + "33f87de362aa447f9376b822b2adf252": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "3a4d8a9c0d2e4c6abb0d798f10f36745": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e398d5839524475c81eacbe08ac8c610": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "25b66c9ffc7b4434af5b8c61e955cc7f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "1bfe5cbf18f54ceb8a6a0087cd973c0d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_09c21013611a4256a0e8d7caa7002cc6", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_446943b6a1a743bbb67c26e6cfba5ff9", + "IPY_MODEL_e9dc547a5d11440fb4eb9d40614c5413" + ] + } + }, + "09c21013611a4256a0e8d7caa7002cc6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "446943b6a1a743bbb67c26e6cfba5ff9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_6cfca10498c64c3c9ceb5b6d7b55b54a", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_9dae412aed1043a79a6af4c5b88029e7" + } + }, + "e9dc547a5d11440fb4eb9d40614c5413": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_829f56a63d294c048fcc5b421e2ff828", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_3444c304c0c5408abe3764a504409b84" + } + }, + "6cfca10498c64c3c9ceb5b6d7b55b54a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "9dae412aed1043a79a6af4c5b88029e7": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "829f56a63d294c048fcc5b421e2ff828": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "3444c304c0c5408abe3764a504409b84": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e703d0c1f5084514a32aeca2765e8c7c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_07e3716848f94a57801dd47f212b239b", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_834631cd937845a89e4fe939e34e89b4", + "IPY_MODEL_ed1f8821c87d43488ecaf804147f984f" + ] + } + }, + "07e3716848f94a57801dd47f212b239b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "834631cd937845a89e4fe939e34e89b4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_8eef4f93aa384bf19d2f4c4c5fa97622", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_9daa0e1f93ae4e4fb547af12eb3e255d" + } + }, + "ed1f8821c87d43488ecaf804147f984f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_b3218c51760042009044785a3b3fe456", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.83it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_6351e4e9a4f1430b977ffd48eb209987" + } + }, + "8eef4f93aa384bf19d2f4c4c5fa97622": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "9daa0e1f93ae4e4fb547af12eb3e255d": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "b3218c51760042009044785a3b3fe456": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "6351e4e9a4f1430b977ffd48eb209987": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ff64c9ea45e14d9bb198666451c150eb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_33a27158e5f94f3fbe7412a5fb4aa64e", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_e7be33e956b941fca30cca0fc193019e", + "IPY_MODEL_1766efbe29e34d9eb06ece1a9ff237d1" + ] + } + }, + "33a27158e5f94f3fbe7412a5fb4aa64e": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e7be33e956b941fca30cca0fc193019e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_4068062de85541d6964ba3cb80e2ad53", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_a5300efbac47404aba134e462f92a3fd" + } + }, + "1766efbe29e34d9eb06ece1a9ff237d1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_ed87cef367154fe49b016625119203cb", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_024d8ca1d1e149819d56a5871f9b6594" + } + }, + "4068062de85541d6964ba3cb80e2ad53": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "a5300efbac47404aba134e462f92a3fd": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ed87cef367154fe49b016625119203cb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "024d8ca1d1e149819d56a5871f9b6594": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "268bd05267ba4da682884c0e3d6db6bb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_684e3df3b6e64e84980e9443847ab4fd", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_8068aee7abd14c8fb33ddfb720a88dc1", + "IPY_MODEL_065882aa5c644e58a2fb33fe0642bdb4" + ] + } + }, + "684e3df3b6e64e84980e9443847ab4fd": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "8068aee7abd14c8fb33ddfb720a88dc1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_9a0d23f54a97427aa0aa6fc6503fe7a5", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_38795489ab7746a6bf684b1e3784cfa2" + } + }, + "065882aa5c644e58a2fb33fe0642bdb4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_fbd5fe1ebe1f4554958e6d784f0f9092", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.91it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_a8c5cc79638641fa9d9915a4bd08eb78" + } + }, + "9a0d23f54a97427aa0aa6fc6503fe7a5": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "38795489ab7746a6bf684b1e3784cfa2": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "fbd5fe1ebe1f4554958e6d784f0f9092": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "a8c5cc79638641fa9d9915a4bd08eb78": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "a8039f6839b94b0193bf92b89af5b3b7": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_22693c3fc6fa41b5ab125cf25c675c87", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_257da3a2a8304b6399b45f09ab5389b6", + "IPY_MODEL_387c200ab5184fe6b93b692a5faeef4f" + ] + } + }, + "22693c3fc6fa41b5ab125cf25c675c87": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "257da3a2a8304b6399b45f09ab5389b6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_59d29ad07548449f8e508ed11eb4bd53", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_fc0d40bd71ba45bdbae8e2d2e1c1dbd9" + } + }, + "387c200ab5184fe6b93b692a5faeef4f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_c27854abff734e8ba20ecd5cf20cc81b", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_4baad9dc969a4a58b77029aa302ebe5f" + } + }, + "59d29ad07548449f8e508ed11eb4bd53": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "fc0d40bd71ba45bdbae8e2d2e1c1dbd9": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c27854abff734e8ba20ecd5cf20cc81b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "4baad9dc969a4a58b77029aa302ebe5f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e4afe9f730a147b0a1a12581fac40504": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_b3423221d9894927831770ca10537a49", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_8017c5de22594e53bd77f770d04b78fb", + "IPY_MODEL_b3833fdff93c40b09be5583490c22260" + ] + } + }, + "b3423221d9894927831770ca10537a49": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "8017c5de22594e53bd77f770d04b78fb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_7f7e2ed50ca34f00939f4ae8b8550ef8", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_d7197058827b4bd29a5ac36f5d8a0552" + } + }, + "b3833fdff93c40b09be5583490c22260": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_8ce8c726c1a74a96a7595ce5860d0470", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.77it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_64a1df12972845d8a43f24f4ff5fe57a" + } + }, + "7f7e2ed50ca34f00939f4ae8b8550ef8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "d7197058827b4bd29a5ac36f5d8a0552": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "8ce8c726c1a74a96a7595ce5860d0470": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "64a1df12972845d8a43f24f4ff5fe57a": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "5cb39226e00d48d99a3f7daf4f2641ce": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_8c81ed38f81b4f958be89bf8067f0690", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_e8ce095b07164ffa88aae660f5ead6fd", + "IPY_MODEL_54a53c02cceb4942a8a87dac421301d8" + ] + } + }, + "8c81ed38f81b4f958be89bf8067f0690": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e8ce095b07164ffa88aae660f5ead6fd": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_3bd1c737947f4b1c9b08d351f41266aa", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_4ba647af3c064c9ea4918aa4de53e6a3" + } + }, + "54a53c02cceb4942a8a87dac421301d8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_409add9748af47919de6a559897ed904", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.46it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_6176a269c954445d981b235412164980" + } + }, + "3bd1c737947f4b1c9b08d351f41266aa": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "4ba647af3c064c9ea4918aa4de53e6a3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "409add9748af47919de6a559897ed904": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "6176a269c954445d981b235412164980": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "68cfb93f8063472d9af3a7a2bfaecc85": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_cd12cf560e314b6b8cba6d2f16d3fab3", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_4f90f6cfcf36440f8df67c99a1126371", + "IPY_MODEL_2f1e70eed78f434d961bdd7d1d3641c4" + ] + } + }, + "cd12cf560e314b6b8cba6d2f16d3fab3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "4f90f6cfcf36440f8df67c99a1126371": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_991d1db79412417facbb1563b29d37a9", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_2557e3846d834c978091b5ae7eac2b1e" + } + }, + "2f1e70eed78f434d961bdd7d1d3641c4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_f2e4bf2d0ce847c6b95292393b881575", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.84it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_eace04b1a96440ca9b5875df40c306ce" + } + }, + "991d1db79412417facbb1563b29d37a9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "2557e3846d834c978091b5ae7eac2b1e": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f2e4bf2d0ce847c6b95292393b881575": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "eace04b1a96440ca9b5875df40c306ce": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "da08f85e21334e2590c33be180c5dfea": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_b6b706b7372a48e58ee2db2f3975af5d", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_c42d111373ac4b47839073e147f8b610", + "IPY_MODEL_de7f096bc8104cbabece87b7fbce8d93" + ] + } + }, + "b6b706b7372a48e58ee2db2f3975af5d": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c42d111373ac4b47839073e147f8b610": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_a95d7bed23e6457da3dc0482de04fa42", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_850cd786afe84ef1af195bb267f49953" + } + }, + "de7f096bc8104cbabece87b7fbce8d93": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_6f6ca649c37f488493918a5073abfe1c", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:03<00:00, 1.58it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_05af38956d1b4574b3494ab3f5e98eb3" + } + }, + "a95d7bed23e6457da3dc0482de04fa42": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "850cd786afe84ef1af195bb267f49953": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "6f6ca649c37f488493918a5073abfe1c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "05af38956d1b4574b3494ab3f5e98eb3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "268be7aa370c414db80641752b6f9a23": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_b1d99dd7703a433c8d623c074a85b3eb", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_f8ae4bd9bba2484db04157ebca40c093", + "IPY_MODEL_b7744e306e094924b362f47980995b14" + ] + } + }, + "b1d99dd7703a433c8d623c074a85b3eb": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f8ae4bd9bba2484db04157ebca40c093": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_eba46693b6ee43ec83a0eb7a626bc63b", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_28b872afa0df49ceacd2245196c3287c" + } + }, + "b7744e306e094924b362f47980995b14": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_663ef026484440feb0904de44575a6e2", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.72it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_e4cd19256f2a4efdad7281c2b4677e69" + } + }, + "eba46693b6ee43ec83a0eb7a626bc63b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "28b872afa0df49ceacd2245196c3287c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "663ef026484440feb0904de44575a6e2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "e4cd19256f2a4efdad7281c2b4677e69": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "a8af9be30bd044e5a758f228eebd5e1e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_348d65d92ebf451099e12494ccc51205", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_4e0071c05e284ec8aa9938aa17b2c58b", + "IPY_MODEL_146fb82554634b4ab00bad82753a4f07" + ] + } + }, + "348d65d92ebf451099e12494ccc51205": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "4e0071c05e284ec8aa9938aa17b2c58b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_4d867edcb5f746d79071b5c13dd94760", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_baef281043ec410d920f3c21ecbc1741" + } + }, + "146fb82554634b4ab00bad82753a4f07": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_272291fad2d342949ee9524aa19c18f1", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_718af4fc25b44411bf53e2c0fae3fc9c" + } + }, + "4d867edcb5f746d79071b5c13dd94760": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "baef281043ec410d920f3c21ecbc1741": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "272291fad2d342949ee9524aa19c18f1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "718af4fc25b44411bf53e2c0fae3fc9c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "a271f3c286a149958934eaf47552922c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_f8a9fb0a7903486ab7573afbdb3cba24", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_6df6bf5575cf4ede81b8a3fd62aa311f", + "IPY_MODEL_ede1cf8e214f487c8a4cfdd5c075a204" + ] + } + }, + "f8a9fb0a7903486ab7573afbdb3cba24": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "6df6bf5575cf4ede81b8a3fd62aa311f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_ea056069e4fe4cc7a82940db9615745b", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_9822a288d1d843c7b39e4734b703f737" + } + }, + "ede1cf8e214f487c8a4cfdd5c075a204": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_9d75bd74a32a4d489fa23827d36d4a5b", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.96it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_b078d48425b147cda596a832351b9d28" + } + }, + "ea056069e4fe4cc7a82940db9615745b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "9822a288d1d843c7b39e4734b703f737": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9d75bd74a32a4d489fa23827d36d4a5b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "b078d48425b147cda596a832351b9d28": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7ad3eb6a8aa74de9b6341bd5cd781161": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_d577535eeecb4169a67325012fb4f706", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_774f0123261d400c97cfbc104ec3f2c2", + "IPY_MODEL_9b9c926bda7f4287b88737d4382cbf8f" + ] + } + }, + "d577535eeecb4169a67325012fb4f706": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "774f0123261d400c97cfbc104ec3f2c2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_8070c3d9300742c694db7c6a06a8d8a6", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_a703abbd0ccd4dcbb536c6b1bcdd9830" + } + }, + "9b9c926bda7f4287b88737d4382cbf8f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_8da4bf16263b46f08a290ae2b072e2c6", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:57<00:00, 1.74it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_56d689f7a95443c1b598807545c1d192" + } + }, + "8070c3d9300742c694db7c6a06a8d8a6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "a703abbd0ccd4dcbb536c6b1bcdd9830": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "8da4bf16263b46f08a290ae2b072e2c6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "56d689f7a95443c1b598807545c1d192": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "08f21788e8204145ba3f7745f0a4499f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_a08083f684e0425fbd91f62a569647b6", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_adc779cb021a42ccad7bb84907815b00", + "IPY_MODEL_bebc5a9d3abe47cba316e900c98b068a" + ] + } + }, + "a08083f684e0425fbd91f62a569647b6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "adc779cb021a42ccad7bb84907815b00": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_b7fda71f85e046df9ed1de27357cb773", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_dfabbe6b32784b8ba8ab26f7d05286a3" + } + }, + "bebc5a9d3abe47cba316e900c98b068a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_f3da483bb2bf45468600c62915bbd0fb", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.90it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_8baf3833ede84843a4a9e47328c682d1" + } + }, + "b7fda71f85e046df9ed1de27357cb773": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "dfabbe6b32784b8ba8ab26f7d05286a3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f3da483bb2bf45468600c62915bbd0fb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "8baf3833ede84843a4a9e47328c682d1": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f4803dd761bf45e4b0c4d915a91234c8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_590538d5159c498a86dd2eb277ad49e5", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_53718fedcfab460ab0626476748558fe", + "IPY_MODEL_b5b8ddebda3f48c69677dda7b2b88a08" + ] + } + }, + "590538d5159c498a86dd2eb277ad49e5": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "53718fedcfab460ab0626476748558fe": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_42c4917773d3487aa4fdcb57ffbf1d3a", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_cf811808cb4145759c0a69b741f2e7bf" + } + }, + "b5b8ddebda3f48c69677dda7b2b88a08": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_68d55f886081465d8c37a2cea080711a", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:03<00:00, 1.57it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_8dc79a7c9b6e47f58249d47a96afc5ab" + } + }, + "42c4917773d3487aa4fdcb57ffbf1d3a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "cf811808cb4145759c0a69b741f2e7bf": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "68d55f886081465d8c37a2cea080711a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "8dc79a7c9b6e47f58249d47a96afc5ab": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "0e9bb060f7424e5aaca6af1de6de16da": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_9e6a425c8e8f4caf8eeee4097dc25e37", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_e6461da283244d1e9e544fb197192a0e", + "IPY_MODEL_7acf6861072e4a508d58f2fd90fee1f0" + ] + } + }, + "9e6a425c8e8f4caf8eeee4097dc25e37": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e6461da283244d1e9e544fb197192a0e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_1cc22743c55748c7bf484f8793cef7b4", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_1807a693234544c69137959af57529ce" + } + }, + "7acf6861072e4a508d58f2fd90fee1f0": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_f6e82c6cea2140498a376973d36fd843", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.86it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_c8c3c7a5a6814470a5e1861656230891" + } + }, + "1cc22743c55748c7bf484f8793cef7b4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "1807a693234544c69137959af57529ce": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f6e82c6cea2140498a376973d36fd843": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "c8c3c7a5a6814470a5e1861656230891": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c761619e6819428e99cc3056e70f5447": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_46cb697a6fb54e6390bc9edefb34dc09", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_0a42f7e4aaef4611ba31932cdf652e53", + "IPY_MODEL_d8f259396e6940ffafed825001a19694" + ] + } + }, + "46cb697a6fb54e6390bc9edefb34dc09": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "0a42f7e4aaef4611ba31932cdf652e53": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_8597b7d587c3475a8233370988f54646", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_24b53e45c5d04e419c08b19699b80d7b" + } + }, + "d8f259396e6940ffafed825001a19694": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_8a4492716a8045fca70a95191a71db43", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_d1b6c981924c493091da06e23d018b17" + } + }, + "8597b7d587c3475a8233370988f54646": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "24b53e45c5d04e419c08b19699b80d7b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "8a4492716a8045fca70a95191a71db43": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "d1b6c981924c493091da06e23d018b17": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c0aef2e4b73b42da96c16dea394991ad": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_0124df04589944f18fd1569f1d004220", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_fa51621f2fb0452197ea65e4551a582b", + "IPY_MODEL_c4528dbc627e4eed9cf89a298e741675" + ] + } + }, + "0124df04589944f18fd1569f1d004220": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "fa51621f2fb0452197ea65e4551a582b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_f344842b367c41ba8af5706f712c695d", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_5440f1e21c4147db9345bdaf5f31f4b5" + } + }, + "c4528dbc627e4eed9cf89a298e741675": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_eaae8541588346599f968daddbda98b6", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.77it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_1da775ac2d414f0ea7dc4033768699f3" + } + }, + "f344842b367c41ba8af5706f712c695d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "5440f1e21c4147db9345bdaf5f31f4b5": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "eaae8541588346599f968daddbda98b6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "1da775ac2d414f0ea7dc4033768699f3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "d90e9b4c15934997bbe7740a2d1ef5f5": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_1e35ad881eb24a80b6315a3fc08a59a6", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_d489011926064296a1622aefd95c62e0", + "IPY_MODEL_5612a0d0e695481ab2bb8568353c7af2" + ] + } + }, + "1e35ad881eb24a80b6315a3fc08a59a6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "d489011926064296a1622aefd95c62e0": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_b16fca5b4bfd48d89586fbcb7e25b4b3", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_6df8e63edc2140bdacc3425524804da6" + } + }, + "5612a0d0e695481ab2bb8568353c7af2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_7a4cb2dc260341bcb91ea27e12320ef7", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:09<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_0eb7d370c69649c6bda2822af6960fe7" + } + }, + "b16fca5b4bfd48d89586fbcb7e25b4b3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "6df8e63edc2140bdacc3425524804da6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7a4cb2dc260341bcb91ea27e12320ef7": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "0eb7d370c69649c6bda2822af6960fe7": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "fa3fc2476fff4cbb9367fbca07619358": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_b7e50d5cf63e471d9877d663f5396a98", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_dae4cbf1792c4985b43071adc91ccc53", + "IPY_MODEL_fc0228b43e604d71b74edbbd1292bd4a" + ] + } + }, + "b7e50d5cf63e471d9877d663f5396a98": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "dae4cbf1792c4985b43071adc91ccc53": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_4ed67efc4b31425586ba39d181ccf7fb", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_073821b8651345febb121209b0eceb7e" + } + }, + "fc0228b43e604d71b74edbbd1292bd4a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_d03d442dfbdc46daba489b8229e883f8", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.73it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_3568bac076f7432e896f4e257bf11d5b" + } + }, + "4ed67efc4b31425586ba39d181ccf7fb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "073821b8651345febb121209b0eceb7e": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "d03d442dfbdc46daba489b8229e883f8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "3568bac076f7432e896f4e257bf11d5b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "2878f8f52ac44cbeaea26f5c26700087": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_b12506dad9734800bc5aec43b9bdc77b", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_f1798e0471404427bb231d728b57a0e4", + "IPY_MODEL_fc3b9f10c3de43cbb5cb38dca3f7b77a" + ] + } + }, + "b12506dad9734800bc5aec43b9bdc77b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f1798e0471404427bb231d728b57a0e4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_4cd7e8461b404e56bb1dc8beebfaf2a4", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_28a0a260fad645538c8e39cb06b9d124" + } + }, + "fc3b9f10c3de43cbb5cb38dca3f7b77a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_5fe093791a8047ca95de0300eb478f54", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:09<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_84b97d19f3d84ddaba997dff902cebf4" + } + }, + "4cd7e8461b404e56bb1dc8beebfaf2a4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "28a0a260fad645538c8e39cb06b9d124": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "5fe093791a8047ca95de0300eb478f54": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "84b97d19f3d84ddaba997dff902cebf4": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "2563c13c37d04a5086c9207c13ffbd90": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_77cb997ecfc5455d97b20b7c396397e7", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_7f4d13affafb4c03bbab233be30556f2", + "IPY_MODEL_db7689e39867400298408930e382e50f" + ] + } + }, + "77cb997ecfc5455d97b20b7c396397e7": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7f4d13affafb4c03bbab233be30556f2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_35b6eeb282aa40648a2d4563c324d018", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_8af0d1790cf149f1a9b6380ca027c623" + } + }, + "db7689e39867400298408930e382e50f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_0d2416a2e6254a7c995870a5552906e9", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:11<00:00, 8.74it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_f438943e4318453ea3204a481d0e0f7c" + } + }, + "35b6eeb282aa40648a2d4563c324d018": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "8af0d1790cf149f1a9b6380ca027c623": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "0d2416a2e6254a7c995870a5552906e9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "f438943e4318453ea3204a481d0e0f7c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "fa1fe14abc4740f58729471c31e0bf35": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_b13e5d5980a1481ab5be51c48d2c2ea0", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_99fa61005f9b47908230816562890d85", + "IPY_MODEL_c060694ea2d54671843c9dab1ee192fe" + ] + } + }, + "b13e5d5980a1481ab5be51c48d2c2ea0": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "99fa61005f9b47908230816562890d85": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_a5fcc85b15c14733aff234beaf0e0dfe", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_05f4858c42b540b1996055def4d0db9d" + } + }, + "c060694ea2d54671843c9dab1ee192fe": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_eb1e520400544925a0d08c3ebf63d00c", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:57<00:00, 1.73it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_12b52110999640809ca4aa9f86a11398" + } + }, + "a5fcc85b15c14733aff234beaf0e0dfe": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "05f4858c42b540b1996055def4d0db9d": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "eb1e520400544925a0d08c3ebf63d00c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "12b52110999640809ca4aa9f86a11398": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f774c9cb244040069b9d5b7e2d32bbe3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_5069e5adb6554e12b56e8e24a9006e56", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_c894fc74bf474af6a7d26d471c4284f3", + "IPY_MODEL_b9b72db5a1df4049b73ad9e33de5dd9d" + ] + } + }, + "5069e5adb6554e12b56e8e24a9006e56": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c894fc74bf474af6a7d26d471c4284f3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_624dbae63a724cb6b4dd04e40d4f15ae", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_90586d0c0d034e31a351b258de0d2b47" + } + }, + "b9b72db5a1df4049b73ad9e33de5dd9d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_f06fd337a8474d16896749b043df9c7a", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.98it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_8701461005444701ab921d183eca491f" + } + }, + "624dbae63a724cb6b4dd04e40d4f15ae": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "90586d0c0d034e31a351b258de0d2b47": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f06fd337a8474d16896749b043df9c7a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "8701461005444701ab921d183eca491f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "2966a81f2df245c6ab09b127f3f29a30": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_3e71fa18d5534460a33f2d5d87d19d7f", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_bcbfb62347834c808333ab86abff0bd3", + "IPY_MODEL_33df4982b0eb4eb1bd98d77676f31538" + ] + } + }, + "3e71fa18d5534460a33f2d5d87d19d7f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "bcbfb62347834c808333ab86abff0bd3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_07f92244846d4e7fb8f26454fa5f9aa8", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_819edf4e5312440792f9d39e73b15f34" + } + }, + "33df4982b0eb4eb1bd98d77676f31538": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_e69baca96bdb464887b097867cbc3f82", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.46it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_069c7b6718a34c72aa4107241f2e2921" + } + }, + "07f92244846d4e7fb8f26454fa5f9aa8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "819edf4e5312440792f9d39e73b15f34": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e69baca96bdb464887b097867cbc3f82": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "069c7b6718a34c72aa4107241f2e2921": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9b79d95e5c4849a88674b9df87824e19": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_489a0e3d2ff147f0beb7edf404b17e9f", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_3e7c85953efc4e478613ae73d42a2f8f", + "IPY_MODEL_6d2d6a07662e4ad6bb5f79f64e3e8574" + ] + } + }, + "489a0e3d2ff147f0beb7edf404b17e9f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "3e7c85953efc4e478613ae73d42a2f8f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_bbe5384c58b6433982a25dca9cd7cc80", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_f302f464365f4a399a24668c705cc547" + } + }, + "6d2d6a07662e4ad6bb5f79f64e3e8574": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_45fe18e6f22a46be9b3e0ae04baa5ffa", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.86it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_25543a9b7d48429da0628654b67a36ce" + } + }, + "bbe5384c58b6433982a25dca9cd7cc80": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "f302f464365f4a399a24668c705cc547": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "45fe18e6f22a46be9b3e0ae04baa5ffa": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "25543a9b7d48429da0628654b67a36ce": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "bb490b10430949cc86b0f97efd043e28": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_be6a81f90e9f487baece42a2d9c0bb24", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_06e826de1dec450a94f552d30867382b", + "IPY_MODEL_f8c6b580666d4e86b04bbb87542edbc5" + ] + } + }, + "be6a81f90e9f487baece42a2d9c0bb24": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "06e826de1dec450a94f552d30867382b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_674de9c607194060b6ff113e3834302e", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_c32f7ae5cf4a4ad58053757d085a3532" + } + }, + "f8c6b580666d4e86b04bbb87542edbc5": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_0ba3ed4db8f4422fa397ec605b6f5102", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [01:08<00:00, 1.45it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_cff3603113624e83829aa0e4f2fc24f2" + } + }, + "674de9c607194060b6ff113e3834302e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "c32f7ae5cf4a4ad58053757d085a3532": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "0ba3ed4db8f4422fa397ec605b6f5102": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "cff3603113624e83829aa0e4f2fc24f2": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "943fc77b0eee44479b37f9e3fcf18748": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_fcf9fb1e95284ae0b8d2f670c446a90c", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_7a823f5a085b4996bf8f4de347bc1a57", + "IPY_MODEL_9f1838fdfb5b42d389b7ce0b29de88d2" + ] + } + }, + "fcf9fb1e95284ae0b8d2f670c446a90c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7a823f5a085b4996bf8f4de347bc1a57": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_8f03c9d4c1af4037a52d01d21a4a9076", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_9b91ea8afa3146c68ec8838e25362d91" + } + }, + "9f1838fdfb5b42d389b7ce0b29de88d2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_5c400e18fd6e4070b876e63965c626aa", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.96it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_fd08fd1adbac4879937f0c4c76e6e9ff" + } + }, + "8f03c9d4c1af4037a52d01d21a4a9076": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "9b91ea8afa3146c68ec8838e25362d91": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "5c400e18fd6e4070b876e63965c626aa": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "fd08fd1adbac4879937f0c4c76e6e9ff": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "93bb11d94db84c8ba9d71373a73a1d06": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_f4efc165000443f6869223168a890c38", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_d2ee78138ade46a199588fb7834287c3", + "IPY_MODEL_22cbbefa60574e99bec58ee68ee99d32" + ] + } + }, + "f4efc165000443f6869223168a890c38": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "d2ee78138ade46a199588fb7834287c3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_6a52abdff4a04601a3fd38d393226eb1", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_9a1e6059a26846049da95e13e0a51244" + } + }, + "22cbbefa60574e99bec58ee68ee99d32": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_5c00b08435f3434184f0aaa4b8660b05", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:57<00:00, 1.74it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_25a252dbecf94c8ca3bba959b6125d44" + } + }, + "6a52abdff4a04601a3fd38d393226eb1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "9a1e6059a26846049da95e13e0a51244": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "5c00b08435f3434184f0aaa4b8660b05": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "25a252dbecf94c8ca3bba959b6125d44": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "4b65ace694b84776b8ef9b637f9b87e2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_0d70697817574bae83052b62206385d9", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_a645fb1d6e2b4c62a4ac11d095c3ab5d", + "IPY_MODEL_972dd66877744088ba2a29707b4d2bc6" + ] + } + }, + "0d70697817574bae83052b62206385d9": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "a645fb1d6e2b4c62a4ac11d095c3ab5d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_a8c77b541484470ea53be8d413a4b755", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 100, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 100, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_5bf170b4389c4a51a6939feebb041c13" + } + }, + "972dd66877744088ba2a29707b4d2bc6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_aa182abc6be2423aad248f57aeac9080", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 100/100 [00:05<00:00, 16.77it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_cbfa47e24c794477b8c666d442662df8" + } + }, + "a8c77b541484470ea53be8d413a4b755": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "5bf170b4389c4a51a6939feebb041c13": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "aa182abc6be2423aad248f57aeac9080": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "cbfa47e24c794477b8c666d442662df8": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e564ef705a2647bcba234b82e8e2c2d1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_8da01d96d8aa44d8aa280df567379a67", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_6d72674fb0ab4310b506cfbe09dd0f30", + "IPY_MODEL_d5146428bb3741b9bfbf2856649a0a7c" + ] + } + }, + "8da01d96d8aa44d8aa280df567379a67": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "6d72674fb0ab4310b506cfbe09dd0f30": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_12fe2f49c5cb451394195a1cf7746f83", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 125, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 125, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_a1becc653ac54591846073e54bfd45b4" + } + }, + "d5146428bb3741b9bfbf2856649a0a7c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_70be6a2962b548079bef2540558f1e9d", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 125/125 [01:24<00:00, 1.48it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_77d24a53bdab4331a09c597a02dab9dc" + } + }, + "12fe2f49c5cb451394195a1cf7746f83": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "a1becc653ac54591846073e54bfd45b4": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "70be6a2962b548079bef2540558f1e9d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "77d24a53bdab4331a09c597a02dab9dc": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "45fd593d08e34345a53ed747230e196d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_f838e4d04be14a81b94339b52a506f53", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_ce45513da3ee44d9ab123063e97b450c", + "IPY_MODEL_232922ba30724b4c9edac8fb89b80845" + ] + } + }, + "f838e4d04be14a81b94339b52a506f53": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ce45513da3ee44d9ab123063e97b450c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_577c866aafb642e4aec6d0251c8a0978", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 116, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 116, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_5ffb2be785cc4b328ba0812a28fec373" + } + }, + "232922ba30724b4c9edac8fb89b80845": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_a80cd971243d4f5b945c656239b81c1a", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 116/116 [00:06<00:00, 17.16it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_91d447b402d446a89eba4f4105cfc116" + } + }, + "577c866aafb642e4aec6d0251c8a0978": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "5ffb2be785cc4b328ba0812a28fec373": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "a80cd971243d4f5b945c656239b81c1a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "91d447b402d446a89eba4f4105cfc116": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e9104a48da644cccb12d28343fcca254": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_0856ea4c1a3340a5a23498e74f554359", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_18c437718a2a4bb0b69eb0b148b4b7c3", + "IPY_MODEL_30c70c3334df4458b9c56c9a2262ec8d" + ] + } + }, + "0856ea4c1a3340a5a23498e74f554359": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "18c437718a2a4bb0b69eb0b148b4b7c3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_b05a907e547d4befbc3cce64eba593b3", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 125, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 125, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_dd39a02d512e444b8c52aceeb12a37ac" + } + }, + "30c70c3334df4458b9c56c9a2262ec8d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_ebe4623798134f35bd5ef3af5ae4bb5f", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 125/125 [01:24<00:00, 1.47it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_df8c846000a74daab4579e9b0e8dd7bf" + } + }, + "b05a907e547d4befbc3cce64eba593b3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "dd39a02d512e444b8c52aceeb12a37ac": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ebe4623798134f35bd5ef3af5ae4bb5f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "df8c846000a74daab4579e9b0e8dd7bf": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e89627f454ea480bb3621e8732e52438": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_0a1d24b47061459c8a9258f2aad94f3f", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_3c9c1570821e4ed5a594533eac18d8f0", + "IPY_MODEL_ed4d302b506a44f6a5fa30b9a49d1698" + ] + } + }, + "0a1d24b47061459c8a9258f2aad94f3f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "3c9c1570821e4ed5a594533eac18d8f0": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_19f3977164d448888c8793459c2dd579", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 116, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 116, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_1fff371f595a47298819e1c1e0393118" + } + }, + "ed4d302b506a44f6a5fa30b9a49d1698": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_4bf7bb73d23c4a899b39bb412880f963", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 116/116 [00:06<00:00, 17.12it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_9f8ae4f98cbb49628914ca16ed3be2a7" + } + }, + "19f3977164d448888c8793459c2dd579": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "1fff371f595a47298819e1c1e0393118": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "4bf7bb73d23c4a899b39bb412880f963": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "9f8ae4f98cbb49628914ca16ed3be2a7": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "bfa7726e812246bd98ee5d1ce3b69cf2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_6be016375e7f4528991598e6595914cc", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_0726965d60904714a487b991e8313a0b", + "IPY_MODEL_6cdebaa3072e4e8ba5bac6a014b62299" + ] + } + }, + "6be016375e7f4528991598e6595914cc": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "0726965d60904714a487b991e8313a0b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_d7cb7d193c554d1888d316597b12114e", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 125, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 125, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_ccab1a613a31471cb462efe9b95c1d12" + } + }, + "6cdebaa3072e4e8ba5bac6a014b62299": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_d94d471df49544b48502608595c4b509", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 125/125 [01:24<00:00, 1.48it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_d5f6e48c2c0149ff858305f7b641cc42" + } + }, + "d7cb7d193c554d1888d316597b12114e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "ccab1a613a31471cb462efe9b95c1d12": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "d94d471df49544b48502608595c4b509": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "d5f6e48c2c0149ff858305f7b641cc42": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ab700d887ec84800b4dabbccce26bd86": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_18df63a0651b4c538cc82cf9a9f103b3", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_e007e6c12c95454194de6fec56b3ec6c", + "IPY_MODEL_44871f3d835044a19d93fa373b23c935" + ] + } + }, + "18df63a0651b4c538cc82cf9a9f103b3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e007e6c12c95454194de6fec56b3ec6c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_e4d0acdd0fae4784836fe5e694a4d33c", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 116, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 116, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_6a46e42e9fae40da9ac5386c5d411d32" + } + }, + "44871f3d835044a19d93fa373b23c935": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_cd864a3ddb4142fea0a1266ff30576e4", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 116/116 [00:06<00:00, 16.98it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_376fe3d25b134c4b88c79eda8af98c59" + } + }, + "e4d0acdd0fae4784836fe5e694a4d33c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "6a46e42e9fae40da9ac5386c5d411d32": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "cd864a3ddb4142fea0a1266ff30576e4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "376fe3d25b134c4b88c79eda8af98c59": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9680a4fef3064a15acf668756ef76f98": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_f0b2c1938e294a86b2490b266304541f", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_d64600f0905a4c5b9bb22d95a9f05cc4", + "IPY_MODEL_2ee01b0faa6d44679bd179ccafcfa44f" + ] + } + }, + "f0b2c1938e294a86b2490b266304541f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "d64600f0905a4c5b9bb22d95a9f05cc4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_22c4a3c5d5ff4dbebf964c8965d7bb03", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 125, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 125, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_69b45dfabcff473f9a62cf55b12a3dfd" + } + }, + "2ee01b0faa6d44679bd179ccafcfa44f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_1adefc9c3b4b4cf3b2e20bfa72af3f22", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 125/125 [33:30<00:00, 16.09s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_c81588b301ce4e81bf46e78d8e23003f" + } + }, + "22c4a3c5d5ff4dbebf964c8965d7bb03": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "69b45dfabcff473f9a62cf55b12a3dfd": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "1adefc9c3b4b4cf3b2e20bfa72af3f22": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "c81588b301ce4e81bf46e78d8e23003f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "3d05aaf0661f426eabeffdcd3df3d328": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_c8fe7a7df8ec43a2a9a1fad712f46296", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_2acaba29a46a42ffa622c0f94947a570", + "IPY_MODEL_055f2f4425b54c27b42b06b73a7e9412" + ] + } + }, + "c8fe7a7df8ec43a2a9a1fad712f46296": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "2acaba29a46a42ffa622c0f94947a570": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_46312a37699b49abad8b55ecaf026a2d", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 116, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 116, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_714e1bae58bb463585564f9a97f2f025" + } + }, + "055f2f4425b54c27b42b06b73a7e9412": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_709e0e5793f74171afd2dc31c24c5a74", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 116/116 [00:06<00:00, 17.08it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_ee6a889c3ab94abb8da5e0a4934d5344" + } + }, + "46312a37699b49abad8b55ecaf026a2d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "714e1bae58bb463585564f9a97f2f025": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "709e0e5793f74171afd2dc31c24c5a74": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "ee6a889c3ab94abb8da5e0a4934d5344": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "5763260e30e8436489feb51bd8fa4d51": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_52809938b945426e9848996d142753c6", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_256e94d8b5e04d55ac5d8add97dc34fc", + "IPY_MODEL_8669f628987b4f2e82a91a55dc7b2553" + ] + } + }, + "52809938b945426e9848996d142753c6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "256e94d8b5e04d55ac5d8add97dc34fc": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_eac7a39f74ad47a1ba41f7afaa585e16", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 125, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 125, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_a488fb985bfa4991be5257510ce6eae8" + } + }, + "8669f628987b4f2e82a91a55dc7b2553": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_75950049e3f345b88f4b0f1cd8415a0d", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 125/125 [01:24<00:00, 1.48it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_ba27f41a60264dce8206665d83cc0e13" + } + }, + "eac7a39f74ad47a1ba41f7afaa585e16": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "a488fb985bfa4991be5257510ce6eae8": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "75950049e3f345b88f4b0f1cd8415a0d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "ba27f41a60264dce8206665d83cc0e13": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "03af9df3fcce4f96a481053a489f40cd": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_db97c07aa01f442287845f15d3afdc5e", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_982b6fd5f82a452a9f45ca262eb486ec", + "IPY_MODEL_dde4a5090a5e43f5ace1502b8eac2dd3" + ] + } + }, + "db97c07aa01f442287845f15d3afdc5e": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "982b6fd5f82a452a9f45ca262eb486ec": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_e32009b3c99a4b4f998bed8a492d5d9b", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 116, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 116, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_7d63a802972b4857a407b6e941223553" + } + }, + "dde4a5090a5e43f5ace1502b8eac2dd3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_00e764c5dcf44dd78fbf72578b415823", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 116/116 [00:06<00:00, 17.09it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_a901629d623d4286aefb26300e047494" + } + }, + "e32009b3c99a4b4f998bed8a492d5d9b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "7d63a802972b4857a407b6e941223553": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "00e764c5dcf44dd78fbf72578b415823": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "a901629d623d4286aefb26300e047494": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "1f1412fc21e443ac99ac345b8968578a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_7812119645204af48eb0f0d493cec1b0", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_0df7a41954e94e88ac09ffbd543cd62d", + "IPY_MODEL_ae4074846b8f44f5892708dce14ec68f" + ] + } + }, + "7812119645204af48eb0f0d493cec1b0": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "0df7a41954e94e88ac09ffbd543cd62d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_7d9f0a25e8724ea6af5da5ad2caccc78", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 125, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 125, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_2800dd7c89404de4b783027e4813b5a0" + } + }, + "ae4074846b8f44f5892708dce14ec68f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_f3481db90a2d4e3e9ecf8e6a3a9f5874", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 125/125 [01:24<00:00, 1.48it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_61e6d2f3833f47c6a901a91a1b0c9dd5" + } + }, + "7d9f0a25e8724ea6af5da5ad2caccc78": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "2800dd7c89404de4b783027e4813b5a0": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f3481db90a2d4e3e9ecf8e6a3a9f5874": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "61e6d2f3833f47c6a901a91a1b0c9dd5": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "2d69923730c44620b0f8cd4e4ab856e8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_60b99470aceb4ce2b6ffac7985e5a0fd", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_294cc19d8f294a06a5b90b910dc0eafc", + "IPY_MODEL_859b47ea5e3241c4b7b8c0c280981dff" + ] + } + }, + "60b99470aceb4ce2b6ffac7985e5a0fd": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "294cc19d8f294a06a5b90b910dc0eafc": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_d17a9df0bbe848d1958d891d59bf4a26", + "_dom_classes": [], + "description": "100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 116, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 116, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_f167d7d5230543d4b9af57ba234977bf" + } + }, + "859b47ea5e3241c4b7b8c0c280981dff": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_9ecbdcdccc424b5c999af4c670e194ac", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 116/116 [00:06<00:00, 17.18it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_dbc8f744fff3463788bfc70c50a20c14" + } + }, + "d17a9df0bbe848d1958d891d59bf4a26": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "f167d7d5230543d4b9af57ba234977bf": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9ecbdcdccc424b5c999af4c670e194ac": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "dbc8f744fff3463788bfc70c50a20c14": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + } + } + }, + "accelerator": "GPU" + }, + "cells": [ + { + "cell_type": "code", + "metadata": { + "id": "L89oJxGmaHuy", + "colab": { + "base_uri": "https://localhost:8080/" + }, + "outputId": "d4e5a323-d70d-4948-da1e-6806536aa0d2" + }, + "source": [ + "from google.colab import drive\n", + "drive.mount('/content/drive')" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Mounted at /content/drive\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "OlGpLgIaxp9z" + }, + "source": [ + "#AraBERT for NER - on ANERCorp\n", + "\n", + "ANERCorp:https://link.springer.com/chapter/10.1007/978-3-540-70939-8_13\n", + "\n", + "We manually cleaned and split the dataset into sentences\n", + "\n", + "The code in hear is a collections of scripts from [Abhishek Thakur's GitHub](https://github.com/abhishekkrthakur/bert-entity-extraction)\n", + "\n", + "And from the Transformers library and the Trainer API" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "ohWiDLEnxJA5", + "colab": { + "base_uri": "https://localhost:8080/" + }, + "outputId": "6aadea65-5a25-4db9-9e4a-d3a8660ff28d" + }, + "source": [ + "!pip install transformers==3.2.0\n", + "!pip install farasapy\n", + "!pip install pyarabic\n", + "!pip install seqeval\n", + "!git clone https://github.com/aub-mind/arabert" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Collecting transformers==3.2.0\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/d8/f4/9f93f06dd2c57c7cd7aa515ffbf9fcfd8a084b92285732289f4a5696dd91/transformers-3.2.0-py3-none-any.whl (1.0MB)\n", + "\u001b[K |████████████████████████████████| 1.0MB 14.7MB/s \n", + "\u001b[?25hRequirement already satisfied: packaging in /usr/local/lib/python3.6/dist-packages (from transformers==3.2.0) (20.4)\n", + "Requirement already satisfied: dataclasses; python_version < \"3.7\" in /usr/local/lib/python3.6/dist-packages (from transformers==3.2.0) (0.7)\n", + "Requirement already satisfied: tqdm>=4.27 in /usr/local/lib/python3.6/dist-packages (from transformers==3.2.0) (4.41.1)\n", + "Requirement already satisfied: numpy in /usr/local/lib/python3.6/dist-packages (from transformers==3.2.0) (1.18.5)\n", + "Collecting sentencepiece!=0.1.92\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/e5/2d/6d4ca4bef9a67070fa1cac508606328329152b1df10bdf31fb6e4e727894/sentencepiece-0.1.94-cp36-cp36m-manylinux2014_x86_64.whl (1.1MB)\n", + "\u001b[K |████████████████████████████████| 1.1MB 18.6MB/s \n", + "\u001b[?25hRequirement already satisfied: requests in /usr/local/lib/python3.6/dist-packages (from transformers==3.2.0) (2.23.0)\n", + "Collecting sacremoses\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/7d/34/09d19aff26edcc8eb2a01bed8e98f13a1537005d31e95233fd48216eed10/sacremoses-0.0.43.tar.gz (883kB)\n", + "\u001b[K |████████████████████████████████| 890kB 52.4MB/s \n", + "\u001b[?25hRequirement already satisfied: regex!=2019.12.17 in /usr/local/lib/python3.6/dist-packages (from transformers==3.2.0) (2019.12.20)\n", + "Collecting tokenizers==0.8.1.rc2\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/80/83/8b9fccb9e48eeb575ee19179e2bdde0ee9a1904f97de5f02d19016b8804f/tokenizers-0.8.1rc2-cp36-cp36m-manylinux1_x86_64.whl (3.0MB)\n", + "\u001b[K |████████████████████████████████| 3.0MB 50.3MB/s \n", + "\u001b[?25hRequirement already satisfied: filelock in /usr/local/lib/python3.6/dist-packages (from transformers==3.2.0) (3.0.12)\n", + "Requirement already satisfied: six in /usr/local/lib/python3.6/dist-packages (from packaging->transformers==3.2.0) (1.15.0)\n", + "Requirement already satisfied: pyparsing>=2.0.2 in /usr/local/lib/python3.6/dist-packages (from packaging->transformers==3.2.0) (2.4.7)\n", + "Requirement already satisfied: certifi>=2017.4.17 in /usr/local/lib/python3.6/dist-packages (from requests->transformers==3.2.0) (2020.6.20)\n", + "Requirement already satisfied: idna<3,>=2.5 in /usr/local/lib/python3.6/dist-packages (from requests->transformers==3.2.0) (2.10)\n", + "Requirement already satisfied: chardet<4,>=3.0.2 in /usr/local/lib/python3.6/dist-packages (from requests->transformers==3.2.0) (3.0.4)\n", + "Requirement already satisfied: urllib3!=1.25.0,!=1.25.1,<1.26,>=1.21.1 in /usr/local/lib/python3.6/dist-packages (from requests->transformers==3.2.0) (1.24.3)\n", + "Requirement already satisfied: click in /usr/local/lib/python3.6/dist-packages (from sacremoses->transformers==3.2.0) (7.1.2)\n", + "Requirement already satisfied: joblib in /usr/local/lib/python3.6/dist-packages (from sacremoses->transformers==3.2.0) (0.17.0)\n", + "Building wheels for collected packages: sacremoses\n", + " Building wheel for sacremoses (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for sacremoses: filename=sacremoses-0.0.43-cp36-none-any.whl size=893257 sha256=b7d50e5c0797b613ecee098a2e12d7c64d9add6121cfc1409221f2e40616880f\n", + " Stored in directory: /root/.cache/pip/wheels/29/3c/fd/7ce5c3f0666dab31a50123635e6fb5e19ceb42ce38d4e58f45\n", + "Successfully built sacremoses\n", + "Installing collected packages: sentencepiece, sacremoses, tokenizers, transformers\n", + "Successfully installed sacremoses-0.0.43 sentencepiece-0.1.94 tokenizers-0.8.1rc2 transformers-3.2.0\n", + "Collecting farasapy\n", + " Downloading https://files.pythonhosted.org/packages/e4/9b/def50469dc49ab11c85c9dabd998955d7927845041a02fa54285efbad596/farasapy-0.0.10-py3-none-any.whl\n", + "Requirement already satisfied: tqdm in /usr/local/lib/python3.6/dist-packages (from farasapy) (4.41.1)\n", + "Requirement already satisfied: requests in /usr/local/lib/python3.6/dist-packages (from farasapy) (2.23.0)\n", + "Requirement already satisfied: urllib3!=1.25.0,!=1.25.1,<1.26,>=1.21.1 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (1.24.3)\n", + "Requirement already satisfied: certifi>=2017.4.17 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (2020.6.20)\n", + "Requirement already satisfied: chardet<4,>=3.0.2 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (3.0.4)\n", + "Requirement already satisfied: idna<3,>=2.5 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (2.10)\n", + "Installing collected packages: farasapy\n", + "Successfully installed farasapy-0.0.10\n", + "Collecting pyarabic\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/7b/e2/46728ec2f6fe14970de5c782346609f0636262c0941228f363710903aaa1/PyArabic-0.6.10.tar.gz (108kB)\n", + "\u001b[K |████████████████████████████████| 112kB 13.2MB/s \n", + "\u001b[?25hBuilding wheels for collected packages: pyarabic\n", + " Building wheel for pyarabic (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for pyarabic: filename=PyArabic-0.6.10-cp36-none-any.whl size=113325 sha256=8ca544f68c864e0ad8ac32383821545c6cb5c9a14d8aac6a777ea49960dde623\n", + " Stored in directory: /root/.cache/pip/wheels/10/b8/f5/b7c1a50e6efb83544844f165a9b134afe7292585465e29b61d\n", + "Successfully built pyarabic\n", + "Installing collected packages: pyarabic\n", + "Successfully installed pyarabic-0.6.10\n", + "Collecting seqeval\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/9d/2d/233c79d5b4e5ab1dbf111242299153f3caddddbb691219f363ad55ce783d/seqeval-1.2.2.tar.gz (43kB)\n", + "\u001b[K |████████████████████████████████| 51kB 5.8MB/s \n", + "\u001b[?25hRequirement already satisfied: numpy>=1.14.0 in /usr/local/lib/python3.6/dist-packages (from seqeval) (1.18.5)\n", + "Requirement already satisfied: scikit-learn>=0.21.3 in /usr/local/lib/python3.6/dist-packages (from seqeval) (0.22.2.post1)\n", + "Requirement already satisfied: scipy>=0.17.0 in /usr/local/lib/python3.6/dist-packages (from scikit-learn>=0.21.3->seqeval) (1.4.1)\n", + "Requirement already satisfied: joblib>=0.11 in /usr/local/lib/python3.6/dist-packages (from scikit-learn>=0.21.3->seqeval) (0.17.0)\n", + "Building wheels for collected packages: seqeval\n", + " Building wheel for seqeval (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for seqeval: filename=seqeval-1.2.2-cp36-none-any.whl size=16171 sha256=aecfa923bd4e8a4af20a533e342d443cc08949d8b7f4797d4c78c4474236459d\n", + " Stored in directory: /root/.cache/pip/wheels/52/df/1b/45d75646c37428f7e626214704a0e35bd3cfc32eda37e59e5f\n", + "Successfully built seqeval\n", + "Installing collected packages: seqeval\n", + "Successfully installed seqeval-1.2.2\n", + "Cloning into 'arabert'...\n", + "remote: Enumerating objects: 48, done.\u001b[K\n", + "remote: Counting objects: 100% (48/48), done.\u001b[K\n", + "remote: Compressing objects: 100% (37/37), done.\u001b[K\n", + "remote: Total 262 (delta 21), reused 29 (delta 11), pack-reused 214\u001b[K\n", + "Receiving objects: 100% (262/262), 3.62 MiB | 5.64 MiB/s, done.\n", + "Resolving deltas: 100% (144/144), done.\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "yFxAnGMIx1qG" + }, + "source": [ + "#Reading Data" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "JnSp7rlszRxK" + }, + "source": [ + "from collections import Counter\n", + "import matplotlib.pyplot as plt" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "gCf6j4CbokKI", + "colab": { + "base_uri": "https://localhost:8080/" + }, + "outputId": "28aaf3da-99f4-4301-b3c8-61380fd1c441" + }, + "source": [ + "!unzip \"/content/drive/My Drive/ANERcorp-CamelLabSplits.zip\"" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Archive: /content/drive/My Drive/ANERcorp-CamelLabSplits.zip\n", + "replace __MACOSX/._ANERcorp-CamelLabSplits? [y]es, [n]o, [A]ll, [N]one, [r]ename: n\n", + "replace ANERcorp-CamelLabSplits/ANERCorp_Benajiba.txt? [y]es, [n]o, [A]ll, [N]one, [r]ename: n\n", + "replace __MACOSX/ANERcorp-CamelLabSplits/._ANERCorp_Benajiba.txt? [y]es, [n]o, [A]ll, [N]one, [r]ename: \n", + "error: invalid response [{ENTER}]\n", + "replace __MACOSX/ANERcorp-CamelLabSplits/._ANERCorp_Benajiba.txt? [y]es, [n]o, [A]ll, [N]one, [r]ename: \n", + "error: invalid response [{ENTER}]\n", + "replace __MACOSX/ANERcorp-CamelLabSplits/._ANERCorp_Benajiba.txt? [y]es, [n]o, [A]ll, [N]one, [r]ename: \n", + "error: invalid response [{ENTER}]\n", + "replace __MACOSX/ANERcorp-CamelLabSplits/._ANERCorp_Benajiba.txt? [y]es, [n]o, [A]ll, [N]one, [r]ename: \n", + "error: invalid response [{ENTER}]\n", + "replace __MACOSX/ANERcorp-CamelLabSplits/._ANERCorp_Benajiba.txt? [y]es, [n]o, [A]ll, [N]one, [r]ename: nn\n", + "replace ANERcorp-CamelLabSplits/ANERCorp_CamelLab_train.txt? [y]es, [n]o, [A]ll, [N]one, [r]ename: n\n", + "replace __MACOSX/ANERcorp-CamelLabSplits/._ANERCorp_CamelLab_train.txt? [y]es, [n]o, [A]ll, [N]one, [r]ename: A\n", + " inflating: __MACOSX/ANERcorp-CamelLabSplits/._ANERCorp_CamelLab_train.txt \n", + " inflating: ANERcorp-CamelLabSplits/README.txt \n", + " inflating: __MACOSX/ANERcorp-CamelLabSplits/._README.txt \n", + " inflating: ANERcorp-CamelLabSplits/ANERCorp_CamelLab_test.txt \n", + " inflating: __MACOSX/ANERcorp-CamelLabSplits/._ANERCorp_CamelLab_test.txt \n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "pnpqAsRpbTUW", + "colab": { + "base_uri": "https://localhost:8080/" + }, + "outputId": "4ee338dd-e69e-476b-98a9-29ce1fa11016" + }, + "source": [ + "!head -n100 ./ANERcorp-CamelLabSplits/ANERCorp_CamelLab_train.txt" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "فرانكفورت B-LOC\n", + "(د O\n", + "ب O\n", + "أ) O\n", + "أعلن O\n", + "اتحاد B-ORG\n", + "صناعة I-ORG\n", + "السيارات I-ORG\n", + "في O\n", + "ألمانيا B-LOC\n", + "امس O\n", + "الاول O\n", + "أن O\n", + "شركات O\n", + "صناعة O\n", + "السيارات O\n", + "في O\n", + "ألمانيا B-LOC\n", + "تواجه O\n", + "عاما O\n", + "صعبا O\n", + "في O\n", + "ظل O\n", + "ركود O\n", + "السوق O\n", + "الداخلية O\n", + "والصادرات O\n", + "وهي O\n", + "تسعي O\n", + "لان O\n", + "يبلغ O\n", + "الانتاج O\n", + "حوالي O\n", + "خمسة O\n", + "ملايين O\n", + "سيارة O\n", + "في O\n", + "عام O\n", + "2002 O\n", + ". O\n", + "\n", + "وقال O\n", + "رئيس O\n", + "الاتحاد O\n", + "برند B-PERS\n", + "جوتشولك I-PERS\n", + "عند O\n", + "إعلان O\n", + "آخر O\n", + "تقرير O\n", + "سنوي O\n", + "للاتحاد O\n", + "إن O\n", + "مستقبل O\n", + "السوق O\n", + "مازال O\n", + "يفتقر O\n", + "إلي O\n", + "الخطوط O\n", + "الواضحة O\n", + ". O\n", + "\n", + "وعلي O\n", + "الرغم O\n", + "من O\n", + "أنه O\n", + "قال O\n", + "أنه O\n", + "يتوقع O\n", + "أن O\n", + "تظل O\n", + "صادرات O\n", + "السيارات O\n", + "عند O\n", + "مستوي O\n", + "مرتفع O\n", + "هذا O\n", + "العام O\n", + "فإنه O\n", + "يبدو O\n", + "من O\n", + "غير O\n", + "المحتمل O\n", + "أن O\n", + "تصل O\n", + "إلي O\n", + "مستوي O\n", + "سجل O\n", + "نموها O\n", + "عام O\n", + "2001 O\n", + "عندما O\n", + "زادت O\n", + "صادرات O\n", + "سيارات O\n", + "الركاب O\n", + "بنسبة O\n", + "ستة O\n", + "في O\n", + "المائة O\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "L06h2N6to6Lm" + }, + "source": [ + "def read_ANERcorp(path):\n", + " with open(path,'r',encoding='utf-8') as f:\n", + " data = []\n", + " sentence = []\n", + " label = []\n", + " for line in f:\n", + " if line=='\\n':\n", + " if len(sentence) > 0:\n", + " data.append((sentence,label))\n", + " sentence = []\n", + " label = []\n", + " continue\n", + " splits = line.split()\n", + " sentence.append(splits[0])\n", + " label.append(splits[1])\n", + " if len(sentence) > 0:\n", + " data.append((sentence,label))\n", + " return data" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "uYK9sd1mpG9k" + }, + "source": [ + "ANERCorp_path = './ANERcorp-CamelLabSplits/'\n", + "data_train = read_ANERcorp(ANERCorp_path+'ANERCorp_CamelLab_train.txt')\n", + "data_test = read_ANERcorp(ANERCorp_path+'ANERCorp_CamelLab_test.txt')" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "-34t5uZvpzAI", + "colab": { + "base_uri": "https://localhost:8080/" + }, + "outputId": "01770c09-972f-4334-ed0a-939c3e45c234" + }, + "source": [ + "print(Counter([ label for sentence in data_test for label in sentence[1]]))\n", + "print(Counter([ label for sentence in data_train for label in sentence[1]]))" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Counter({'O': 21633, 'B-PERS': 858, 'B-LOC': 668, 'I-PERS': 641, 'B-ORG': 450, 'I-ORG': 275, 'B-MISC': 235, 'I-MISC': 165, 'I-LOC': 83})\n", + "Counter({'O': 111921, 'B-LOC': 3776, 'B-PERS': 2721, 'I-PERS': 2205, 'B-ORG': 1576, 'I-ORG': 1115, 'B-MISC': 888, 'I-LOC': 525, 'I-MISC': 375})\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "nKahLIpLqGxw", + "colab": { + "base_uri": "https://localhost:8080/" + }, + "outputId": "91cb73ab-7a5f-427f-a30e-62f03cfee5d8" + }, + "source": [ + "label_list = list(Counter([ label for sentence in data_test for label in sentence[1]]).keys())\n", + "print(label_list)" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "['B-LOC', 'O', 'B-PERS', 'I-PERS', 'B-ORG', 'I-LOC', 'I-ORG', 'B-MISC', 'I-MISC']\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "5seZqZp-cWK7", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 581 + }, + "outputId": "9f2afd73-e9a9-445f-e705-4eab3324b7f4" + }, + "source": [ + "print(\"Training Sentence Lengths: \")\n", + "plt.hist([ len(sentence[0]) for sentence in data_train],bins=range(0,256,2))\n", + "plt.show()\n", + "print(sum([len(sentence[0]) > 512 for sentence in data_train]))\n", + "\n", + "print(\"Testing Sentence Lengths: \")\n", + "plt.hist([ len(sentence[0]) for sentence in data_test],bins=range(0,256,2))\n", + "plt.show()\n", + "print(sum([len(sentence[0]) > 256 for sentence in data_test]))" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Training Sentence Lengths: \n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "image/png": "iVBORw0KGgoAAAANSUhEUgAAAXcAAAD4CAYAAAAXUaZHAAAABHNCSVQICAgIfAhkiAAAAAlwSFlzAAALEgAACxIB0t1+/AAAADh0RVh0U29mdHdhcmUAbWF0cGxvdGxpYiB2ZXJzaW9uMy4yLjIsIGh0dHA6Ly9tYXRwbG90bGliLm9yZy+WH4yJAAAN60lEQVR4nO3dX6ik9X3H8fenmniRCGr3dFnWpceEpWAvapaDESrBIk10vVgDRcxFsgTL9kIhgRZ60lzEm8C2kJQKqbCpkrWkWiERF9a2sUuK9ELjMZh11Rg3yYq7rLsntRghkFbz7cV5tpkc5/ydmTM7v3m/YJhnfs8zM9/fPmc/5ze/55nnpKqQJLXlt8ZdgCRp+Ax3SWqQ4S5JDTLcJalBhrskNejScRcAsG3btpqdnR13GZI0UZ577rmfVdVMv3UXRbjPzs6ysLAw7jIkaaIkeW2ldU7LSFKDDHdJapDhLkkNMtwlqUGGuyQ1yHCXpAYZ7pLUIMNdkhpkuEtSgwz3ZWbnjzI7f3TcZUjSQAx3SWqQ4b4BjuolTQrDXZIaZLhLUoMMd0lqkOEuSQ0y3CWpQYa7JDXIcJekBhnuktQgw12SGmS4S1KDDHdJatCl4y5gEvVeX+bUwdvGWIkk9efIXZIa5MgdvNKjpOasOXJPsivJd5O8lOTFJJ/r2q9K8mSSV7v7K7v2JLkvyckkx5PsGXUnJEm/aT3TMu8Af15V1wI3AHcnuRaYB45V1W7gWPcY4FZgd3c7ANw/9KolSataM9yr6mxVfb9bfht4GdgJ7AMOd5sdBm7vlvcBD9WSp4ErkuwYeuWSpBVt6IBqklngI8AzwPaqOtutegPY3i3vBF7vedrprm35ax1IspBkYXFxcYNlS5JWs+5wT/JB4FvA56vq573rqqqA2sgbV9WhqpqrqrmZmZmNPFWStIZ1hXuS97EU7N+sqm93zecuTLd09+e79jPArp6nX921TRT/XqqkSbbmqZBJAjwAvFxVX+1ZdQTYDxzs7h/vab8nySPAR4G3eqZvJo4BL2kSrec89z8EPg28kOT5ru2vWAr1R5PcBbwG3NGtewLYC5wEfgF8dqgVS5LWtGa4V9V/Allh9c19ti/g7gHrmhgXRvZehkDSxcTLD0hSgwx3SWqQ4S5JDTLcJalBhrskNchwl6QGGe5D4jdaJV1MDHdJapDhLkkNMtwlqUGGuyQ1yHCXpAYZ7pLUIMNdkhpkuEtSgwx3SWqQ4S5JDTLcJalBhrskNchwl6QGGe6S1KBLx13AOHmJXkmtcuQuSQ0y3CWpQVM9LTMKvVM9pw7eNsZKJE0zR+6S1CDDXZIaZLhLUoMMd0lqkOEuSQ0y3CWpQYa7JDXIcJekBhnuktQgw32EZuePenEySWNhuEtSgwx3SWqQ4S5JDVoz3JM8mOR8khM9bfcmOZPk+e62t2fdF5KcTPJKkk+MqnBJ0srWM3L/BnBLn/a/rarrutsTAEmuBe4Efr97zt8nuWRYxUqS1mfNcK+qp4A31/l6+4BHquqXVfVT4CRw/QD1SZI2YZA593uSHO+mba7s2nYCr/dsc7pre48kB5IsJFlYXFwcoAxJ0nKbDff7gQ8D1wFnga9s9AWq6lBVzVXV3MzMzCbLkCT1s6lwr6pzVfVuVf0K+Dq/nno5A+zq2fTqrk2StIU2Fe5JdvQ8/CRw4UyaI8CdSS5Lcg2wG/jeYCVKkjZqzT+QneRh4CZgW5LTwJeAm5JcBxRwCvgzgKp6McmjwEvAO8DdVfXuaEqXJK1kzXCvqk/1aX5gle2/DHx5kKJGyWu9SJoGfkNVkhpkuEtSgwx3SWqQ4S5JDTLcJalBhrskNchw32L+6T1JW8Fwl6QGGe6S1CDDXZIaZLhLUoMMd0lqkOEuSQ0y3CWpQWte8leDW+289t51pw7ethXlSJoCjtwlqUFTM3L3W6GSpokjd0lqkOEuSQ0y3CWpQYa7JDVoag6oXmw8wCtplBy5S1KDDHdJapDhLkkNMtwlqUGGuyQ1yHCXpAYZ7pLUIMNdkhpkuEtSgwx3SWqQ4S5JDTLcJalBhrskNchwv4jMzh/1apGShsJwl6QGrRnuSR5Mcj7JiZ62q5I8meTV7v7Krj1J7ktyMsnxJHtGWbwkqb/1jNy/AdyyrG0eOFZVu4Fj3WOAW4Hd3e0AcP9wypQkbcSa4V5VTwFvLmveBxzulg8Dt/e0P1RLngauSLJjWMVKktZns3Pu26vqbLf8BrC9W94JvN6z3emuTZK0hQY+oFpVBdRGn5fkQJKFJAuLi4uDliFJ6rHZcD93Ybqluz/ftZ8BdvVsd3XX9h5Vdaiq5qpqbmZmZpNlSJL62Wy4HwH2d8v7gcd72j/TnTVzA/BWz/SNJGmLXLrWBkkeBm4CtiU5DXwJOAg8muQu4DXgjm7zJ4C9wEngF8BnR1CzJGkNa4Z7VX1qhVU399m2gLsHLUqSNBi/oSpJDTLcJalBhrskNchwl6QGGe6S1CDDXZIaZLhLUoMMd0lqkOEuSQ1a8xuqk86/SSppGjlyl6QGGe6S1CDDXZIa1Pyc+yTqPU5w6uBtY6xE0qRy5C5JDTLcJalBhrskNchwl6QGGe6S1CDDXZIaZLhLUoMMd0lqkOEuSQ0y3CWpQYb7RW52/qiXLZa0YYa7JDXIcJekBhnuktQgw12SGmS4S1KDDHdJapDhPiE8JVLSRhjuktQgw12SGmS4S1KDLh13AaPg3LSkaefIXZIaZLhLUoMGmpZJcgp4G3gXeKeq5pJcBfwzMAucAu6oqv8erExJ0kYMY+T+R1V1XVXNdY/ngWNVtRs41j2WJG2hURxQ3Qfc1C0fBv4D+MsRvM9U6j1YfOrgbSuu77dO0vQYdORewHeSPJfkQNe2varOdstvANv7PTHJgSQLSRYWFxcHLEOS1GvQkfuNVXUmye8ATyb5Ye/Kqqok1e+JVXUIOAQwNzfXdxttniN4aboNNHKvqjPd/XngMeB64FySHQDd/flBi5Qkbcymwz3JB5JcfmEZ+DhwAjgC7O822w88PmiR6s+LiUlaySDTMtuBx5JceJ1/qqp/TfIs8GiSu4DXgDsGL1OStBGbDveq+gnwB33a/wu4eZCiJEmD8RuqktSgJi8cNm2cd5e0nCN3SWqQ4S5JDTLcJalBhrskNchwl6QGGe6S1CDDXZIa1NR57p7vLUlLHLlLUoMMd0lqUFPTMnqvtf4sn6Q2OXKXpAYZ7pLUIMNdkhpkuEtSgwx3SWqQZ8tMkQtnzvSeNbO8zbNrpDY4cpekBjlyn0JepkFqnyN3SWqQ4S5JDXJaRoBTNVJrHLlrRbPzRw19aUIZ7pLUIMNdkhrknLsG4peepIuTI3dJapDhLkkNMty1JTzzRtpazrlr3TY6v26YS+NjuGtT+gV3v6tODvN9PGArrZ/hrqHb6Ih9FL8UpGlnuGtNWzW94ihdGh4PqEpSgxy5a0uNY3TutI+mkeGusVltuudiPdPGqSNNipGFe5JbgL8DLgH+oaoOjuq9NF1WG4mvN3zX8xqGtybZSMI9ySXA14A/Bk4DzyY5UlUvjeL9NB1GPZpf/vpr/aLY7C+BQZ+3medq+oxq5H49cLKqfgKQ5BFgH2C4a2jWG77rfY3NbtcvrNcT4P3qH8Ynj9VqXu8vhY3+Alr+Xhv9txgGf/n9plTV8F80+RPglqr60+7xp4GPVtU9PdscAA50D38PeGWTb7cN+NkA5U4a+9s2+9u2Yff3d6tqpt+KsR1QrapDwKFBXyfJQlXNDaGkiWB/22Z/27aV/R3Vee5ngF09j6/u2iRJW2BU4f4ssDvJNUneD9wJHBnRe0mSlhnJtExVvZPkHuDfWDoV8sGqenEU78UQpnYmjP1tm/1t25b1dyQHVCVJ4+W1ZSSpQYa7JDVoosM9yS1JXklyMsn8uOsZhSSnkryQ5PkkC13bVUmeTPJqd3/luOvcrCQPJjmf5ERPW9/+Zcl93f4+nmTP+CrfnBX6e2+SM90+fj7J3p51X+j6+0qST4yn6s1JsivJd5O8lOTFJJ/r2pvcv6v0dzz7t6om8sbSgdofAx8C3g/8ALh23HWNoJ+ngG3L2v4GmO+W54G/HnedA/TvY8Ae4MRa/QP2Av8CBLgBeGbc9Q+pv/cCf9Fn22u7n+vLgGu6n/dLxt2HDfR1B7CnW74c+FHXpyb37yr9Hcv+neSR+/9f4qCq/ge4cImDabAPONwtHwZuH2MtA6mqp4A3lzWv1L99wEO15GngiiQ7tqbS4VihvyvZBzxSVb+sqp8CJ1n6uZ8IVXW2qr7fLb8NvAzspNH9u0p/VzLS/TvJ4b4TeL3n8WlW/4ecVAV8J8lz3SUbALZX1dlu+Q1g+3hKG5mV+tfyPr+nm4p4sGearZn+JpkFPgI8wxTs32X9hTHs30kO92lxY1XtAW4F7k7ysd6VtfT5rtnzWVvvX+d+4MPAdcBZ4CvjLWe4knwQ+Bbw+ar6ee+6Fvdvn/6OZf9OcrhPxSUOqupMd38eeIylj23nLnxc7e7Pj6/CkVipf03u86o6V1XvVtWvgK/z64/mE9/fJO9jKei+WVXf7pqb3b/9+juu/TvJ4d78JQ6SfCDJ5ReWgY8DJ1jq5/5us/3A4+OpcGRW6t8R4DPdWRU3AG/1fLyfWMvmlT/J0j6Gpf7emeSyJNcAu4HvbXV9m5UkwAPAy1X11Z5VTe7flfo7tv077iPMAx6d3svSEekfA18cdz0j6N+HWDqa/gPgxQt9BH4bOAa8Cvw7cNW4ax2gjw+z9FH1f1mac7xrpf6xdBbF17r9/QIwN+76h9Tff+z6c7z7D7+jZ/svdv19Bbh13PVvsK83sjTlchx4vrvtbXX/rtLfsexfLz8gSQ2a5GkZSdIKDHdJapDhLkkNMtwlqUGGuyQ1yHCXpAYZ7pLUoP8DedhChHNPPLUAAAAASUVORK5CYII=\n", + "text/plain": [ + "
" + ] + }, + "metadata": { + "tags": [], + "needs_background": "light" + } + }, + { + "output_type": "stream", + "text": [ + "1\n", + "Testing Sentence Lengths: \n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "image/png": "iVBORw0KGgoAAAANSUhEUgAAAXAAAAD4CAYAAAD1jb0+AAAABHNCSVQICAgIfAhkiAAAAAlwSFlzAAALEgAACxIB0t1+/AAAADh0RVh0U29mdHdhcmUAbWF0cGxvdGxpYiB2ZXJzaW9uMy4yLjIsIGh0dHA6Ly9tYXRwbG90bGliLm9yZy+WH4yJAAANdUlEQVR4nO3dXYyc91XH8e/BSVrUBqWOF8uyE9alVpGF1CRahaBGlUhoSZ0IGymKUqGwF0a+aaRUgGBLb4rERYJEC0gVwpCIBZUmUdvIFlahwaSqkCDtujgvjglxgiNiOd4tTWi4aXF6uJhnyWo9szO78+Yz+/1I1jxvs3NOns1P//3P88xEZiJJqufHxl2AJGljDHBJKsoAl6SiDHBJKsoAl6Sirhjli23bti2np6dH+ZKSVN6JEye+m5lTq7ePNMCnp6dZWFgY5UtKUnkR8Wq77U6hSFJRBrgkFWWAS1JRBrgkFWWAS1JRBrgkFWWAS1JRBrgkFWWAS1JRmyrAp+eOMT13bNxlSNJAbKoAl6RJYoBLUlEGuCQVZYBLUlEGuCQVZYBLUlEGeMNLDCVVY4BLUlEGuCQVZYBLUlEj/VLjqlbOjZ998M4xViJJ73AELklFGeCSVJQBLklFGeCSVJQBLklFGeCSVNSmv4zQ2+clVeUIXJKKMsAlqSgDXJKK6mkOPCLOAm8BbwMXM3MmIrYCjwHTwFngnsx8Yzhlbtyw5riXf6631ksal/WMwH8hM2/IzJlmfQ44npl7gOPNuiRpRPqZQtkPzDfL88CB/suRJPWq18sIE/h6RCTwZ5l5GNiemeeb/a8D29s9MSIOAYcArr/++j7LHS0vMZR0Oes1wG/NzHMR8ZPAkxHxbyt3ZmY24X6JJuwPA8zMzLQ9RpK0fj1NoWTmueZxEXgCuBm4EBE7AJrHxWEVKUm6VNcAj4j3RMTVy8vAx4DngaPAbHPYLHBkWEVKki7VyxTKduCJiFg+/m8y8+8i4tvA4xFxEHgVuGd4ZY7Oeue9/bYeSePSNcAz8xXgQ222/xdw+zCKkiR1552YklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklSUAS5JRRngklTUFb0eGBFbgAXgXGbeFRG7gUeBa4ETwH2Z+cPhlLl+03PHNrRPkqpYzwj8AeD0ivWHgM9n5geAN4CDgyxMkrS2ngI8InYBdwJ/0awHcBvw5eaQeeDAMAqUJLXX6wj8j4DfBn7UrF8LvJmZF5v114Cd7Z4YEYciYiEiFpaWlvoqVpL0jq4BHhF3AYuZeWIjL5CZhzNzJjNnpqamNvIjJElt9PIm5oeBX46IfcC7gZ8A/hi4JiKuaEbhu4BzwytTkrRa1xF4Zn46M3dl5jRwL/CPmfmrwFPA3c1hs8CRoVUpSbpEP9eB/w7wGxFxhtac+MODKUmS1IuerwMHyMxvAN9oll8Bbh58SZKkXngnpiQVZYBLUlEG+ABNzx3zNn1JI2OAS1JRBrgkFWWAS1JRBrgkFWWAS1JRBrgkFbWuOzHlt/lIunw4ApekogxwSSrKAJekogxwSSrKAJekogxwSSrKAJekogxwSSrKAJekogxwSSpq4m6l91Z3SZuFI3BJKsoAl6SiDHBJKsoAHzK/qV7SsBjgklSUAS5JRRngklRU1wCPiHdHxLci4pmIOBURv9ds3x0RT0fEmYh4LCKuGn65kqRlvYzAfwDclpkfAm4A7oiIW4CHgM9n5geAN4CDwytTkrRa1wDPlv9pVq9s/iVwG/DlZvs8cGAoFUqS2uppDjwitkTESWAReBJ4GXgzMy82h7wG7Ozw3EMRsRARC0tLS4OoWZJEjwGemW9n5g3ALuBm4Gd6fYHMPJyZM5k5MzU1tcEyJUmrresqlMx8E3gK+HngmohY/jCsXcC5AdcmSVpDL1ehTEXENc3yjwMfBU7TCvK7m8NmgSPDKnISeEempEHr5eNkdwDzEbGFVuA/npl/GxEvAI9GxO8D/wo8PMQ6JUmrdA3wzHwWuLHN9ldozYdLksbAOzElqaiJ+0aey4Fz3ZJGwRG4JBVlgEtSUQa4JBVlgEtSUQa4JBVlgEtSUQa4JBVlgEtSUQa4JBVlgEtSUQa4JBVlgEtSUQa4JBVlgEtSUX6c7Iit/KjZsw/eOcZKJFXnCFySijLAJakoA1ySijLAJakoA1ySijLAJamocpcRehmeJLU4ApekogxwSSrKAJekoroGeERcFxFPRcQLEXEqIh5otm+NiCcj4qXm8X3DL1eStKyXEfhF4Dczcy9wC/DJiNgLzAHHM3MPcLxZlySNSNcAz8zzmfmdZvkt4DSwE9gPzDeHzQMHhlWkJOlS65oDj4hp4EbgaWB7Zp5vdr0ObO/wnEMRsRARC0tLS32UKklaqecAj4j3Al8BPpWZ31+5LzMTyHbPy8zDmTmTmTNTU1N9FStJekdPAR4RV9IK7y9m5lebzRciYkezfwewOJwSJUnt9HIVSgAPA6cz83Mrdh0FZpvlWeDI4MuTJHXSy630HwbuA56LiJPNtt8FHgQej4iDwKvAPcMpUZLUTtcAz8x/AqLD7tsHW44kqVfeiSlJRRngklSUAS5JRRngklSUAS5JRZX7Rp52Vn5LjyRtFo7AJakoA1ySijLAJakoA3yMpueOOX8vacMMcEkqygCXpKIMcEkqygCXpKIMcEkqygCXpKIMcEkqygCXpKIMcEkqygCXpKJKf5yst6FL2swcgUtSUQa4JBVlgF9m/IRCSb0ywCWpKANckooywCWpqK6XEUbEI8BdwGJm/myzbSvwGDANnAXuycw3hlfmZHPOW9JG9DIC/0vgjlXb5oDjmbkHON6sS5JGqGuAZ+Y3ge+t2rwfmG+W54EDA65LktTFRufAt2fm+Wb5dWB7pwMj4lBELETEwtLS0gZfTp142aG0efX9JmZmJpBr7D+cmTOZOTM1NdXvy0mSGhsN8AsRsQOgeVwcXEmSpF5sNMCPArPN8ixwZDDlSJJ61TXAI+JLwD8DH4yI1yLiIPAg8NGIeAn4xWZdkjRCXa8Dz8xPdNh1+4BrkSStg3diSlJRBrgkFWWAS1JRBrgkFWWAS1JRBrgkFWWAS1JRBrgkFWWAS1JRXe/E1His9RGxZx+8c4SVSLpcOQKXpKIMcEkqygCXpKKcA58wK+fOnSuXJpsjcEkqygCXpKKcQinIb6GXBI7AJaksA1ySijLAJako58D1/5bn1gd5+aGXNUrD4whckooywCWpKANckopyDnxCtLs2vN2c9urjep2XXutnObctjYcjcEkqygCXpKKcQtkE1rr1fq2pF1jf9Mh6n9fu+HFedtjPa681neRUk4alrxF4RNwRES9GxJmImBtUUZKk7jYc4BGxBfgC8HFgL/CJiNg7qMIkSWvrZwR+M3AmM1/JzB8CjwL7B1OWJKmbyMyNPTHibuCOzPz1Zv0+4Ocy8/5Vxx0CDjWrHwRe3GCt24DvbvC5FdnvZLPfyTbofn8qM6dWbxz6m5iZeRg43O/PiYiFzJwZQEkl2O9ks9/JNqp++5lCOQdct2J9V7NNkjQC/QT4t4E9EbE7Iq4C7gWODqYsSVI3G55CycyLEXE/8PfAFuCRzDw1sMou1fc0TDH2O9nsd7KNpN8Nv4kpSRovb6WXpKIMcEkqqkSAT/ot+xFxNiKei4iTEbHQbNsaEU9GxEvN4/vGXWc/IuKRiFiMiOdXbGvbY7T8SXO+n42Im8ZX+fp16PWzEXGuOccnI2Lfin2fbnp9MSJ+aTxVb1xEXBcRT0XECxFxKiIeaLZP6vnt1O/oz3FmXtb/aL1B+jLwfuAq4Blg77jrGnCPZ4Ftq7b9ATDXLM8BD427zj57/AhwE/B8tx6BfcDXgABuAZ4ed/0D6PWzwG+1OXZv8zv9LmB387u+Zdw9rLPfHcBNzfLVwL83fU3q+e3U78jPcYUR+Ga9ZX8/MN8szwMHxlhL3zLzm8D3Vm3u1ON+4K+y5V+AayJix2gq7V+HXjvZDzyamT/IzP8AztD6nS8jM89n5nea5beA08BOJvf8duq3k6Gd4woBvhP4zxXrr7H2f6yKEvh6RJxoPnoAYHtmnm+WXwe2j6e0oerU46Se8/ubKYNHVkyJTVSvETEN3Ag8zSY4v6v6hRGf4woBvhncmpk30fpkx09GxEdW7szW32ETfb3nJujxT4GfBm4AzgN/ON5yBi8i3gt8BfhUZn5/5b5JPL9t+h35Oa4Q4BN/y35mnmseF4EnaP15dWH5z8rmcXF8FQ5Npx4n7pxn5oXMfDszfwT8Oe/8CT0RvUbElbTC7IuZ+dVm88Se33b9juMcVwjwib5lPyLeExFXLy8DHwOep9XjbHPYLHBkPBUOVacejwK/1lytcAvw3yv+FC9p1Rzvr9A6x9Dq9d6IeFdE7Ab2AN8adX39iIgAHgZOZ+bnVuyayPPbqd+xnONxv6Pb47u++2i90/sy8Jlx1zPg3t5P6x3qZ4BTy/0B1wLHgZeAfwC2jrvWPvv8Eq0/K/+X1hzgwU490ro64QvN+X4OmBl3/QPo9a+bXp5t/ofeseL4zzS9vgh8fNz1b6DfW2lNjzwLnGz+7Zvg89up35GfY2+ll6SiKkyhSJLaMMAlqSgDXJKKMsAlqSgDXJKKMsAlqSgDXJKK+j/DYM7M5bbdzAAAAABJRU5ErkJggg==\n", + "text/plain": [ + "
" + ] + }, + "metadata": { + "tags": [], + "needs_background": "light" + } + }, + { + "output_type": "stream", + "text": [ + "0\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "ULbvRAH24w11" + }, + "source": [ + "#Model Files" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "8pPW_AKQ4D_9" + }, + "source": [ + "from sklearn import preprocessing\n", + "from sklearn import model_selection\n", + "\n", + "from arabert.preprocess_arabert import preprocess, prefix_symbols , suffix_symblos\n", + "\n", + "from transformers import AdamW\n", + "from transformers import get_linear_schedule_with_warmup\n", + "\n", + "import transformers\n", + "import torch\n", + "\n", + "import torch.nn as nn\n", + "import numpy as np\n", + "\n", + "import joblib\n", + "import pickle\n", + "\n", + "from tqdm import tqdm_notebook as tqdm\n", + "\n", + "from seqeval.metrics import accuracy_score, f1_score, precision_score, recall_score, classification_report\n", + "\n", + "from farasa.segmenter import FarasaSegmenter" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "FVUtKhfwiyMZ" + }, + "source": [ + "MAX_SEQ_LEN = 256\n", + "TRAIN_BATCH_SIZE = 32\n", + "VALID_BATCH_SIZE = 8\n", + "EPOCHS = 5\n", + "LEARNING_RATE = 3e-5\n", + "WARMUP_RATIO = 0.15\n", + "MAX_GRAD_NORM = 1.0" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "MupqO_h940d6" + }, + "source": [ + "MAX_SEQ_LEN = 320\n", + "TRAIN_BATCH_SIZE = 32\n", + "VALID_BATCH_SIZE = 8\n", + "EPOCHS = 5\n", + "LEARNING_RATE = 5e-5\n", + "WARMUP_RATIO = 0.1\n", + "MAX_GRAD_NORM = 1.0\n", + "\n", + "#You can try other Arabic BERT models by just changing the path here\n", + "#In our tests AraBERT (v1&v0.1) outperformed all tested models :)\n", + "BASE_MODEL_PATH = 'aubmindlab/bert-base-arabertv01'\n", + "MODEL_PATH = \"model.bin\"\n", + "TOKENIZER = transformers.BertTokenizer.from_pretrained(\n", + " BASE_MODEL_PATH,\n", + " do_lower_case=False)\n", + "\n", + "\n", + "is_arabertv1=False\n", + "farasa_segmenter = None\n", + "if BASE_MODEL_PATH == 'aubmindlab/bert-base-arabert':\n", + " is_arabertv1=True\n", + " farasa_segmenter = FarasaSegmenter(interactive=True)" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "nSCBhRFKAmt_", + "colab": { + "base_uri": "https://localhost:8080/" + }, + "outputId": "383661a8-8ee2-4696-c2f1-a2446c7fef9d" + }, + "source": [ + "tokenized_data = []\n", + "for sentence in data_test:\n", + " tokenized_sentence = []\n", + " for word in sentence[0]:\n", + " tokenized_sentence.extend(TOKENIZER.tokenize(word))\n", + " tokenized_data.append(tokenized_sentence)\n", + "\n", + "#checking if Max length is compatible with the test data and doesnt cut any sentence in the test data weh\n", + "print(sum([len(sentence[0]) > MAX_SEQ_LEN for sentence in tokenized_data]))" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "0\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "eTrkgT1WOezS" + }, + "source": [ + "# check if the test_dataset is fully covered\n", + "if is_arabertv1:\n", + " tokenized_data = [TOKENIZER.tokenize(preprocess(\" \".join(sentence[0]),is_arabertv1,farasa_segmenter,True)) for sentence in data_test]\n", + " plt.hist([ len(x) for x in tokenized_data],bins=range(0,256,2))\n", + " plt.show()\n", + " print(sum([len(x) > 256 for x in tokenized_data]))" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "rHazBYgbAugR" + }, + "source": [ + "class NERDataset:\n", + " def __init__(self, texts, tags, label_list, is_arabertv1=False, farasa_segmenter=None):\n", + " self.texts = texts\n", + " self.tags = tags\n", + " self.label_map = {label: i for i, label in enumerate(label_list)}\n", + " self.is_arabertv1 = is_arabertv1\n", + " if self.is_arabertv1:\n", + " assert farasa_segmenter is not None\n", + " self.farasa_segmenter = farasa_segmenter\n", + " \n", + " self.pad_token_label_id = nn.CrossEntropyLoss().ignore_index\n", + " # Use cross entropy ignore_index as padding label id so that only\n", + " # real label ids contribute to the loss later.\n", + "\n", + " \n", + " def __len__(self):\n", + " return len(self.texts)\n", + " \n", + " def __getitem__(self, item):\n", + " textlist = self.texts[item]\n", + " tags = self.tags[item]\n", + "\n", + " tokens = []\n", + " label_ids = []\n", + " for word, label in zip(textlist, tags):\n", + "\n", + " if self.is_arabertv1:\n", + " clean_word = preprocess(\n", + " word,\n", + " do_farasa_tokenization=True,\n", + " farasa=self.farasa_segmenter,\n", + " use_farasapy=True\n", + " )\n", + " else:\n", + " clean_word = preprocess(word, do_farasa_tokenization=False) \n", + " \n", + " word_tokens = TOKENIZER.tokenize(clean_word)\n", + " if len(word_tokens) > 0:\n", + " tokens.extend(word_tokens) \n", + " # Use the real label id for the first token of the word, and padding ids for the remaining tokens\n", + " label_ids.extend([self.label_map[label]] + [self.pad_token_label_id] * (len(word_tokens) - 1))\n", + " \n", + " # Account for [CLS] and [SEP] with \"- 2\" and with \"- 3\" for RoBERTa.\n", + " special_tokens_count = TOKENIZER.num_special_tokens_to_add()\n", + " if len(tokens) > MAX_SEQ_LEN - special_tokens_count:\n", + " tokens = tokens[: (MAX_SEQ_LEN - special_tokens_count)]\n", + " label_ids = label_ids[: (MAX_SEQ_LEN - special_tokens_count)]\n", + " \n", + " #Add the [SEP] token\n", + " tokens += [TOKENIZER.sep_token]\n", + " label_ids += [self.pad_token_label_id]\n", + " segment_ids = [0] * len(tokens)\n", + "\n", + " #Add the [CLS] TOKEN\n", + " tokens = [TOKENIZER.cls_token] + tokens\n", + " label_ids = [self.pad_token_label_id] + label_ids\n", + " segment_ids = [0] + segment_ids\n", + "\n", + " input_ids = TOKENIZER.convert_tokens_to_ids(tokens)\n", + "\n", + " # The mask has 1 for real tokens and 0 for padding tokens. Only real\n", + " # tokens are attended to.\n", + " input_mask = [1] * len(input_ids)\n", + "\n", + " # Zero-pad up to the sequence length.\n", + " padding_length = MAX_SEQ_LEN - len(input_ids)\n", + "\n", + " input_ids += [TOKENIZER.pad_token_id] * padding_length\n", + " input_mask += [0] * padding_length\n", + " segment_ids += [0] * padding_length\n", + " label_ids += [self.pad_token_label_id] * padding_length\n", + "\n", + " assert len(input_ids) == MAX_SEQ_LEN\n", + " assert len(input_mask) == MAX_SEQ_LEN\n", + " assert len(segment_ids) == MAX_SEQ_LEN\n", + " assert len(label_ids) == MAX_SEQ_LEN\n", + "\n", + " # if item < 5:\n", + " # print(\"*** Example ***\")\n", + " # print(\"tokens:\", \" \".join([str(x) for x in tokens]))\n", + " # print(\"input_ids:\", \" \".join([str(x) for x in input_ids]))\n", + " # print(\"input_mask:\", \" \".join([str(x) for x in input_mask]))\n", + " # print(\"segment_ids:\", \" \".join([str(x) for x in segment_ids]))\n", + " # print(\"label_ids:\", \" \".join([str(x) for x in label_ids]))\n", + " \n", + " return {\n", + " 'input_ids' : torch.tensor(input_ids, dtype=torch.long),\n", + " 'input_mask' : torch.tensor(input_mask, dtype=torch.long),\n", + " 'segment_ids' : torch.tensor(segment_ids, dtype=torch.long),\n", + " 'label_ids' : torch.tensor(label_ids, dtype=torch.long) \n", + " }\n" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "3D2VeiY7Lia6" + }, + "source": [ + "def loss_fn(output, target, mask, num_labels):\n", + " lfn = nn.CrossEntropyLoss()\n", + " active_loss = mask.view(-1) == 1\n", + " active_logits = output.view(-1, num_labels)\n", + " active_labels = torch.where(\n", + " active_loss,\n", + " target.view(-1),\n", + " torch.tensor(lfn.ignore_index).type_as(target)\n", + " )\n", + " loss = lfn(active_logits, active_labels)\n", + " return loss\n", + "\n", + "\n", + "class NERModel(nn.Module):\n", + " def __init__(self, num_tag):\n", + " super(NERModel, self).__init__()\n", + " self.num_tag = num_tag\n", + " self.bert = transformers.BertModel.from_pretrained(BASE_MODEL_PATH)\n", + " self.bert_drop = nn.Dropout(0.3)\n", + " self.out_tag = nn.Linear(768, self.num_tag)\n", + " \n", + " def forward(self, input_ids, input_mask, segment_ids, label_ids):\n", + " o1, _ = self.bert(input_ids, attention_mask=input_mask, token_type_ids=segment_ids)\n", + " bo_tag = self.bert_drop(o1)\n", + " logits = self.out_tag(bo_tag)\n", + "\n", + " loss_tag = loss_fn(logits, label_ids, input_mask, self.num_tag)\n", + " return logits, loss_tag" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "DGPOnvGZRlVT" + }, + "source": [ + "inv_label_map = {i: label for i, label in enumerate(label_list)}\n", + "\n", + "def align_predictions(predictions, label_ids):\n", + " preds = np.argmax(predictions, axis=2)\n", + "\n", + " batch_size, seq_len = preds.shape\n", + "\n", + " out_label_list = [[] for _ in range(batch_size)]\n", + " preds_list = [[] for _ in range(batch_size)]\n", + "\n", + " for i in range(batch_size):\n", + " for j in range(seq_len):\n", + " if label_ids[i, j] != nn.CrossEntropyLoss().ignore_index:\n", + " out_label_list[i].append(inv_label_map[label_ids[i][j]])\n", + " preds_list[i].append(inv_label_map[preds[i][j]])\n", + "\n", + " return preds_list, out_label_list\n", + "\n", + "def compute_metrics(predictions,label_ids):\n", + " preds_list, out_label_list = align_predictions(predictions,label_ids)\n", + " print(classification_report(out_label_list, preds_list,digits=4))\n", + " return {\n", + " \"accuracy_score\": accuracy_score(out_label_list, preds_list),\n", + " \"precision\": precision_score(out_label_list, preds_list),\n", + " \"recall\": recall_score(out_label_list, preds_list),\n", + " \"f1\": f1_score(out_label_list, preds_list),\n", + " }" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "M52HMFEtP188" + }, + "source": [ + "def train_fn(data_loader, model, optimizer, device, scheduler):\n", + " model.train()\n", + " final_loss = 0\n", + " for data in tqdm(data_loader, total=len(data_loader)):\n", + " for k, v in data.items():\n", + " data[k] = v.to(device)\n", + " optimizer.zero_grad()\n", + " _, loss = model(**data)\n", + " loss.backward()\n", + " torch.nn.utils.clip_grad_norm_(model.parameters(), MAX_GRAD_NORM)\n", + " optimizer.step()\n", + " scheduler.step()\n", + " final_loss += loss.item()\n", + " return final_loss / len(data_loader)\n", + "\n", + "def eval_fn(data_loader, model, device):\n", + " model.eval()\n", + " with torch.no_grad():\n", + " final_loss = 0\n", + " preds= None\n", + " label_ids = None\n", + " for data in tqdm(data_loader, total=len(data_loader)):\n", + " for k, v in data.items():\n", + " data[k] = v.to(device)\n", + " logits , loss = model(**data)\n", + " final_loss += loss.item()\n", + " if logits is not None: \n", + " preds = logits if preds is None else torch.cat((preds, logits), dim=0)\n", + " if data['label_ids'] is not None:\n", + " label_ids = data['label_ids'] if label_ids is None else torch.cat((label_ids, data['label_ids']), dim=0)\n", + "\n", + " preds = preds.detach().cpu().numpy()\n", + " labels = label_ids.cpu().numpy() \n", + " \n", + " return compute_metrics(preds,labels), final_loss" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "Q0r6yylpTdGY", + "colab": { + "base_uri": "https://localhost:8080/" + }, + "outputId": "bb828aa1-9d5f-4fc0-8e0c-2f7c3c0d0aa2" + }, + "source": [ + "import torch\n", + "# If there's a GPU available...\n", + "if torch.cuda.is_available(): \n", + "\n", + " # Tell PyTorch to use the GPU. \n", + " device = torch.device(\"cuda\")\n", + "\n", + " print('There are %d GPU(s) available.' % torch.cuda.device_count())\n", + "\n", + " print('We will use the GPU:', torch.cuda.get_device_name(0))\n", + " !nvidia-smi\n", + "\n", + "# If not...\n", + "else:\n", + " print('No GPU available, using the CPU instead.')\n", + " device = torch.device(\"cpu\")" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "There are 1 GPU(s) available.\n", + "We will use the GPU: Tesla V100-SXM2-16GB\n", + "Thu Nov 19 15:16:27 2020 \n", + "+-----------------------------------------------------------------------------+\n", + "| NVIDIA-SMI 455.38 Driver Version: 418.67 CUDA Version: 10.1 |\n", + "|-------------------------------+----------------------+----------------------+\n", + "| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |\n", + "| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |\n", + "| | | MIG M. |\n", + "|===============================+======================+======================|\n", + "| 0 Tesla V100-SXM2... Off | 00000000:00:04.0 Off | 0 |\n", + "| N/A 35C P0 38W / 300W | 15889MiB / 16130MiB | 0% Default |\n", + "| | | ERR! |\n", + "+-------------------------------+----------------------+----------------------+\n", + " \n", + "+-----------------------------------------------------------------------------+\n", + "| Processes: |\n", + "| GPU GI CI PID Type Process name GPU Memory |\n", + "| ID ID Usage |\n", + "|=============================================================================|\n", + "| No running processes found |\n", + "+-----------------------------------------------------------------------------+\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "6zZRK9cZ2qS_" + }, + "source": [ + "#Cross_validation Loop\n" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "VIO7_nXEspt3", + "colab": { + "base_uri": "https://localhost:8080/" + }, + "outputId": "b9a72d93-74ea-4356-de71-fade756cdcf4" + }, + "source": [ + "from sklearn.model_selection import KFold\n", + "\n", + "kf = KFold(n_splits=5,shuffle=False, random_state=42)" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/sklearn/model_selection/_split.py:296: FutureWarning: Setting a random_state has no effect since shuffle is False. This will raise an error in 0.24. You should leave random_state to its default (None), or set shuffle=True.\n", + " FutureWarning\n" + ], + "name": "stderr" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "czw_XqM93Am6" + }, + "source": [ + "test_dataset = NERDataset(\n", + " texts= [x[0] for x in data_test],\n", + " tags = [x[1] for x in data_test],\n", + " label_list = label_list,\n", + " is_arabertv1=is_arabertv1,\n", + " farasa_segmenter=farasa_segmenter)\n", + "\n", + "test_dataloader = torch.utils.data.DataLoader(\n", + " dataset=test_dataset,\n", + " batch_size=VALID_BATCH_SIZE,\n", + " num_workers=1\n", + ")" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "NZhCFbvc2zxD", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000, + "referenced_widgets": [ + "db5981dd08804ac684153396abce449e", + "91e29953bc0848f8a651c1a2371d4688", + "f395a364345c4bf9ba448f0d932113bb", + "48ad718df8fa4d6cab60cbb20f3df204", + "aa9a63cbba0d49e7982d1c8091e4ce25", + "9052e6678b4247e09b550b5067060e44", + "1900035cd0044bcb8ac2d36a99c9bac2", + "df681e320ef04c93b30e79993df729cc", + "c9919bce589943a3bed91d77f3ed74ad", + "8fd0ad78e9d04b64807430445e76dba9", + "7fe58410936e48889b487b94fa4f42d2", + "d5a646591df54d95925f8f2c43097b0d", + "802d10e4f6104a83b213f8992e6d4ddd", + "f5c4d2bddb634f9c92f13d2e8736f076", + "8d1ae0eb14e24979a0769141a4dd5dcf", + "097f49ba1705439eb8c135173967ccc3", + "df55ba7759874d2ba5a495f02d1ab304", + "0ebbc10a88724713b9b40414ad426bbd", + "3e0a8ecfb12b4a5d913850d5e7958ee7", + "ff937713c3144cb7b5f2feb85d67c446", + "0bac92432218417fb980e29a13229288", + "9fc5cdb64ed34c03a93febae7f7db86b", + "9de5cf5a90164b528af42143df53e246", + "85bf98868d984a879e4d441483b4b934", + "05bb6cf575094e5faf69111b27e5ecf8", + "94e7cd5d27d845bb885f32bdb9532dc3", + "56db6dbb9dcc422da1304c09e5f2ce6a", + "0bb5c8c743e448a3b29f32bbfd52a398", + "0ef4fd4e686d427ab8552533f30bdee6", + "b527c61cacab4817a06df08e50863f36", + "6ec1e587c13b407ba14f7a70b00a39f2", + "f6f17bf0284a4913b500e1bcccafa21b", + "00acead444af4c5bae21cc79e0d55481", + "6a86b5705afc460898c4f1037e33ae02", + "44e44f2ef0284eccae5d75fdbd2da488", + "ab19f1bd26bd45308a78ba4a12c27949", + "f3e4e8648b994b66b7db4c287d047d91", + "70d1893574c241f5aa69f4b94a4c6f4d", + "9dbcb8ac8d014cdb8bde08ae84b28302", + "cc2e170cb0124126bd5611c345e1f21d", + "5d6e251fbc2b4176a12c74c4d96eb137", + "a1c8d55fbf4f496b9cb7cd797479646c", + "571a2cc9c4d54a3f9687e30797104640", + "861f6a70db6e4999b3dc2d60985f270b", + "0907210bea0a4e8eaa31a9db29bccfb7", + "2045d1a4c4b44326af91998c13c68c8f", + "53c3b1fca93f48409d4b7c5d40710be4", + "17c8f4b3d4cc448fb687d852b4355f41", + "ee7e678fc5314e83bcd2c27ef2b3c926", + "82894fb514b543d3bcb1a1fb52a48130", + "437695a7f4f14a8e8282bbfe11216c49", + "1d692223bc8c4ab6bb10108c54032477", + "77be4e59392443a8aecc376ce3b8b31e", + "06b8ddcbd4cd4ef6abad7c23c99c9744", + "fdf7655dddeb40938b1a0be6e537a917", + "a50277c304a64882836c6612a43b869d", + "47b415f1bee14445ae04d45a72f72849", + "1d82ab9772ab46a3a3e8dcb0fb7b0159", + "beb13ad07b484fb6bf8325c9047a9bc3", + "333c3918a6304fc6a4fdd3e8e33dfb71", + "363bcf6e013341a797f5100586e1b20d", + "af0a43a07ffe4c028c98e61ab335179a", + "356d2fa41e56451fb81e6b96b1fba74d", + "5ebb26219665448baeed5405d5bd50ee", + "4a9a4aa57c2f4b2c8df15fd1f7659f68", + "04e998d7bbc74ca6ace37b74a7bdef8b", + "015489a50aa9429f86f82a7a8f557ed5", + "4eac98e1a9f6467c882a581827c8fbdc", + "4f8f27ebf13c4356bf776570b0190437", + "30aab655f11d45e3975f052a72e97cf2", + "bff848a362a647dc8b94070d3ab63f32", + "5da4ae3ee97b401fb5c54d9a40f38790", + "6553341a2cb140b8b86a4ab5dd896d37", + "049c30ff5be34f86b3bc98f15a74c6a7", + "295c18d45f664a038b06bd0b290bbea1", + "d21834da4afc4e599a87a863a04341b6", + "7a87ec73ed4d49acb79dd2c209406c71", + "24be250a134e4bc48a1ead86d9d67ba8", + "9ca79cc8aed24f39a63731fabd61aeae", + "f4f3cd1ab87b449aaa77db0c6f7faebe", + "beb966caaba146dbb813628629f17b31", + "e89436a8a18941659e7d4fabdf62b348", + "145f1b478ec8428cae895fdd7bc7ebbc", + "1916c1d41a9d4266a518cad88ff354d9", + "6db0abd5440349a2941f3ef26971a03a", + "53eed69fa09641d294580ab95860c463", + "c9a3c118c671427a926497850df10024", + "d92106c8ec3f4b44a66848fe0cde53b9", + "7ab957d43de04aeaa74f9afbcac6f351", + "d02f50d6add44542aa983e402cd36bf0", + "fe6e4c1f9ede4c87847ae737b06952b1", + "ff3ba6bd59f549d6932147d0ab6376c2", + "7ef7b42e14ce4df1879cce676da5d2a9", + "b493099d9d8b45ac9394309a8dad64a6", + "390ebc2783184d83b2c901876b2c3913", + "a71253e72bc9469fa3c2a735442f07b3", + "681f01d603864529a2537011ea1794a5", + "861f98f569974847a8d8154ccebee1d3", + "1c447ef2e4124174909caf1b71d162e4", + "66692bf13e544528b920ea8b93960bdc", + "2fe12cb81046477a868bd279b94140a8", + "77a445a1017646599df9e23f1728428f", + "275716da7e214cfd860320b8f50185b7", + "ee1b22a358464514bdda239f9733918e", + "6d7dcdf328254d75b6f6ca8b8fd1ad90", + "2ab9b2bae53c46169cb9924f1e2867ef", + "ccc6ef5303814691b505b1736e7c2e68", + "bac2e14f37ca45f39fc676b9578a81d3", + "6fad86f3e635481bb9b7b6605c535d8e", + "45f6ed7e9eaa495aae7187249dc3f11f", + "b586787a170b4dc191f0550974787213", + "f90673944683471ebc5eb69fbc6b76f8", + "84c7bc15fd63405db569d68bb3e6dcdb", + "e5f53a106dc64ff8a7518b25b7cf8b5f", + "7feb7fc0e1284c7babeca0683bb1166f", + "afaf655e402840fdbf0cab7aaa135b32", + "554ba0311d3c40baab27d4a150c2ae5c", + "bacc0a1952d74d72b304dfb9ec0cd725", + "069173b4cee645c79ae803e7ab27d1f8", + "35e6dbdc25114541874bfe846f98af1c", + "3dc76d69c7864f6a9af02ae29f24e183", + "2b74d2ace83d4550886757f94222c64e", + "f01648fbe4564055b5ae3aef3fcd65e0", + "5c58317ccfc0483bb50a6d1f8d3faf93", + "6a1ac8c0918245cd9d33f20aea7d0212", + "b5fef062488049b68f88196cc91d9164", + "1ae43a3205d74e3b8c41d4ded04b3ba5", + "5e28b805849947038876f585b6116def", + "e739d8114d5844cf9a4910cc432b132c", + "49849ffaf279422ba8f6c1b273e4debe", + "9169156c331c4a04bb9162bbec0b44d7", + "93838599a2fc4969baeaea5ce7328344", + "7306a03669524a3298c664165a57ce1e", + "e6f7b09740d046599d27832871817281", + "c90e29a6e5c4449fa8de450a880554cf", + "9cba44b966ef4d83b4980b6d03dd5556", + "7073b81b56a3472eb3c9e5d385760d19", + "26f6341eec544e048d8e26e67a56639c", + "3c71a9bf3221431795497b57293b696d", + "ed4ea6acb5344243980125dd96227fd1", + "04896eeef4b84e859d0b4fdc271a2f6a", + "0789326d58114acf92fe76d54645ac92", + "9289b1c62bbb465697ac40d4d46d2aac", + "59298b7dac624ed0847427535f7bbe45", + "214edbfe84a447379f9d6f9f240ef801", + "7f26923ba89049dcadf3fec6468712e5", + "3ca69efca0cb41eda766fe02a9197b6b", + "1bca156f7b9b4df4985d3399af6c95dc", + "742f3623e47247319c8530833067ab0b", + "8cf9929faa22404ea2db8f79325da548", + "6724aae8cbce4c5995050b5cff7cbafd", + "bf60baf45fc546e29d7f6cbebc90651e", + "7e5d6f5b41aa498ba757a77af2a1586f", + "1c596c6fc9ac48c0bdda92d593844b0f", + "2c403dfb4bd14c5da7233ca7cd6df4e1", + "99b9d169a05d4ef3aafd2a2ff963c72e", + "33f87de362aa447f9376b822b2adf252", + "3a4d8a9c0d2e4c6abb0d798f10f36745", + "e398d5839524475c81eacbe08ac8c610", + "25b66c9ffc7b4434af5b8c61e955cc7f", + "1bfe5cbf18f54ceb8a6a0087cd973c0d", + "09c21013611a4256a0e8d7caa7002cc6", + "446943b6a1a743bbb67c26e6cfba5ff9", + "e9dc547a5d11440fb4eb9d40614c5413", + "6cfca10498c64c3c9ceb5b6d7b55b54a", + "9dae412aed1043a79a6af4c5b88029e7", + "829f56a63d294c048fcc5b421e2ff828", + "3444c304c0c5408abe3764a504409b84", + "e703d0c1f5084514a32aeca2765e8c7c", + "07e3716848f94a57801dd47f212b239b", + "834631cd937845a89e4fe939e34e89b4", + "ed1f8821c87d43488ecaf804147f984f", + "8eef4f93aa384bf19d2f4c4c5fa97622", + "9daa0e1f93ae4e4fb547af12eb3e255d", + "b3218c51760042009044785a3b3fe456", + "6351e4e9a4f1430b977ffd48eb209987", + "ff64c9ea45e14d9bb198666451c150eb", + "33a27158e5f94f3fbe7412a5fb4aa64e", + "e7be33e956b941fca30cca0fc193019e", + "1766efbe29e34d9eb06ece1a9ff237d1", + "4068062de85541d6964ba3cb80e2ad53", + "a5300efbac47404aba134e462f92a3fd", + "ed87cef367154fe49b016625119203cb", + "024d8ca1d1e149819d56a5871f9b6594", + "268bd05267ba4da682884c0e3d6db6bb", + "684e3df3b6e64e84980e9443847ab4fd", + "8068aee7abd14c8fb33ddfb720a88dc1", + "065882aa5c644e58a2fb33fe0642bdb4", + "9a0d23f54a97427aa0aa6fc6503fe7a5", + "38795489ab7746a6bf684b1e3784cfa2", + "fbd5fe1ebe1f4554958e6d784f0f9092", + "a8c5cc79638641fa9d9915a4bd08eb78", + "a8039f6839b94b0193bf92b89af5b3b7", + "22693c3fc6fa41b5ab125cf25c675c87", + "257da3a2a8304b6399b45f09ab5389b6", + "387c200ab5184fe6b93b692a5faeef4f", + "59d29ad07548449f8e508ed11eb4bd53", + "fc0d40bd71ba45bdbae8e2d2e1c1dbd9", + "c27854abff734e8ba20ecd5cf20cc81b", + "4baad9dc969a4a58b77029aa302ebe5f", + "e4afe9f730a147b0a1a12581fac40504", + "b3423221d9894927831770ca10537a49", + "8017c5de22594e53bd77f770d04b78fb", + "b3833fdff93c40b09be5583490c22260", + "7f7e2ed50ca34f00939f4ae8b8550ef8", + "d7197058827b4bd29a5ac36f5d8a0552", + "8ce8c726c1a74a96a7595ce5860d0470", + "64a1df12972845d8a43f24f4ff5fe57a", + "5cb39226e00d48d99a3f7daf4f2641ce", + "8c81ed38f81b4f958be89bf8067f0690", + "e8ce095b07164ffa88aae660f5ead6fd", + "54a53c02cceb4942a8a87dac421301d8", + "3bd1c737947f4b1c9b08d351f41266aa", + "4ba647af3c064c9ea4918aa4de53e6a3", + "409add9748af47919de6a559897ed904", + "6176a269c954445d981b235412164980", + "68cfb93f8063472d9af3a7a2bfaecc85", + "cd12cf560e314b6b8cba6d2f16d3fab3", + "4f90f6cfcf36440f8df67c99a1126371", + "2f1e70eed78f434d961bdd7d1d3641c4", + "991d1db79412417facbb1563b29d37a9", + "2557e3846d834c978091b5ae7eac2b1e", + "f2e4bf2d0ce847c6b95292393b881575", + "eace04b1a96440ca9b5875df40c306ce", + "da08f85e21334e2590c33be180c5dfea", + "b6b706b7372a48e58ee2db2f3975af5d", + "c42d111373ac4b47839073e147f8b610", + "de7f096bc8104cbabece87b7fbce8d93", + "a95d7bed23e6457da3dc0482de04fa42", + "850cd786afe84ef1af195bb267f49953", + "6f6ca649c37f488493918a5073abfe1c", + "05af38956d1b4574b3494ab3f5e98eb3", + "268be7aa370c414db80641752b6f9a23", + "b1d99dd7703a433c8d623c074a85b3eb", + "f8ae4bd9bba2484db04157ebca40c093", + "b7744e306e094924b362f47980995b14", + "eba46693b6ee43ec83a0eb7a626bc63b", + "28b872afa0df49ceacd2245196c3287c", + "663ef026484440feb0904de44575a6e2", + "e4cd19256f2a4efdad7281c2b4677e69", + "a8af9be30bd044e5a758f228eebd5e1e", + "348d65d92ebf451099e12494ccc51205", + "4e0071c05e284ec8aa9938aa17b2c58b", + "146fb82554634b4ab00bad82753a4f07", + "4d867edcb5f746d79071b5c13dd94760", + "baef281043ec410d920f3c21ecbc1741", + "272291fad2d342949ee9524aa19c18f1", + "718af4fc25b44411bf53e2c0fae3fc9c", + "a271f3c286a149958934eaf47552922c", + "f8a9fb0a7903486ab7573afbdb3cba24", + "6df6bf5575cf4ede81b8a3fd62aa311f", + "ede1cf8e214f487c8a4cfdd5c075a204", + "ea056069e4fe4cc7a82940db9615745b", + "9822a288d1d843c7b39e4734b703f737", + "9d75bd74a32a4d489fa23827d36d4a5b", + "b078d48425b147cda596a832351b9d28", + "7ad3eb6a8aa74de9b6341bd5cd781161", + "d577535eeecb4169a67325012fb4f706", + "774f0123261d400c97cfbc104ec3f2c2", + "9b9c926bda7f4287b88737d4382cbf8f", + "8070c3d9300742c694db7c6a06a8d8a6", + "a703abbd0ccd4dcbb536c6b1bcdd9830", + "8da4bf16263b46f08a290ae2b072e2c6", + "56d689f7a95443c1b598807545c1d192", + "08f21788e8204145ba3f7745f0a4499f", + "a08083f684e0425fbd91f62a569647b6", + "adc779cb021a42ccad7bb84907815b00", + "bebc5a9d3abe47cba316e900c98b068a", + "b7fda71f85e046df9ed1de27357cb773", + "dfabbe6b32784b8ba8ab26f7d05286a3", + "f3da483bb2bf45468600c62915bbd0fb", + "8baf3833ede84843a4a9e47328c682d1", + "f4803dd761bf45e4b0c4d915a91234c8", + "590538d5159c498a86dd2eb277ad49e5", + "53718fedcfab460ab0626476748558fe", + "b5b8ddebda3f48c69677dda7b2b88a08", + "42c4917773d3487aa4fdcb57ffbf1d3a", + "cf811808cb4145759c0a69b741f2e7bf", + "68d55f886081465d8c37a2cea080711a", + "8dc79a7c9b6e47f58249d47a96afc5ab", + "0e9bb060f7424e5aaca6af1de6de16da", + "9e6a425c8e8f4caf8eeee4097dc25e37", + "e6461da283244d1e9e544fb197192a0e", + "7acf6861072e4a508d58f2fd90fee1f0", + "1cc22743c55748c7bf484f8793cef7b4", + "1807a693234544c69137959af57529ce", + "f6e82c6cea2140498a376973d36fd843", + "c8c3c7a5a6814470a5e1861656230891", + "c761619e6819428e99cc3056e70f5447", + "46cb697a6fb54e6390bc9edefb34dc09", + "0a42f7e4aaef4611ba31932cdf652e53", + "d8f259396e6940ffafed825001a19694", + "8597b7d587c3475a8233370988f54646", + "24b53e45c5d04e419c08b19699b80d7b", + "8a4492716a8045fca70a95191a71db43", + "d1b6c981924c493091da06e23d018b17", + "c0aef2e4b73b42da96c16dea394991ad", + "0124df04589944f18fd1569f1d004220", + "fa51621f2fb0452197ea65e4551a582b", + "c4528dbc627e4eed9cf89a298e741675", + "f344842b367c41ba8af5706f712c695d", + "5440f1e21c4147db9345bdaf5f31f4b5", + "eaae8541588346599f968daddbda98b6", + "1da775ac2d414f0ea7dc4033768699f3", + "d90e9b4c15934997bbe7740a2d1ef5f5", + "1e35ad881eb24a80b6315a3fc08a59a6", + "d489011926064296a1622aefd95c62e0", + "5612a0d0e695481ab2bb8568353c7af2", + "b16fca5b4bfd48d89586fbcb7e25b4b3", + "6df8e63edc2140bdacc3425524804da6", + "7a4cb2dc260341bcb91ea27e12320ef7", + "0eb7d370c69649c6bda2822af6960fe7", + "fa3fc2476fff4cbb9367fbca07619358", + "b7e50d5cf63e471d9877d663f5396a98", + "dae4cbf1792c4985b43071adc91ccc53", + "fc0228b43e604d71b74edbbd1292bd4a", + "4ed67efc4b31425586ba39d181ccf7fb", + "073821b8651345febb121209b0eceb7e", + "d03d442dfbdc46daba489b8229e883f8", + "3568bac076f7432e896f4e257bf11d5b", + "2878f8f52ac44cbeaea26f5c26700087", + "b12506dad9734800bc5aec43b9bdc77b", + "f1798e0471404427bb231d728b57a0e4", + "fc3b9f10c3de43cbb5cb38dca3f7b77a", + "4cd7e8461b404e56bb1dc8beebfaf2a4", + "28a0a260fad645538c8e39cb06b9d124", + "5fe093791a8047ca95de0300eb478f54", + "84b97d19f3d84ddaba997dff902cebf4", + "2563c13c37d04a5086c9207c13ffbd90", + "77cb997ecfc5455d97b20b7c396397e7", + "7f4d13affafb4c03bbab233be30556f2", + "db7689e39867400298408930e382e50f", + "35b6eeb282aa40648a2d4563c324d018", + "8af0d1790cf149f1a9b6380ca027c623", + "0d2416a2e6254a7c995870a5552906e9", + "f438943e4318453ea3204a481d0e0f7c", + "fa1fe14abc4740f58729471c31e0bf35", + "b13e5d5980a1481ab5be51c48d2c2ea0", + "99fa61005f9b47908230816562890d85", + "c060694ea2d54671843c9dab1ee192fe", + "a5fcc85b15c14733aff234beaf0e0dfe", + "05f4858c42b540b1996055def4d0db9d", + "eb1e520400544925a0d08c3ebf63d00c", + "12b52110999640809ca4aa9f86a11398", + "f774c9cb244040069b9d5b7e2d32bbe3", + "5069e5adb6554e12b56e8e24a9006e56", + "c894fc74bf474af6a7d26d471c4284f3", + "b9b72db5a1df4049b73ad9e33de5dd9d", + "624dbae63a724cb6b4dd04e40d4f15ae", + "90586d0c0d034e31a351b258de0d2b47", + "f06fd337a8474d16896749b043df9c7a", + "8701461005444701ab921d183eca491f", + "2966a81f2df245c6ab09b127f3f29a30", + "3e71fa18d5534460a33f2d5d87d19d7f", + "bcbfb62347834c808333ab86abff0bd3", + "33df4982b0eb4eb1bd98d77676f31538", + "07f92244846d4e7fb8f26454fa5f9aa8", + "819edf4e5312440792f9d39e73b15f34", + "e69baca96bdb464887b097867cbc3f82", + "069c7b6718a34c72aa4107241f2e2921", + "9b79d95e5c4849a88674b9df87824e19", + "489a0e3d2ff147f0beb7edf404b17e9f", + "3e7c85953efc4e478613ae73d42a2f8f", + "6d2d6a07662e4ad6bb5f79f64e3e8574", + "bbe5384c58b6433982a25dca9cd7cc80", + "f302f464365f4a399a24668c705cc547", + "45fe18e6f22a46be9b3e0ae04baa5ffa", + "25543a9b7d48429da0628654b67a36ce", + "bb490b10430949cc86b0f97efd043e28", + "be6a81f90e9f487baece42a2d9c0bb24", + "06e826de1dec450a94f552d30867382b", + "f8c6b580666d4e86b04bbb87542edbc5", + "674de9c607194060b6ff113e3834302e", + "c32f7ae5cf4a4ad58053757d085a3532", + "0ba3ed4db8f4422fa397ec605b6f5102", + "cff3603113624e83829aa0e4f2fc24f2", + "943fc77b0eee44479b37f9e3fcf18748", + "fcf9fb1e95284ae0b8d2f670c446a90c", + "7a823f5a085b4996bf8f4de347bc1a57", + "9f1838fdfb5b42d389b7ce0b29de88d2", + "8f03c9d4c1af4037a52d01d21a4a9076", + "9b91ea8afa3146c68ec8838e25362d91", + "5c400e18fd6e4070b876e63965c626aa", + "fd08fd1adbac4879937f0c4c76e6e9ff", + "93bb11d94db84c8ba9d71373a73a1d06", + "f4efc165000443f6869223168a890c38", + "d2ee78138ade46a199588fb7834287c3", + "22cbbefa60574e99bec58ee68ee99d32", + "6a52abdff4a04601a3fd38d393226eb1", + "9a1e6059a26846049da95e13e0a51244", + "5c00b08435f3434184f0aaa4b8660b05", + "25a252dbecf94c8ca3bba959b6125d44", + "4b65ace694b84776b8ef9b637f9b87e2", + "0d70697817574bae83052b62206385d9", + "a645fb1d6e2b4c62a4ac11d095c3ab5d", + "972dd66877744088ba2a29707b4d2bc6", + "a8c77b541484470ea53be8d413a4b755", + "5bf170b4389c4a51a6939feebb041c13", + "aa182abc6be2423aad248f57aeac9080", + "cbfa47e24c794477b8c666d442662df8" + ] + }, + "outputId": "1841428b-4002-49e7-c6cc-e1a9c90c27dd" + }, + "source": [ + "fold_best_f1 = 0\n", + "best_fold = None\n", + "for fold_num , (train, dev) in enumerate(kf.split(data_train)):\n", + " print(\"Starting Fold Num: \", fold_num)\n", + " train_dataset = NERDataset(\n", + " texts= [x[0] for x in [data_train[x] for x in train]],\n", + " tags = [x[1] for x in [data_train[x] for x in train]],\n", + " label_list = label_list,\n", + " is_arabertv1=is_arabertv1,\n", + " farasa_segmenter=farasa_segmenter)\n", + "\n", + " train_dataloader = torch.utils.data.DataLoader(\n", + " dataset=train_dataset,\n", + " batch_size=TRAIN_BATCH_SIZE,\n", + " num_workers=2\n", + " )\n", + "\n", + " dev_dataset = NERDataset(\n", + " texts= [x[0] for x in [ data_train[x] for x in dev]],\n", + " tags = [x[1] for x in [ data_train[x] for x in dev]],\n", + " label_list = label_list,\n", + " is_arabertv1=is_arabertv1,\n", + " farasa_segmenter=farasa_segmenter)\n", + "\n", + " dev_dataloader = torch.utils.data.DataLoader(\n", + " dataset=dev_dataset,\n", + " batch_size=VALID_BATCH_SIZE,\n", + " num_workers=1\n", + " )\n", + "\n", + " num_tag = len(label_list)\n", + " model = NERModel(num_tag=num_tag)\n", + " model.to(device)\n", + " print('MODEL LOADED!')\n", + "\n", + " param_optimizer = list(model.named_parameters())\n", + " no_decay = [\"bias\", \"LayerNorm.bias\", \"LayerNorm.weight\"]\n", + " optimizer_parameters = [\n", + " {\n", + " \"params\": [\n", + " p for n, p in param_optimizer if not any(nd in n for nd in no_decay)\n", + " ],\n", + " \"weight_decay\": 0.01,\n", + " },\n", + " {\n", + " \"params\": [\n", + " p for n, p in param_optimizer if any(nd in n for nd in no_decay)\n", + " ],\n", + " \"weight_decay\": 0.0,\n", + " },\n", + " ]\n", + "\n", + " num_train_steps = int(len(train_dataset) / TRAIN_BATCH_SIZE * EPOCHS)\n", + " print('Number of training steps: ', num_train_steps)\n", + " optimizer = AdamW(optimizer_parameters, lr=LEARNING_RATE)\n", + " scheduler = get_linear_schedule_with_warmup(\n", + " optimizer, num_warmup_steps=int(WARMUP_RATIO*num_train_steps), num_training_steps=num_train_steps\n", + " )\n", + " \n", + " for epoch in range(EPOCHS):\n", + " train_loss = train_fn(train_dataloader, model, optimizer, device, scheduler)\n", + " eval_metrics, eval_loss = eval_fn(dev_dataloader, model, device)\n", + " print(f\"Train Loss = {train_loss} Valid Loss = {eval_loss}\")\n", + " print(eval_metrics)\n", + " if eval_metrics['f1'] > fold_best_f1:\n", + " print('New Best Model Found!')\n", + " torch.save(model.state_dict(), MODEL_PATH)\n", + " fold_best_f1 = eval_metrics['f1']\n", + " best_fold = fold_num" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Starting Fold Num: 0\n", + "MODEL LOADED!\n", + "Number of training steps: 496\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/ipykernel_launcher.py:4: TqdmDeprecationWarning: This function will be removed in tqdm==5.0.0\n", + "Please use `tqdm.notebook.tqdm` instead of `tqdm.tqdm_notebook`\n", + " after removing the cwd from sys.path.\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "db5981dd08804ac684153396abce449e", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/ipykernel_launcher.py:22: TqdmDeprecationWarning: This function will be removed in tqdm==5.0.0\n", + "Please use `tqdm.notebook.tqdm` instead of `tqdm.tqdm_notebook`\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "c9919bce589943a3bed91d77f3ed74ad", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8970 0.8841 0.8905 975\n", + " MISC 0.6074 0.5893 0.5982 168\n", + " ORG 0.7481 0.7076 0.7273 277\n", + " PERS 0.8556 0.9213 0.8872 521\n", + "\n", + " micro avg 0.8408 0.8434 0.8421 1941\n", + " macro avg 0.7770 0.7756 0.7758 1941\n", + "weighted avg 0.8396 0.8434 0.8410 1941\n", + "\n", + "Train Loss = 0.44511350072920325 Valid Loss = 10.33527757273987\n", + "{'accuracy_score': 0.9741196802765176, 'precision': 0.8407806882383153, 'recall': 0.8433797011849562, 'f1': 0.8420781893004116}\n", + "New Best Model Found!\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "df55ba7759874d2ba5a495f02d1ab304", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "05bb6cf575094e5faf69111b27e5ecf8", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9432 0.8513 0.8949 975\n", + " MISC 0.5730 0.6310 0.6006 168\n", + " ORG 0.8145 0.7292 0.7695 277\n", + " PERS 0.9065 0.9117 0.9091 521\n", + "\n", + " micro avg 0.8781 0.8310 0.8539 1941\n", + " macro avg 0.8093 0.7808 0.7935 1941\n", + "weighted avg 0.8829 0.8310 0.8553 1941\n", + "\n", + "Train Loss = 0.06831820940598846 Valid Loss = 9.690333339385688\n", + "{'accuracy_score': 0.9774465327284511, 'precision': 0.8780620577027762, 'recall': 0.8310149407521896, 'f1': 0.8538909475913182}\n", + "New Best Model Found!\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "00acead444af4c5bae21cc79e0d55481", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "5d6e251fbc2b4176a12c74c4d96eb137", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9382 0.8872 0.9120 975\n", + " MISC 0.7192 0.6250 0.6688 168\n", + " ORG 0.7716 0.8051 0.7880 277\n", + " PERS 0.9310 0.9328 0.9319 521\n", + "\n", + " micro avg 0.8936 0.8650 0.8791 1941\n", + " macro avg 0.8400 0.8125 0.8252 1941\n", + "weighted avg 0.8935 0.8650 0.8786 1941\n", + "\n", + "Train Loss = 0.03971839677542448 Valid Loss = 9.672370757325552\n", + "{'accuracy_score': 0.9803413264203932, 'precision': 0.893560404470463, 'recall': 0.8650180319422978, 'f1': 0.8790575916230366}\n", + "New Best Model Found!\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "ee7e678fc5314e83bcd2c27ef2b3c926", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "47b415f1bee14445ae04d45a72f72849", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9171 0.8964 0.9066 975\n", + " MISC 0.7863 0.6131 0.6890 168\n", + " ORG 0.8618 0.7653 0.8107 277\n", + " PERS 0.9345 0.9309 0.9327 521\n", + "\n", + " micro avg 0.9054 0.8624 0.8834 1941\n", + " macro avg 0.8749 0.8014 0.8348 1941\n", + "weighted avg 0.9026 0.8624 0.8811 1941\n", + "\n", + "Train Loss = 0.025021191923879086 Valid Loss = 10.096286867395975\n", + "{'accuracy_score': 0.9804277381723915, 'precision': 0.9053542455381287, 'recall': 0.8624420401854714, 'f1': 0.883377308707124}\n", + "New Best Model Found!\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "4a9a4aa57c2f4b2c8df15fd1f7659f68", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "6553341a2cb140b8b86a4ab5dd896d37", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9171 0.9077 0.9124 975\n", + " MISC 0.7310 0.6310 0.6773 168\n", + " ORG 0.8320 0.7690 0.7992 277\n", + " PERS 0.9316 0.9405 0.9360 521\n", + "\n", + " micro avg 0.8953 0.8727 0.8839 1941\n", + " macro avg 0.8529 0.8120 0.8312 1941\n", + "weighted avg 0.8927 0.8727 0.8822 1941\n", + "\n", + "Train Loss = 0.016986394333653152 Valid Loss = 9.893288679246325\n", + "{'accuracy_score': 0.9809462086843811, 'precision': 0.8953488372093024, 'recall': 0.872746007212777, 'f1': 0.8839029480824419}\n", + "New Best Model Found!\n", + "Starting Fold Num: 1\n", + "MODEL LOADED!\n", + "Number of training steps: 496\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "beb966caaba146dbb813628629f17b31", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "7ab957d43de04aeaa74f9afbcac6f351", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8525 0.9074 0.8791 605\n", + " MISC 0.2535 0.2553 0.2544 141\n", + " ORG 0.7305 0.5328 0.6162 229\n", + " PERS 0.9147 0.8925 0.9035 577\n", + "\n", + " micro avg 0.8061 0.7874 0.7966 1552\n", + " macro avg 0.6878 0.6470 0.6633 1552\n", + "weighted avg 0.8032 0.7874 0.7926 1552\n", + "\n", + "Train Loss = 0.45342930626124145 Valid Loss = 11.22650807746686\n", + "{'accuracy_score': 0.9704155374887082, 'precision': 0.8060686015831134, 'recall': 0.7873711340206185, 'f1': 0.7966101694915253}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "681f01d603864529a2537011ea1794a5", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "6d7dcdf328254d75b6f6ca8b8fd1ad90", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8987 0.9091 0.9039 605\n", + " MISC 0.5479 0.7305 0.6261 141\n", + " ORG 0.7019 0.6376 0.6682 229\n", + " PERS 0.9381 0.8925 0.9147 577\n", + "\n", + " micro avg 0.8439 0.8466 0.8453 1552\n", + " macro avg 0.7716 0.7924 0.7782 1552\n", + "weighted avg 0.8524 0.8466 0.8479 1552\n", + "\n", + "Train Loss = 0.06901303901337087 Valid Loss = 9.144732975168154\n", + "{'accuracy_score': 0.9775971093044263, 'precision': 0.8439306358381503, 'recall': 0.8466494845360825, 'f1': 0.8452878739144419}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "84c7bc15fd63405db569d68bb3e6dcdb", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "3dc76d69c7864f6a9af02ae29f24e183", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8989 0.9256 0.9121 605\n", + " MISC 0.6336 0.5887 0.6103 141\n", + " ORG 0.7184 0.6463 0.6805 229\n", + " PERS 0.9299 0.8960 0.9126 577\n", + "\n", + " micro avg 0.8628 0.8428 0.8527 1552\n", + " macro avg 0.7952 0.7641 0.7789 1552\n", + "weighted avg 0.8597 0.8428 0.8507 1552\n", + "\n", + "Train Loss = 0.03814305676613003 Valid Loss = 9.953357417543884\n", + "{'accuracy_score': 0.9784101174345077, 'precision': 0.862796833773087, 'recall': 0.8427835051546392, 'f1': 0.8526727509778358}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "e739d8114d5844cf9a4910cc432b132c", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "7073b81b56a3472eb3c9e5d385760d19", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8892 0.9157 0.9023 605\n", + " MISC 0.5935 0.6525 0.6216 141\n", + " ORG 0.7653 0.6550 0.7059 229\n", + " PERS 0.9317 0.8977 0.9144 577\n", + "\n", + " micro avg 0.8588 0.8466 0.8527 1552\n", + " macro avg 0.7949 0.7802 0.7860 1552\n", + "weighted avg 0.8599 0.8466 0.8523 1552\n", + "\n", + "Train Loss = 0.023048978631850334 Valid Loss = 10.42453189814114\n", + "{'accuracy_score': 0.9786359530261969, 'precision': 0.8588235294117647, 'recall': 0.8466494845360825, 'f1': 0.8526930564568462}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "214edbfe84a447379f9d6f9f240ef801", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "7e5d6f5b41aa498ba757a77af2a1586f", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8772 0.9207 0.8984 605\n", + " MISC 0.5909 0.5532 0.5714 141\n", + " ORG 0.7475 0.6594 0.7007 229\n", + " PERS 0.9392 0.9099 0.9243 577\n", + "\n", + " micro avg 0.8580 0.8447 0.8513 1552\n", + " macro avg 0.7887 0.7608 0.7737 1552\n", + "weighted avg 0.8551 0.8447 0.8491 1552\n", + "\n", + "Train Loss = 0.017064004451967776 Valid Loss = 10.20101157645695\n", + "{'accuracy_score': 0.9787262872628726, 'precision': 0.8579842931937173, 'recall': 0.8447164948453608, 'f1': 0.8512987012987013}\n", + "Starting Fold Num: 2\n", + "MODEL LOADED!\n", + "Number of training steps: 496\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "1bfe5cbf18f54ceb8a6a0087cd973c0d", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "e703d0c1f5084514a32aeca2765e8c7c", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8428 0.9235 0.8813 784\n", + " MISC 0.3466 0.5486 0.4248 175\n", + " ORG 0.7052 0.5922 0.6438 206\n", + " PERS 0.8949 0.8492 0.8714 451\n", + "\n", + " micro avg 0.7628 0.8199 0.7903 1616\n", + " macro avg 0.6974 0.7284 0.7053 1616\n", + "weighted avg 0.7861 0.8199 0.7988 1616\n", + "\n", + "Train Loss = 0.48241536889225245 Valid Loss = 7.437266040127724\n", + "{'accuracy_score': 0.9795120956781734, 'precision': 0.7628094415659182, 'recall': 0.8199257425742574, 'f1': 0.7903370116313749}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "ff64c9ea45e14d9bb198666451c150eb", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "268bd05267ba4da682884c0e3d6db6bb", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9249 0.8801 0.9020 784\n", + " MISC 0.4296 0.6971 0.5316 175\n", + " ORG 0.7857 0.5874 0.6722 206\n", + " PERS 0.9110 0.8847 0.8976 451\n", + "\n", + " micro avg 0.8212 0.8243 0.8227 1616\n", + " macro avg 0.7628 0.7623 0.7509 1616\n", + "weighted avg 0.8496 0.8243 0.8314 1616\n", + "\n", + "Train Loss = 0.07566738443449139 Valid Loss = 6.793615146540105\n", + "{'accuracy_score': 0.981482739874966, 'precision': 0.8212083847102343, 'recall': 0.8242574257425742, 'f1': 0.8227300802964792}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "a8039f6839b94b0193bf92b89af5b3b7", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "e4afe9f730a147b0a1a12581fac40504", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9130 0.8967 0.9048 784\n", + " MISC 0.5803 0.6400 0.6087 175\n", + " ORG 0.6791 0.6165 0.6463 206\n", + " PERS 0.9060 0.8980 0.9020 451\n", + "\n", + " micro avg 0.8435 0.8335 0.8385 1616\n", + " macro avg 0.7696 0.7628 0.7654 1616\n", + "weighted avg 0.8452 0.8335 0.8390 1616\n", + "\n", + "Train Loss = 0.04210614427924156 Valid Loss = 6.7496002982370555\n", + "{'accuracy_score': 0.9840989399293286, 'precision': 0.8434564809016907, 'recall': 0.8335396039603961, 'f1': 0.838468720821662}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "5cb39226e00d48d99a3f7daf4f2641ce", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "68cfb93f8063472d9af3a7a2bfaecc85", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8893 0.9222 0.9054 784\n", + " MISC 0.6529 0.6343 0.6435 175\n", + " ORG 0.8451 0.5825 0.6897 206\n", + " PERS 0.9122 0.8980 0.9050 451\n", + "\n", + " micro avg 0.8662 0.8410 0.8534 1616\n", + " macro avg 0.8249 0.7593 0.7859 1616\n", + "weighted avg 0.8644 0.8410 0.8495 1616\n", + "\n", + "Train Loss = 0.027578581646084784 Valid Loss = 6.731156971945893\n", + "{'accuracy_score': 0.9852881217722207, 'precision': 0.8661567877629063, 'recall': 0.8409653465346535, 'f1': 0.853375196232339}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "da08f85e21334e2590c33be180c5dfea", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "268be7aa370c414db80641752b6f9a23", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8943 0.9069 0.9006 784\n", + " MISC 0.6273 0.5771 0.6012 175\n", + " ORG 0.8243 0.5922 0.6893 206\n", + " PERS 0.9111 0.9091 0.9101 451\n", + "\n", + " micro avg 0.8649 0.8317 0.8479 1616\n", + " macro avg 0.8143 0.7463 0.7753 1616\n", + "weighted avg 0.8612 0.8317 0.8439 1616\n", + "\n", + "Train Loss = 0.019576908955350518 Valid Loss = 6.937287202163134\n", + "{'accuracy_score': 0.984608589290568, 'precision': 0.8648648648648649, 'recall': 0.8316831683168316, 'f1': 0.8479495268138802}\n", + "Starting Fold Num: 3\n", + "MODEL LOADED!\n", + "Number of training steps: 496\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "a8af9be30bd044e5a758f228eebd5e1e", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "a271f3c286a149958934eaf47552922c", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9055 0.9326 0.9188 801\n", + " MISC 0.5775 0.4954 0.5333 218\n", + " ORG 0.6059 0.7755 0.6803 343\n", + " PERS 0.9354 0.9432 0.9393 599\n", + "\n", + " micro avg 0.8204 0.8598 0.8396 1961\n", + " macro avg 0.7561 0.7867 0.7679 1961\n", + "weighted avg 0.8258 0.8598 0.8405 1961\n", + "\n", + "Train Loss = 0.4763178991898894 Valid Loss = 8.434605326969177\n", + "{'accuracy_score': 0.9767856435447451, 'precision': 0.8204379562043795, 'recall': 0.8597654258031616, 'f1': 0.8396414342629481}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "7ad3eb6a8aa74de9b6341bd5cd781161", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "08f21788e8204145ba3f7745f0a4499f", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9341 0.9376 0.9358 801\n", + " MISC 0.6900 0.6330 0.6603 218\n", + " ORG 0.7701 0.7813 0.7757 343\n", + " PERS 0.9515 0.9499 0.9507 599\n", + "\n", + " micro avg 0.8851 0.8802 0.8826 1961\n", + " macro avg 0.8364 0.8255 0.8306 1961\n", + "weighted avg 0.8836 0.8802 0.8817 1961\n", + "\n", + "Train Loss = 0.07117477129213512 Valid Loss = 6.488083389704116\n", + "{'accuracy_score': 0.9814602067900012, 'precision': 0.8851282051282051, 'recall': 0.8801631820499745, 'f1': 0.8826387113270262}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "f4803dd761bf45e4b0c4d915a91234c8", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "0e9bb060f7424e5aaca6af1de6de16da", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9340 0.9538 0.9438 801\n", + " MISC 0.7361 0.7294 0.7327 218\n", + " ORG 0.7332 0.8251 0.7764 343\n", + " PERS 0.9463 0.9416 0.9439 599\n", + "\n", + " micro avg 0.8780 0.9026 0.8901 1961\n", + " macro avg 0.8374 0.8625 0.8492 1961\n", + "weighted avg 0.8806 0.9026 0.8911 1961\n", + "\n", + "Train Loss = 0.041118600610643624 Valid Loss = 6.100944589765277\n", + "{'accuracy_score': 0.9827674999009627, 'precision': 0.8779761904761905, 'recall': 0.9026007139214687, 'f1': 0.8901181795323108}\n", + "New Best Model Found!\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "c761619e6819428e99cc3056e70f5447", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "c0aef2e4b73b42da96c16dea394991ad", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9373 0.9513 0.9442 801\n", + " MISC 0.7120 0.6239 0.6650 218\n", + " ORG 0.7419 0.8047 0.7720 343\n", + " PERS 0.9513 0.9449 0.9481 599\n", + "\n", + " micro avg 0.8828 0.8873 0.8850 1961\n", + " macro avg 0.8356 0.8312 0.8323 1961\n", + "weighted avg 0.8823 0.8873 0.8843 1961\n", + "\n", + "Train Loss = 0.026727105346508323 Valid Loss = 6.5834652706980705\n", + "{'accuracy_score': 0.9823317355306421, 'precision': 0.882800608828006, 'recall': 0.887302396736359, 'f1': 0.8850457782299083}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "d90e9b4c15934997bbe7740a2d1ef5f5", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "fa3fc2476fff4cbb9367fbca07619358", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9350 0.9526 0.9437 801\n", + " MISC 0.6954 0.6284 0.6602 218\n", + " ORG 0.7403 0.8309 0.7830 343\n", + " PERS 0.9516 0.9516 0.9516 599\n", + "\n", + " micro avg 0.8788 0.8950 0.8868 1961\n", + " macro avg 0.8306 0.8409 0.8346 1961\n", + "weighted avg 0.8794 0.8950 0.8865 1961\n", + "\n", + "Train Loss = 0.01713486545952037 Valid Loss = 6.259295817813836\n", + "{'accuracy_score': 0.9827278849582063, 'precision': 0.8788182273410116, 'recall': 0.8949515553289138, 'f1': 0.8868115209701869}\n", + "Starting Fold Num: 4\n", + "MODEL LOADED!\n", + "Number of training steps: 496\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "2878f8f52ac44cbeaea26f5c26700087", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "2563c13c37d04a5086c9207c13ffbd90", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8530 0.9230 0.8866 610\n", + " MISC 0.4454 0.5204 0.4800 196\n", + " ORG 0.7258 0.5932 0.6528 531\n", + " PERS 0.8832 0.8923 0.8878 585\n", + "\n", + " micro avg 0.7847 0.7815 0.7831 1922\n", + " macro avg 0.7269 0.7322 0.7268 1922\n", + "weighted avg 0.7855 0.7815 0.7809 1922\n", + "\n", + "Train Loss = 0.4828445621207356 Valid Loss = 10.575377327622846\n", + "{'accuracy_score': 0.9736959069053295, 'precision': 0.7847439916405433, 'recall': 0.7814776274713839, 'f1': 0.7831074035453597}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "fa1fe14abc4740f58729471c31e0bf35", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "f774c9cb244040069b9d5b7e2d32bbe3", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8924 0.9246 0.9082 610\n", + " MISC 0.6995 0.6888 0.6941 196\n", + " ORG 0.7737 0.8437 0.8072 531\n", + " PERS 0.8947 0.9009 0.8978 585\n", + "\n", + " micro avg 0.8399 0.8710 0.8552 1922\n", + " macro avg 0.8151 0.8395 0.8268 1922\n", + "weighted avg 0.8407 0.8710 0.8553 1922\n", + "\n", + "Train Loss = 0.06875543409027159 Valid Loss = 8.534708802006207\n", + "{'accuracy_score': 0.9792718897733241, 'precision': 0.8399397892624184, 'recall': 0.8709677419354839, 'f1': 0.8551724137931035}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "2966a81f2df245c6ab09b127f3f29a30", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "9b79d95e5c4849a88674b9df87824e19", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8663 0.9344 0.8991 610\n", + " MISC 0.5847 0.7041 0.6389 196\n", + " ORG 0.7568 0.8437 0.7979 531\n", + " PERS 0.8915 0.8991 0.8953 585\n", + "\n", + " micro avg 0.8102 0.8751 0.8414 1922\n", + " macro avg 0.7748 0.8453 0.8078 1922\n", + "weighted avg 0.8150 0.8751 0.8434 1922\n", + "\n", + "Train Loss = 0.0372796067642048 Valid Loss = 9.628434753627516\n", + "{'accuracy_score': 0.976160652955675, 'precision': 0.8102119460500964, 'recall': 0.8751300728407908, 'f1': 0.8414207103551776}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "bb490b10430949cc86b0f97efd043e28", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "943fc77b0eee44479b37f9e3fcf18748", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8952 0.9246 0.9097 610\n", + " MISC 0.7273 0.6531 0.6882 196\n", + " ORG 0.8224 0.7759 0.7984 531\n", + " PERS 0.8949 0.9026 0.8987 585\n", + "\n", + " micro avg 0.8603 0.8491 0.8547 1922\n", + " macro avg 0.8349 0.8140 0.8238 1922\n", + "weighted avg 0.8579 0.8491 0.8530 1922\n", + "\n", + "Train Loss = 0.022666196770733223 Valid Loss = 9.18939891451737\n", + "{'accuracy_score': 0.979595135156976, 'precision': 0.860305745914602, 'recall': 0.8491155046826223, 'f1': 0.8546739984289081}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "93bb11d94db84c8ba9d71373a73a1d06", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "4b65ace694b84776b8ef9b637f9b87e2", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8990 0.9197 0.9092 610\n", + " MISC 0.7342 0.5918 0.6554 196\n", + " ORG 0.7973 0.7928 0.7951 531\n", + " PERS 0.8900 0.8991 0.8946 585\n", + "\n", + " micro avg 0.8543 0.8450 0.8496 1922\n", + " macro avg 0.8301 0.8009 0.8136 1922\n", + "weighted avg 0.8514 0.8450 0.8473 1922\n", + "\n", + "Train Loss = 0.014630389667581766 Valid Loss = 9.343269411998335\n", + "{'accuracy_score': 0.9788678330437593, 'precision': 0.8542872172540767, 'recall': 0.8449531737773153, 'f1': 0.8495945592466648}\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "sJiHANnS56Rs", + "colab": { + "base_uri": "https://localhost:8080/" + }, + "outputId": "431ad813-9b54-4f6a-ce4b-c86754b3369e" + }, + "source": [ + "print(fold_best_f1)\n", + "print(fold_num)" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "0.8901181795323108\n", + "4\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "SU6qlFXp30hp" + }, + "source": [ + "model.load_state_dict(torch.load(MODEL_PATH))\n", + "test_metrics, test_loss = eval_fn(test_dataloader, model, device)\n", + "print(f\"Test Loss = {test_loss}\")\n", + "print(test_metrics)" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "gbaAJ-ZWz2fm" + }, + "source": [ + "#Training on all the training data\n" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "VArBtdEB59Vg" + }, + "source": [ + "train_dataset = NERDataset(\n", + " texts= [x[0] for x in data_train],\n", + " tags = [x[1] for x in data_train],\n", + " label_list = label_list,\n", + " is_arabertv1=is_arabertv1,\n", + " farasa_segmenter=farasa_segmenter)\n", + "\n", + "train_dataloader = torch.utils.data.DataLoader(\n", + " dataset=train_dataset,\n", + " batch_size=TRAIN_BATCH_SIZE,\n", + " num_workers=2\n", + ")\n", + "\n", + "test_dataset = NERDataset(\n", + " texts= [x[0] for x in data_test],\n", + " tags = [x[1] for x in data_test],\n", + " label_list = label_list,\n", + " is_arabertv1=is_arabertv1,\n", + " farasa_segmenter=farasa_segmenter)\n", + "\n", + "test_dataloader = torch.utils.data.DataLoader(\n", + " dataset=test_dataset,\n", + " batch_size=VALID_BATCH_SIZE,\n", + " num_workers=1\n", + ")" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "fbJcvOFlpvGR", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000, + "referenced_widgets": [ + "e564ef705a2647bcba234b82e8e2c2d1", + "8da01d96d8aa44d8aa280df567379a67", + "6d72674fb0ab4310b506cfbe09dd0f30", + "d5146428bb3741b9bfbf2856649a0a7c", + "12fe2f49c5cb451394195a1cf7746f83", + "a1becc653ac54591846073e54bfd45b4", + "70be6a2962b548079bef2540558f1e9d", + "77d24a53bdab4331a09c597a02dab9dc", + "45fd593d08e34345a53ed747230e196d", + "f838e4d04be14a81b94339b52a506f53", + "ce45513da3ee44d9ab123063e97b450c", + "232922ba30724b4c9edac8fb89b80845", + "577c866aafb642e4aec6d0251c8a0978", + "5ffb2be785cc4b328ba0812a28fec373", + "a80cd971243d4f5b945c656239b81c1a", + "91d447b402d446a89eba4f4105cfc116", + "e9104a48da644cccb12d28343fcca254", + "0856ea4c1a3340a5a23498e74f554359", + "18c437718a2a4bb0b69eb0b148b4b7c3", + "30c70c3334df4458b9c56c9a2262ec8d", + "b05a907e547d4befbc3cce64eba593b3", + "dd39a02d512e444b8c52aceeb12a37ac", + "ebe4623798134f35bd5ef3af5ae4bb5f", + "df8c846000a74daab4579e9b0e8dd7bf", + "e89627f454ea480bb3621e8732e52438", + "0a1d24b47061459c8a9258f2aad94f3f", + "3c9c1570821e4ed5a594533eac18d8f0", + "ed4d302b506a44f6a5fa30b9a49d1698", + "19f3977164d448888c8793459c2dd579", + "1fff371f595a47298819e1c1e0393118", + "4bf7bb73d23c4a899b39bb412880f963", + "9f8ae4f98cbb49628914ca16ed3be2a7", + "bfa7726e812246bd98ee5d1ce3b69cf2", + "6be016375e7f4528991598e6595914cc", + "0726965d60904714a487b991e8313a0b", + "6cdebaa3072e4e8ba5bac6a014b62299", + "d7cb7d193c554d1888d316597b12114e", + "ccab1a613a31471cb462efe9b95c1d12", + "d94d471df49544b48502608595c4b509", + "d5f6e48c2c0149ff858305f7b641cc42", + "ab700d887ec84800b4dabbccce26bd86", + "18df63a0651b4c538cc82cf9a9f103b3", + "e007e6c12c95454194de6fec56b3ec6c", + "44871f3d835044a19d93fa373b23c935", + "e4d0acdd0fae4784836fe5e694a4d33c", + "6a46e42e9fae40da9ac5386c5d411d32", + "cd864a3ddb4142fea0a1266ff30576e4", + "376fe3d25b134c4b88c79eda8af98c59", + "9680a4fef3064a15acf668756ef76f98", + "f0b2c1938e294a86b2490b266304541f", + "d64600f0905a4c5b9bb22d95a9f05cc4", + "2ee01b0faa6d44679bd179ccafcfa44f", + "22c4a3c5d5ff4dbebf964c8965d7bb03", + "69b45dfabcff473f9a62cf55b12a3dfd", + "1adefc9c3b4b4cf3b2e20bfa72af3f22", + "c81588b301ce4e81bf46e78d8e23003f", + "3d05aaf0661f426eabeffdcd3df3d328", + "c8fe7a7df8ec43a2a9a1fad712f46296", + "2acaba29a46a42ffa622c0f94947a570", + "055f2f4425b54c27b42b06b73a7e9412", + "46312a37699b49abad8b55ecaf026a2d", + "714e1bae58bb463585564f9a97f2f025", + "709e0e5793f74171afd2dc31c24c5a74", + "ee6a889c3ab94abb8da5e0a4934d5344", + "5763260e30e8436489feb51bd8fa4d51", + "52809938b945426e9848996d142753c6", + "256e94d8b5e04d55ac5d8add97dc34fc", + "8669f628987b4f2e82a91a55dc7b2553", + "eac7a39f74ad47a1ba41f7afaa585e16", + "a488fb985bfa4991be5257510ce6eae8", + "75950049e3f345b88f4b0f1cd8415a0d", + "ba27f41a60264dce8206665d83cc0e13", + "03af9df3fcce4f96a481053a489f40cd", + "db97c07aa01f442287845f15d3afdc5e", + "982b6fd5f82a452a9f45ca262eb486ec", + "dde4a5090a5e43f5ace1502b8eac2dd3", + "e32009b3c99a4b4f998bed8a492d5d9b", + "7d63a802972b4857a407b6e941223553", + "00e764c5dcf44dd78fbf72578b415823", + "a901629d623d4286aefb26300e047494", + "1f1412fc21e443ac99ac345b8968578a", + "7812119645204af48eb0f0d493cec1b0", + "0df7a41954e94e88ac09ffbd543cd62d", + "ae4074846b8f44f5892708dce14ec68f", + "7d9f0a25e8724ea6af5da5ad2caccc78", + "2800dd7c89404de4b783027e4813b5a0", + "f3481db90a2d4e3e9ecf8e6a3a9f5874", + "61e6d2f3833f47c6a901a91a1b0c9dd5", + "2d69923730c44620b0f8cd4e4ab856e8", + "60b99470aceb4ce2b6ffac7985e5a0fd", + "294cc19d8f294a06a5b90b910dc0eafc", + "859b47ea5e3241c4b7b8c0c280981dff", + "d17a9df0bbe848d1958d891d59bf4a26", + "f167d7d5230543d4b9af57ba234977bf", + "9ecbdcdccc424b5c999af4c670e194ac", + "dbc8f744fff3463788bfc70c50a20c14" + ] + }, + "outputId": "0b20f2f8-9f00-476c-a77b-dbd0ac73e242" + }, + "source": [ + "num_tag = len(label_list)\n", + "model = NERModel(num_tag=num_tag)\n", + "model.to(device)\n", + "print('MODEL LOADED!')\n", + "\n", + "param_optimizer = list(model.named_parameters())\n", + "no_decay = [\"bias\", \"LayerNorm.bias\", \"LayerNorm.weight\"]\n", + "optimizer_parameters = [\n", + " {\n", + " \"params\": [\n", + " p for n, p in param_optimizer if not any(nd in n for nd in no_decay)\n", + " ],\n", + " \"weight_decay\": 0.01,\n", + " },\n", + " {\n", + " \"params\": [\n", + " p for n, p in param_optimizer if any(nd in n for nd in no_decay)\n", + " ],\n", + " \"weight_decay\": 0.0,\n", + " },\n", + "]\n", + "\n", + "num_train_steps = int(len(train_dataset) / TRAIN_BATCH_SIZE * EPOCHS)\n", + "print('Number of training steps: ', num_train_steps)\n", + "optimizer = AdamW(optimizer_parameters, lr=LEARNING_RATE)\n", + "scheduler = get_linear_schedule_with_warmup(\n", + " optimizer, num_warmup_steps=int(WARMUP_RATIO*num_train_steps), num_training_steps=num_train_steps\n", + ")\n", + "\n", + "for epoch in range(6):\n", + " train_loss = train_fn(train_dataloader, model, optimizer, device, scheduler)\n", + " eval_metrics, eval_loss = eval_fn(test_dataloader, model, device)\n", + " print(f\"Train Loss = {train_loss} Valid Loss = {eval_loss}\")\n", + " print(eval_metrics)" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "MODEL LOADED!\n", + "Number of training steps: 620\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/ipykernel_launcher.py:4: TqdmDeprecationWarning: This function will be removed in tqdm==5.0.0\n", + "Please use `tqdm.notebook.tqdm` instead of `tqdm.tqdm_notebook`\n", + " after removing the cwd from sys.path.\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "e564ef705a2647bcba234b82e8e2c2d1", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=125.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/ipykernel_launcher.py:22: TqdmDeprecationWarning: This function will be removed in tqdm==5.0.0\n", + "Please use `tqdm.notebook.tqdm` instead of `tqdm.tqdm_notebook`\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "45fd593d08e34345a53ed747230e196d", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=116.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8645 0.9246 0.8935 676\n", + " MISC 0.5074 0.5638 0.5341 243\n", + " ORG 0.7356 0.6667 0.6994 459\n", + " PERS 0.8498 0.8254 0.8374 905\n", + "\n", + " micro avg 0.7933 0.7950 0.7941 2283\n", + " macro avg 0.7393 0.7451 0.7411 2283\n", + "weighted avg 0.7947 0.7950 0.7940 2283\n", + "\n", + "Train Loss = 0.4029828436970711 Valid Loss = 17.53771045943722\n", + "{'accuracy_score': 0.965107438677924, 'precision': 0.7932692307692307, 'recall': 0.7950065703022339, 'f1': 0.7941369503390943}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "e9104a48da644cccb12d28343fcca254", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=125.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "e89627f454ea480bb3621e8732e52438", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=116.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.9061 0.8994 0.9027 676\n", + " MISC 0.6742 0.6132 0.6422 243\n", + " ORG 0.7598 0.7582 0.7590 459\n", + " PERS 0.8608 0.8199 0.8398 905\n", + "\n", + " micro avg 0.8350 0.8090 0.8218 2283\n", + " macro avg 0.8002 0.7727 0.7860 2283\n", + "weighted avg 0.8341 0.8090 0.8212 2283\n", + "\n", + "Train Loss = 0.06605674843490124 Valid Loss = 16.402427164604887\n", + "{'accuracy_score': 0.9705093833780161, 'precision': 0.8349909584086799, 'recall': 0.8090232150678931, 'f1': 0.821802002224694}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "bfa7726e812246bd98ee5d1ce3b69cf2", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=125.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "ab700d887ec84800b4dabbccce26bd86", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=116.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8981 0.9127 0.9054 676\n", + " MISC 0.7514 0.5597 0.6415 243\n", + " ORG 0.7407 0.7407 0.7407 459\n", + " PERS 0.8603 0.8508 0.8556 905\n", + "\n", + " micro avg 0.8384 0.8160 0.8271 2283\n", + " macro avg 0.8126 0.7660 0.7858 2283\n", + "weighted avg 0.8359 0.8160 0.8244 2283\n", + "\n", + "Train Loss = 0.03884220066294074 Valid Loss = 18.759183021262288\n", + "{'accuracy_score': 0.9695490376535553, 'precision': 0.8384338433843385, 'recall': 0.8160315374507228, 'f1': 0.8270810210876803}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "9680a4fef3064a15acf668756ef76f98", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=125.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "3d05aaf0661f426eabeffdcd3df3d328", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=116.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8817 0.9260 0.9033 676\n", + " MISC 0.6990 0.5638 0.6241 243\n", + " ORG 0.7980 0.6885 0.7392 459\n", + " PERS 0.8860 0.8420 0.8635 905\n", + "\n", + " micro avg 0.8515 0.8064 0.8283 2283\n", + " macro avg 0.8162 0.7551 0.7825 2283\n", + "weighted avg 0.8471 0.8064 0.8248 2283\n", + "\n", + "Train Loss = 0.024345330994576215 Valid Loss = 19.444458848331124\n", + "{'accuracy_score': 0.9701492537313433, 'precision': 0.8515263644773358, 'recall': 0.806395094174332, 'f1': 0.8283464566929134}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "5763260e30e8436489feb51bd8fa4d51", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=125.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "03af9df3fcce4f96a481053a489f40cd", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=116.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8892 0.9260 0.9072 676\n", + " MISC 0.7273 0.5597 0.6326 243\n", + " ORG 0.7815 0.7168 0.7477 459\n", + " PERS 0.8737 0.8486 0.8610 905\n", + "\n", + " micro avg 0.8485 0.8143 0.8310 2283\n", + " macro avg 0.8179 0.7628 0.7871 2283\n", + "weighted avg 0.8442 0.8143 0.8276 2283\n", + "\n", + "Train Loss = 0.016645451684016734 Valid Loss = 19.787978420616128\n", + "{'accuracy_score': 0.9703093113520868, 'precision': 0.8484710178000913, 'recall': 0.8142794568550153, 'f1': 0.8310236924452391}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "1f1412fc21e443ac99ac345b8968578a", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=125.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "2d69923730c44620b0f8cd4e4ab856e8", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, max=116.0), HTML(value='')))" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8892 0.9260 0.9072 676\n", + " MISC 0.7273 0.5597 0.6326 243\n", + " ORG 0.7815 0.7168 0.7477 459\n", + " PERS 0.8737 0.8486 0.8610 905\n", + "\n", + " micro avg 0.8485 0.8143 0.8310 2283\n", + " macro avg 0.8179 0.7628 0.7871 2283\n", + "weighted avg 0.8442 0.8143 0.8276 2283\n", + "\n", + "Train Loss = 0.01430443176627159 Valid Loss = 19.787978420616128\n", + "{'accuracy_score': 0.9703093113520868, 'precision': 0.8484710178000913, 'recall': 0.8142794568550153, 'f1': 0.8310236924452391}\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "DdM_RehwnTtM" + }, + "source": [ + "AraBERTv1\n", + "\n", + " precision recall f1-score support\n", + "\n", + " LOC 0.8919 0.9275 0.9094 676\n", + " MISC 0.7389 0.6173 0.6726 243\n", + " ORG 0.7748 0.6972 0.7339 459\n", + " PERS 0.8499 0.8320 0.8409 905\n", + "\n", + " micro avg 0.8390 0.8103 0.8244 2283\n", + " macro avg 0.8139 0.7685 0.7892 2283\n", + " weighted avg 0.8354 0.8103 0.8217 2283\n", + "\n", + " Train Loss = 0.02561288744304329\n", + " Valid Loss = 18.984092206461355\n", + " 'accuracy_score': 0.9703493257572726\n", + " 'precision': 0.8390022675736961\n", + " 'recall': 0.8103372755146737\n", + " 'f1': 0.8244206773618539\n", + "\n", + " MAX_SEQ_LEN = 256\n", + " TRAIN_BATCH_SIZE = 32\n", + " VALID_BATCH_SIZE = 8\n", + " EPOCHS = 5\n", + " LEARNING_RATE = 7e-5\n", + " WARMUP_RATIO = 0.1\n", + " MAX_GRAD_NORM = 1.0" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "Xkn8TMcSp4fs" + }, + "source": [ + "" + ], + "execution_count": null, + "outputs": [] + } + ] +} \ No newline at end of file diff --git a/arabert/examples/old/AraBERT_Fill_Mask.ipynb b/arabert/examples/old/AraBERT_Fill_Mask.ipynb new file mode 100644 index 0000000000000000000000000000000000000000..f70bf3ce0d65366a525e6107e1cf5c495b746342 --- /dev/null +++ b/arabert/examples/old/AraBERT_Fill_Mask.ipynb @@ -0,0 +1,6226 @@ +{ + "nbformat": 4, + "nbformat_minor": 0, + "metadata": { + "colab": { + "name": "AraBERT - Fill Mask", + "provenance": [], + "collapsed_sections": [] + }, + "kernelspec": { + "name": "python3", + "display_name": "Python 3" + }, + "widgets": { + "application/vnd.jupyter.widget-state+json": { + "b48458a2e5464f5298f6cd04fe86f98d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_3887a29c1f354f7eb6d010d60d67eb5a", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_82026347abc84138a7c5f91b2ccafef3", + "IPY_MODEL_b1275b0f27274e4aae34617128593d51" + ] + } + }, + "3887a29c1f354f7eb6d010d60d67eb5a": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "82026347abc84138a7c5f91b2ccafef3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_dd213c70542a48f58445e8bcc4bc7699", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 545, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 545, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_01f9784d3b0a4660aef2cc4d3f08e192" + } + }, + "b1275b0f27274e4aae34617128593d51": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_ff9e1ead9c6b4a7f8129f9965f3a81c0", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 545/545 [00:17<00:00, 31.3B/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_de0d29f261544d1390248c3a8c8fcd09" + } + }, + "dd213c70542a48f58445e8bcc4bc7699": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "01f9784d3b0a4660aef2cc4d3f08e192": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ff9e1ead9c6b4a7f8129f9965f3a81c0": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "de0d29f261544d1390248c3a8c8fcd09": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "53afacded2d144078f46859b856ef486": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_645f64f0234640b79a9b5dbbf7ecc0a9", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_4d24e780c1ff407cbf2d155b801ad94d", + "IPY_MODEL_3e1b3870756a4495980ed50b2237ef38" + ] + } + }, + "645f64f0234640b79a9b5dbbf7ecc0a9": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "4d24e780c1ff407cbf2d155b801ad94d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_5d39da4ae1964335bb412fe6a1ba7513", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 543450723, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 543450723, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_53b84dcd82e14600bebed8f354da5c0f" + } + }, + "3e1b3870756a4495980ed50b2237ef38": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_9425abe562a3432bb72967c39b4a33b3", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 543M/543M [00:13<00:00, 40.2MB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_89fd0f3c81294acea1a556cbe0782728" + } + }, + "5d39da4ae1964335bb412fe6a1ba7513": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "53b84dcd82e14600bebed8f354da5c0f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9425abe562a3432bb72967c39b4a33b3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "89fd0f3c81294acea1a556cbe0782728": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "5569c513c27c42ed98978a69d317bd1c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_1c59128f0fbf49169d5e08a318d413b8", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_4ca7d8156e9b430dbe3e8568b04ad9d4", + "IPY_MODEL_65008f533eb647e19e5e60b60aaf3195" + ] + } + }, + "1c59128f0fbf49169d5e08a318d413b8": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "4ca7d8156e9b430dbe3e8568b04ad9d4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_58641ab8be1b4304b2d3be0c9511e93a", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 780030, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 780030, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_1189e8cc73784603a905abb6c79531e6" + } + }, + "65008f533eb647e19e5e60b60aaf3195": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_8339119c94404df0b14fb463b0984b65", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 780k/780k [00:02<00:00, 350kB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_e00d1657f884411eaa936c5278167e82" + } + }, + "58641ab8be1b4304b2d3be0c9511e93a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "1189e8cc73784603a905abb6c79531e6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "8339119c94404df0b14fb463b0984b65": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "e00d1657f884411eaa936c5278167e82": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "588b9b72fe22475ea4af5f4213c2b426": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_b07cabc216d04e1f8f475d77d64b5771", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_672de672598440b188585eb0a02e85e6", + "IPY_MODEL_a26db2bbd0554a019818c083bffa8648" + ] + } + }, + "b07cabc216d04e1f8f475d77d64b5771": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "672de672598440b188585eb0a02e85e6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_771f7c50b3fa48d6a756555ceaa930a0", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 547, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 547, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_8124e495ecc74aa988d3d2a23bc70951" + } + }, + "a26db2bbd0554a019818c083bffa8648": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_0154d14310cc4c41a63889c4c7919280", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 547/547 [00:12<00:00, 45.2B/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_99a936b3f382485ea2263e2afc0e3fbc" + } + }, + "771f7c50b3fa48d6a756555ceaa930a0": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "8124e495ecc74aa988d3d2a23bc70951": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "0154d14310cc4c41a63889c4c7919280": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "99a936b3f382485ea2263e2afc0e3fbc": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "3b1ab448522f488f9ff448d5dcad6dff": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_ce16cf754595433ba68e59f0271e4a12", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_f5561bf2d79845d48321d1fb46288bc9", + "IPY_MODEL_4c7710278c2943fca5c1abd01b036060" + ] + } + }, + "ce16cf754595433ba68e59f0271e4a12": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f5561bf2d79845d48321d1fb46288bc9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_b310f827664046f3b9adb686240193d2", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 543450661, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 543450661, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_463fac6d30444555bccf07b69c6ff365" + } + }, + "4c7710278c2943fca5c1abd01b036060": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_89cdf57f82884c988a754e5025525ba1", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 543M/543M [00:11<00:00, 47.2MB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_0a818f72d44d4584b0950d534595163b" + } + }, + "b310f827664046f3b9adb686240193d2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "463fac6d30444555bccf07b69c6ff365": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "89cdf57f82884c988a754e5025525ba1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "0a818f72d44d4584b0950d534595163b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e52ca6f88f7946588328fab15b903e03": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_5ce9922eb8e14d60a25b71187bb6feae", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_a64c755f958842d59dab389a3215ff25", + "IPY_MODEL_6324a0268b91451ba8b7cf65c150bb62" + ] + } + }, + "5ce9922eb8e14d60a25b71187bb6feae": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "a64c755f958842d59dab389a3215ff25": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_05a7659d77d547aa97f680f8f4fa500a", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 717153, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 717153, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_c3ef35e2497240aca142f204137a8963" + } + }, + "6324a0268b91451ba8b7cf65c150bb62": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_f576f7ebf9b74e8bb09fae7271071d55", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 717k/717k [00:01<00:00, 421kB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_0ba38b3a0b654bd28e6033c2588fc653" + } + }, + "05a7659d77d547aa97f680f8f4fa500a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "c3ef35e2497240aca142f204137a8963": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "f576f7ebf9b74e8bb09fae7271071d55": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "0ba38b3a0b654bd28e6033c2588fc653": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "b676a328b62a439da345a90f863492ee": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_c9e7ea0665354abaaa719b1e3cfd15ee", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_adfd61c738b64c82b784073d36ae335c", + "IPY_MODEL_5cb9ba1912154751b511783d69f05249" + ] + } + }, + "c9e7ea0665354abaaa719b1e3cfd15ee": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "adfd61c738b64c82b784073d36ae335c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_47859b4b88e448cfbacffdce54505be4", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 112, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 112, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_1c010c32b4bf4fb3a9141f756aaf4094" + } + }, + "5cb9ba1912154751b511783d69f05249": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_cb3292753700455fb4478f5c5ac94476", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 112/112 [00:01<00:00, 81.1B/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_d36d3632711a4d2f81e5ceb2ddd912ad" + } + }, + "47859b4b88e448cfbacffdce54505be4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "1c010c32b4bf4fb3a9141f756aaf4094": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "cb3292753700455fb4478f5c5ac94476": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "d36d3632711a4d2f81e5ceb2ddd912ad": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "4ae1142ef1024a05a09d35e7d2de9d37": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_d851cf4b179649068d29f5a3d90141d6", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_0f0b2e4318d84f7c9c79205236be59ff", + "IPY_MODEL_07180117c5064b0f95d9e9f115cc7cbb" + ] + } + }, + "d851cf4b179649068d29f5a3d90141d6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "0f0b2e4318d84f7c9c79205236be59ff": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_7cac1c7240f2417c9cb1cc1e0b75f0c8", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 406, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 406, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_f9a694464b374ee9ba47b6aa7d740113" + } + }, + "07180117c5064b0f95d9e9f115cc7cbb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_7524880bc5d84b639d793b44eced4d54", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 406/406 [00:00<00:00, 833B/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_909c9c6e112d422097a926530e9fdcf6" + } + }, + "7cac1c7240f2417c9cb1cc1e0b75f0c8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "f9a694464b374ee9ba47b6aa7d740113": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7524880bc5d84b639d793b44eced4d54": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "909c9c6e112d422097a926530e9fdcf6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "d82132369e2b4299b95479505d9fd3f7": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_c662cc7135a34504a7ce76cc7301c934", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_ef3820f451944cee963a342db415af1c", + "IPY_MODEL_447a3ce2a5354d808a9ece87dbbb972e" + ] + } + }, + "c662cc7135a34504a7ce76cc7301c934": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ef3820f451944cee963a342db415af1c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_1bcc2903ae8d42c6bd066900bf3ca039", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 450, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 450, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_17a7caa9c7444b249ed53076f11db04f" + } + }, + "447a3ce2a5354d808a9ece87dbbb972e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_42a72d9cdfa2490ab8dc928e9743e469", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 450/450 [00:10<00:00, 43.3B/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_5ac28c3e3ade4c91bb1f27352dbed136" + } + }, + "1bcc2903ae8d42c6bd066900bf3ca039": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "17a7caa9c7444b249ed53076f11db04f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "42a72d9cdfa2490ab8dc928e9743e469": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "5ac28c3e3ade4c91bb1f27352dbed136": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ca363678b0e246ef9334d69023679248": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_377ab5412da74afd8ce5b58816ce5c74", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_b58e125c6cca46e08f194cfbf831aa41", + "IPY_MODEL_492989991fde48e1ba0a0538cbc466aa" + ] + } + }, + "377ab5412da74afd8ce5b58816ce5c74": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "b58e125c6cca46e08f194cfbf831aa41": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_207ced99095e4099b2d3f5a833fb36ee", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 442514400, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 442514400, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_ccf3ede97df5456a9f6be9860d755dd6" + } + }, + "492989991fde48e1ba0a0538cbc466aa": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_4e2837b58706437283c918998036a7fd", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 443M/443M [00:09<00:00, 46.7MB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_fe0d8ff2f68c49baa10cc00742c70349" + } + }, + "207ced99095e4099b2d3f5a833fb36ee": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "ccf3ede97df5456a9f6be9860d755dd6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "4e2837b58706437283c918998036a7fd": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "fe0d8ff2f68c49baa10cc00742c70349": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "764698265cbb4bcbb56306647364ead9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_91aba3b0840e4248875457ba5c4a888a", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_cc4b21fe715c4fa2b67ac466746a095b", + "IPY_MODEL_4bbb31b4fde54a94bb0e0b4ea18eb188" + ] + } + }, + "91aba3b0840e4248875457ba5c4a888a": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "cc4b21fe715c4fa2b67ac466746a095b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_6c1af96ee48c42f9a974e693d3b6d3ec", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 334032, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 334032, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_ef4bf5a186fc4929968843d362ef5215" + } + }, + "4bbb31b4fde54a94bb0e0b4ea18eb188": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_fcf5dbd8751e480a9f8c24bfa3e46b0c", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 334k/334k [00:02<00:00, 160kB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_586598cd92104bb2ab57b4622a37d0f9" + } + }, + "6c1af96ee48c42f9a974e693d3b6d3ec": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "ef4bf5a186fc4929968843d362ef5215": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "fcf5dbd8751e480a9f8c24bfa3e46b0c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "586598cd92104bb2ab57b4622a37d0f9": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "739e6abde20f4fc38961369668893d55": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_8b5bb82df31d4a0aabdbc8631fbca752", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_fb23d5fe2cfa4a7aa8962f1236029a0c", + "IPY_MODEL_126fba137f8543dab4a3d4369d1bfd18" + ] + } + }, + "8b5bb82df31d4a0aabdbc8631fbca752": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "fb23d5fe2cfa4a7aa8962f1236029a0c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_f2305cbd9cfe4481985091059e387d0b", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 625, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 625, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_0f4dabf59df2470ea3d34928cff9c890" + } + }, + "126fba137f8543dab4a3d4369d1bfd18": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_89e09fb727304f989f15e71d41bdf25f", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 625/625 [00:14<00:00, 42.5B/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_f73b454de9a2421ebb649528a20c6d52" + } + }, + "f2305cbd9cfe4481985091059e387d0b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "0f4dabf59df2470ea3d34928cff9c890": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "89e09fb727304f989f15e71d41bdf25f": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "f73b454de9a2421ebb649528a20c6d52": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ed95356a1f514c7b9bc40658a9ce5652": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_3789c9e0b9484cdd9d07a77562ac5f39", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_a4cf7471bed64fddb30e5ff3ba3c19ce", + "IPY_MODEL_e8cfc627ccfc4069b48d2fef92bc3b8b" + ] + } + }, + "3789c9e0b9484cdd9d07a77562ac5f39": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "a4cf7471bed64fddb30e5ff3ba3c19ce": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_30ae6b60eb6946c8a79c4f0e696be666", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 714314041, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 714314041, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_3f26f8355f0b4090bca40ec42881d4e4" + } + }, + "e8cfc627ccfc4069b48d2fef92bc3b8b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_44442c3f52cc484597d30a76dcaa2bd9", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 714M/714M [00:14<00:00, 49.0MB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_33ee5b09394a43d79ce9a81c1d7d8046" + } + }, + "30ae6b60eb6946c8a79c4f0e696be666": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "3f26f8355f0b4090bca40ec42881d4e4": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "44442c3f52cc484597d30a76dcaa2bd9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "33ee5b09394a43d79ce9a81c1d7d8046": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "4ba0f8d55af34232bd57ad768425a0e5": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_64f990d6a6c84666a3395c3c6245d4a3", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_5a09ced1379e4c43a1155e88d79925cc", + "IPY_MODEL_2adc9f650f5c4798a97727b755d96bdb" + ] + } + }, + "64f990d6a6c84666a3395c3c6245d4a3": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "5a09ced1379e4c43a1155e88d79925cc": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_683bbe63169541efa9e82ba1cce1e98c", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 995526, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 995526, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_05d0e83e6a294c4eaf6bcbe20305e75d" + } + }, + "2adc9f650f5c4798a97727b755d96bdb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_04375733ca3f40db88dcbd6118ddd35b", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 996k/996k [00:00<00:00, 1.44MB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_e5529a86cbd94dffb52bc76e366b5fcb" + } + }, + "683bbe63169541efa9e82ba1cce1e98c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "05d0e83e6a294c4eaf6bcbe20305e75d": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "04375733ca3f40db88dcbd6118ddd35b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "e5529a86cbd94dffb52bc76e366b5fcb": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "00c6531d423844bba41d4a7ef2e4ad04": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_4d6e0b2883194609bb6b14916f65cf6d", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_fe6f2a9301cb4984b9135d5abfd86b05", + "IPY_MODEL_2cb812e1b6dc401abaf5569a5de4338b" + ] + } + }, + "4d6e0b2883194609bb6b14916f65cf6d": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "fe6f2a9301cb4984b9135d5abfd86b05": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_22923598bc874f99b37a36fe24e9fdbc", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 513, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 513, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_edfd84f22ac24918940b4b7285124e7e" + } + }, + "2cb812e1b6dc401abaf5569a5de4338b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_dbddc435ae9f46388bc42ebf19dcd012", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 513/513 [00:46<00:00, 11.0B/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_506bc1765df34d5ab1f8a6600f0cd603" + } + }, + "22923598bc874f99b37a36fe24e9fdbc": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "edfd84f22ac24918940b4b7285124e7e": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "dbddc435ae9f46388bc42ebf19dcd012": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "506bc1765df34d5ab1f8a6600f0cd603": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "b45b94f34bc943e4892db07e335890d7": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_807e6c41f51a44cdaf2277ab8c73b775", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_c916aa8ef63d4e8b9583d6edcb4ea3cd", + "IPY_MODEL_24673e9aa4164255ad72f4ba420715f9" + ] + } + }, + "807e6c41f51a44cdaf2277ab8c73b775": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c916aa8ef63d4e8b9583d6edcb4ea3cd": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_7d2b3a2529e74d039b4e16495d78bdfe", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 2244861551, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 2244861551, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_8ed31cb053ce44a9ac4abbd27d628de9" + } + }, + "24673e9aa4164255ad72f4ba420715f9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_b6a4301ec151433bb48b8508054232f6", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 2.24G/2.24G [00:46<00:00, 48.3MB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_5ef2cdc55d184a13ae9f7976cb5ae0da" + } + }, + "7d2b3a2529e74d039b4e16495d78bdfe": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "8ed31cb053ce44a9ac4abbd27d628de9": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "b6a4301ec151433bb48b8508054232f6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "5ef2cdc55d184a13ae9f7976cb5ae0da": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e6bf12c54f4d4cb7aabbef501a3f7afe": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_f048bd1a096a4c959ab1cc8665bbf0d0", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_8c7b04ef930a4ea18390a077739df9cf", + "IPY_MODEL_313b49ed1cdc454fb036393a18c72d58" + ] + } + }, + "f048bd1a096a4c959ab1cc8665bbf0d0": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "8c7b04ef930a4ea18390a077739df9cf": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_2f4d62020da94f7ea8c18559c9cdfd53", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 5069051, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 5069051, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_7bd58f0732524b7d9809bb49711db06a" + } + }, + "313b49ed1cdc454fb036393a18c72d58": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_c8bb51c92ad6447f8f755b13b35cf335", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 5.07M/5.07M [00:02<00:00, 2.06MB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_69803a30789f40819978966d61f5e7ac" + } + }, + "2f4d62020da94f7ea8c18559c9cdfd53": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "7bd58f0732524b7d9809bb49711db06a": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c8bb51c92ad6447f8f755b13b35cf335": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "69803a30789f40819978966d61f5e7ac": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "21245826d24c45c79269f2ab2159c432": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_61fdc1e0472e498dba2d4ad061975b78", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_96a1ab93ee85432b9d7c47bab09f4a41", + "IPY_MODEL_2f707820bc9946e7b7b5acb98bbf67ad" + ] + } + }, + "61fdc1e0472e498dba2d4ad061975b78": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "96a1ab93ee85432b9d7c47bab09f4a41": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_fc3f4442262f4e09b9d3cca89119b79a", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 512, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 512, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_71661cd7181842ae95385fa306911413" + } + }, + "2f707820bc9946e7b7b5acb98bbf67ad": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_e9df1ce64bd84e9fbf804af20f036544", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 512/512 [00:00<00:00, 3.91kB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_58701bdaaf4f4edba9c3d00a604fe846" + } + }, + "fc3f4442262f4e09b9d3cca89119b79a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "71661cd7181842ae95385fa306911413": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e9df1ce64bd84e9fbf804af20f036544": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "58701bdaaf4f4edba9c3d00a604fe846": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "44d8aab1f5074c96bc772d5bc0bbf6d1": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_dde163ac769547e58e9e75004e7bb524", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_9829fbd49e3b438d93e325439f6e9942", + "IPY_MODEL_927bbd9ab5664edcaa0492dc7f2acff4" + ] + } + }, + "dde163ac769547e58e9e75004e7bb524": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9829fbd49e3b438d93e325439f6e9942": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_3bf1356b731946c2a90a88a8793afb45", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 1115590446, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 1115590446, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_f9d6d9a5abab4c13a78a89ce60d380e4" + } + }, + "927bbd9ab5664edcaa0492dc7f2acff4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_2c159cb71dd4474e8c475c5a6c551f8e", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 1.12G/1.12G [00:20<00:00, 53.2MB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_0cb91cb0ccf14321b116b3eb9e56d119" + } + }, + "3bf1356b731946c2a90a88a8793afb45": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "f9d6d9a5abab4c13a78a89ce60d380e4": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "2c159cb71dd4474e8c475c5a6c551f8e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "0cb91cb0ccf14321b116b3eb9e56d119": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "d383bd0af4f0425796dd786dd16343ab": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_bb792e421dcc46ba967205af2fe726d6", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_ae252bab330543289b1bf0d0e49a8464", + "IPY_MODEL_db050ee5fea54f52a9172d29892fab67" + ] + } + }, + "bb792e421dcc46ba967205af2fe726d6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ae252bab330543289b1bf0d0e49a8464": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_650aac143bd54b229ae7ac1e33074c27", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 5069051, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 5069051, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_9d57f12fbcba41df957acd7f130bea12" + } + }, + "db050ee5fea54f52a9172d29892fab67": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_a05502a3af1847a19be62941c7307555", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 5.07M/5.07M [00:30<00:00, 165kB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_5cc805ae048249e5847504e84ba04ded" + } + }, + "650aac143bd54b229ae7ac1e33074c27": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "9d57f12fbcba41df957acd7f130bea12": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "a05502a3af1847a19be62941c7307555": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "5cc805ae048249e5847504e84ba04ded": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + } + } + } + }, + "cells": [ + { + "cell_type": "code", + "metadata": { + "id": "CIopOnTMHwp_", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 935 + }, + "outputId": "fe0cd707-49ca-4fed-dae5-3040f71f4524" + }, + "source": [ + "!pip install transformers\n", + "!pip install pyarabic\n", + "!pip install farasapy" + ], + "execution_count": 1, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Collecting transformers\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/9c/35/1c3f6e62d81f5f0daff1384e6d5e6c5758682a8357ebc765ece2b9def62b/transformers-3.0.0-py3-none-any.whl (754kB)\n", + "\r\u001b[K |▍ | 10kB 18.8MB/s eta 0:00:01\r\u001b[K |▉ | 20kB 6.2MB/s eta 0:00:01\r\u001b[K |█▎ | 30kB 7.0MB/s eta 0:00:01\r\u001b[K |█▊ | 40kB 7.9MB/s eta 0:00:01\r\u001b[K |██▏ | 51kB 6.6MB/s eta 0:00:01\r\u001b[K |██▋ | 61kB 6.9MB/s eta 0:00:01\r\u001b[K |███ | 71kB 7.4MB/s eta 0:00:01\r\u001b[K |███▌ | 81kB 7.9MB/s eta 0:00:01\r\u001b[K |████ | 92kB 7.3MB/s eta 0:00:01\r\u001b[K |████▍ | 102kB 7.6MB/s eta 0:00:01\r\u001b[K |████▊ | 112kB 7.6MB/s eta 0:00:01\r\u001b[K |█████▏ | 122kB 7.6MB/s eta 0:00:01\r\u001b[K |█████▋ | 133kB 7.6MB/s eta 0:00:01\r\u001b[K |██████ | 143kB 7.6MB/s eta 0:00:01\r\u001b[K |██████▌ | 153kB 7.6MB/s eta 0:00:01\r\u001b[K |███████ | 163kB 7.6MB/s eta 0:00:01\r\u001b[K |███████▍ | 174kB 7.6MB/s eta 0:00:01\r\u001b[K |███████▉ | 184kB 7.6MB/s eta 0:00:01\r\u001b[K |████████▎ | 194kB 7.6MB/s eta 0:00:01\r\u001b[K |████████▊ | 204kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████▏ | 215kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████▌ | 225kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████ | 235kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████▍ | 245kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████▉ | 256kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████▎ | 266kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████▊ | 276kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████▏ | 286kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████▋ | 296kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████ | 307kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████▌ | 317kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████ | 327kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████▎ | 337kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████▊ | 348kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████▏ | 358kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████▋ | 368kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████████ | 378kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████████▌ | 389kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████████ | 399kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████████▍ | 409kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████████▉ | 419kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████████▎ | 430kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████████▊ | 440kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████████ | 450kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████████▌ | 460kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████████████ | 471kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████████████▍ | 481kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████████████▉ | 491kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████████████▎ | 501kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████████████▊ | 512kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████████████▏ | 522kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████████████▋ | 532kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████████████ | 542kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████████████▌ | 552kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████████████▉ | 563kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████████████████▎ | 573kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████████████████▊ | 583kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████████████████▏ | 593kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████████████████▋ | 604kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████████████████ | 614kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████████████████▌ | 624kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████████████████ | 634kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████████████████▍ | 645kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████████████████▉ | 655kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████████████████████▎ | 665kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████████████████████▋ | 675kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████████████████████ | 686kB 7.6MB/s eta 0:00:01\r\u001b[K |█████████████████████████████▌ | 696kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████████████████████ | 706kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████████████████████▍ | 716kB 7.6MB/s eta 0:00:01\r\u001b[K |██████████████████████████████▉ | 727kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████████████████████▎| 737kB 7.6MB/s eta 0:00:01\r\u001b[K |███████████████████████████████▊| 747kB 7.6MB/s eta 0:00:01\r\u001b[K |████████████████████████████████| 757kB 7.6MB/s \n", + "\u001b[?25hRequirement already satisfied: filelock in /usr/local/lib/python3.6/dist-packages (from transformers) (3.0.12)\n", + "Collecting tokenizers==0.8.0-rc4\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/e8/bd/e5abec46af977c8a1375c1dca7cb1e5b3ec392ef279067af7f6bc50491a0/tokenizers-0.8.0rc4-cp36-cp36m-manylinux1_x86_64.whl (3.0MB)\n", + "\u001b[K |████████████████████████████████| 3.0MB 12.4MB/s \n", + "\u001b[?25hCollecting sentencepiece\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/d4/a4/d0a884c4300004a78cca907a6ff9a5e9fe4f090f5d95ab341c53d28cbc58/sentencepiece-0.1.91-cp36-cp36m-manylinux1_x86_64.whl (1.1MB)\n", + "\u001b[K |████████████████████████████████| 1.1MB 52.2MB/s \n", + "\u001b[?25hRequirement already satisfied: requests in /usr/local/lib/python3.6/dist-packages (from transformers) (2.23.0)\n", + "Requirement already satisfied: regex!=2019.12.17 in /usr/local/lib/python3.6/dist-packages (from transformers) (2019.12.20)\n", + "Collecting sacremoses\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/7d/34/09d19aff26edcc8eb2a01bed8e98f13a1537005d31e95233fd48216eed10/sacremoses-0.0.43.tar.gz (883kB)\n", + "\u001b[K |████████████████████████████████| 890kB 54.2MB/s \n", + "\u001b[?25hRequirement already satisfied: packaging in /usr/local/lib/python3.6/dist-packages (from transformers) (20.4)\n", + "Requirement already satisfied: tqdm>=4.27 in /usr/local/lib/python3.6/dist-packages (from transformers) (4.41.1)\n", + "Requirement already satisfied: dataclasses; python_version < \"3.7\" in /usr/local/lib/python3.6/dist-packages (from transformers) (0.7)\n", + "Requirement already satisfied: numpy in /usr/local/lib/python3.6/dist-packages (from transformers) (1.18.5)\n", + "Requirement already satisfied: chardet<4,>=3.0.2 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (3.0.4)\n", + "Requirement already satisfied: urllib3!=1.25.0,!=1.25.1,<1.26,>=1.21.1 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (1.24.3)\n", + "Requirement already satisfied: idna<3,>=2.5 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (2.9)\n", + "Requirement already satisfied: certifi>=2017.4.17 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (2020.6.20)\n", + "Requirement already satisfied: six in /usr/local/lib/python3.6/dist-packages (from sacremoses->transformers) (1.12.0)\n", + "Requirement already satisfied: click in /usr/local/lib/python3.6/dist-packages (from sacremoses->transformers) (7.1.2)\n", + "Requirement already satisfied: joblib in /usr/local/lib/python3.6/dist-packages (from sacremoses->transformers) (0.15.1)\n", + "Requirement already satisfied: pyparsing>=2.0.2 in /usr/local/lib/python3.6/dist-packages (from packaging->transformers) (2.4.7)\n", + "Building wheels for collected packages: sacremoses\n", + " Building wheel for sacremoses (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for sacremoses: filename=sacremoses-0.0.43-cp36-none-any.whl size=893260 sha256=b0559336328fd2b96d29784ed1318681974e93c18df3799b978aa75f14f1bcb7\n", + " Stored in directory: /root/.cache/pip/wheels/29/3c/fd/7ce5c3f0666dab31a50123635e6fb5e19ceb42ce38d4e58f45\n", + "Successfully built sacremoses\n", + "Installing collected packages: tokenizers, sentencepiece, sacremoses, transformers\n", + "Successfully installed sacremoses-0.0.43 sentencepiece-0.1.91 tokenizers-0.8.0rc4 transformers-3.0.0\n", + "Collecting pyarabic\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/2c/d4/8b5b7288dd313680d6fdea9c9ded2946f12ed2c81be4b44940bbd478da8c/PyArabic-0.6.8.tar.gz (105kB)\n", + "\u001b[K |████████████████████████████████| 112kB 5.2MB/s \n", + "\u001b[?25hBuilding wheels for collected packages: pyarabic\n", + " Building wheel for pyarabic (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for pyarabic: filename=PyArabic-0.6.8-cp36-none-any.whl size=110609 sha256=31f5d88b6ee1d1b3b775ec8ff8e3d352a08ffe2e4727ddfac03caf62423d6974\n", + " Stored in directory: /root/.cache/pip/wheels/ca/fa/26/d82414a6635b3ee82bee0729bfdb1dc8d09879742206e004bb\n", + "Successfully built pyarabic\n", + "Installing collected packages: pyarabic\n", + "Successfully installed pyarabic-0.6.8\n", + "Collecting farasapy\n", + " Downloading https://files.pythonhosted.org/packages/c9/32/3647a6763dbd2cb4d5777a9a7b0f8443daa2924277518d7a9700617e82c4/farasapy-0.0.5-py3-none-any.whl\n", + "Requirement already satisfied: tqdm in /usr/local/lib/python3.6/dist-packages (from farasapy) (4.41.1)\n", + "Requirement already satisfied: requests in /usr/local/lib/python3.6/dist-packages (from farasapy) (2.23.0)\n", + "Requirement already satisfied: chardet<4,>=3.0.2 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (3.0.4)\n", + "Requirement already satisfied: urllib3!=1.25.0,!=1.25.1,<1.26,>=1.21.1 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (1.24.3)\n", + "Requirement already satisfied: certifi>=2017.4.17 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (2020.6.20)\n", + "Requirement already satisfied: idna<3,>=2.5 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (2.9)\n", + "Installing collected packages: farasapy\n", + "Successfully installed farasapy-0.0.5\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "jeKY3usAK-7i", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 136 + }, + "outputId": "0a5114ba-7bd2-4e62-d319-365f22e4b087" + }, + "source": [ + "!git clone https://github.com/aub-mind/arabert" + ], + "execution_count": 2, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Cloning into 'arabert'...\n", + "remote: Enumerating objects: 208, done.\u001b[K\n", + "remote: Counting objects: 100% (208/208), done.\u001b[K\n", + "remote: Compressing objects: 100% (173/173), done.\u001b[K\n", + "remote: Total 208 (delta 117), reused 80 (delta 33), pack-reused 0\u001b[K\n", + "Receiving objects: 100% (208/208), 2.25 MiB | 5.70 MiB/s, done.\n", + "Resolving deltas: 100% (117/117), done.\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "RMc-zfehH4bF", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000, + "referenced_widgets": [ + "b48458a2e5464f5298f6cd04fe86f98d", + "3887a29c1f354f7eb6d010d60d67eb5a", + "82026347abc84138a7c5f91b2ccafef3", + "b1275b0f27274e4aae34617128593d51", + "dd213c70542a48f58445e8bcc4bc7699", + "01f9784d3b0a4660aef2cc4d3f08e192", + "ff9e1ead9c6b4a7f8129f9965f3a81c0", + "de0d29f261544d1390248c3a8c8fcd09", + "53afacded2d144078f46859b856ef486", + "645f64f0234640b79a9b5dbbf7ecc0a9", + "4d24e780c1ff407cbf2d155b801ad94d", + "3e1b3870756a4495980ed50b2237ef38", + "5d39da4ae1964335bb412fe6a1ba7513", + "53b84dcd82e14600bebed8f354da5c0f", + "9425abe562a3432bb72967c39b4a33b3", + "89fd0f3c81294acea1a556cbe0782728", + "5569c513c27c42ed98978a69d317bd1c", + "1c59128f0fbf49169d5e08a318d413b8", + "4ca7d8156e9b430dbe3e8568b04ad9d4", + "65008f533eb647e19e5e60b60aaf3195", + "58641ab8be1b4304b2d3be0c9511e93a", + "1189e8cc73784603a905abb6c79531e6", + "8339119c94404df0b14fb463b0984b65", + "e00d1657f884411eaa936c5278167e82", + "588b9b72fe22475ea4af5f4213c2b426", + "b07cabc216d04e1f8f475d77d64b5771", + "672de672598440b188585eb0a02e85e6", + "a26db2bbd0554a019818c083bffa8648", + "771f7c50b3fa48d6a756555ceaa930a0", + "8124e495ecc74aa988d3d2a23bc70951", + "0154d14310cc4c41a63889c4c7919280", + "99a936b3f382485ea2263e2afc0e3fbc", + "3b1ab448522f488f9ff448d5dcad6dff", + "ce16cf754595433ba68e59f0271e4a12", + "f5561bf2d79845d48321d1fb46288bc9", + "4c7710278c2943fca5c1abd01b036060", + "b310f827664046f3b9adb686240193d2", + "463fac6d30444555bccf07b69c6ff365", + "89cdf57f82884c988a754e5025525ba1", + "0a818f72d44d4584b0950d534595163b", + "e52ca6f88f7946588328fab15b903e03", + "5ce9922eb8e14d60a25b71187bb6feae", + "a64c755f958842d59dab389a3215ff25", + "6324a0268b91451ba8b7cf65c150bb62", + "05a7659d77d547aa97f680f8f4fa500a", + "c3ef35e2497240aca142f204137a8963", + "f576f7ebf9b74e8bb09fae7271071d55", + "0ba38b3a0b654bd28e6033c2588fc653", + "b676a328b62a439da345a90f863492ee", + "c9e7ea0665354abaaa719b1e3cfd15ee", + "adfd61c738b64c82b784073d36ae335c", + "5cb9ba1912154751b511783d69f05249", + "47859b4b88e448cfbacffdce54505be4", + "1c010c32b4bf4fb3a9141f756aaf4094", + "cb3292753700455fb4478f5c5ac94476", + "d36d3632711a4d2f81e5ceb2ddd912ad", + "4ae1142ef1024a05a09d35e7d2de9d37", + "d851cf4b179649068d29f5a3d90141d6", + "0f0b2e4318d84f7c9c79205236be59ff", + "07180117c5064b0f95d9e9f115cc7cbb", + "7cac1c7240f2417c9cb1cc1e0b75f0c8", + "f9a694464b374ee9ba47b6aa7d740113", + "7524880bc5d84b639d793b44eced4d54", + "909c9c6e112d422097a926530e9fdcf6", + "d82132369e2b4299b95479505d9fd3f7", + "c662cc7135a34504a7ce76cc7301c934", + "ef3820f451944cee963a342db415af1c", + "447a3ce2a5354d808a9ece87dbbb972e", + "1bcc2903ae8d42c6bd066900bf3ca039", + "17a7caa9c7444b249ed53076f11db04f", + "42a72d9cdfa2490ab8dc928e9743e469", + "5ac28c3e3ade4c91bb1f27352dbed136", + "ca363678b0e246ef9334d69023679248", + "377ab5412da74afd8ce5b58816ce5c74", + "b58e125c6cca46e08f194cfbf831aa41", + "492989991fde48e1ba0a0538cbc466aa", + "207ced99095e4099b2d3f5a833fb36ee", + "ccf3ede97df5456a9f6be9860d755dd6", + "4e2837b58706437283c918998036a7fd", + "fe0d8ff2f68c49baa10cc00742c70349", + "764698265cbb4bcbb56306647364ead9", + "91aba3b0840e4248875457ba5c4a888a", + "cc4b21fe715c4fa2b67ac466746a095b", + "4bbb31b4fde54a94bb0e0b4ea18eb188", + "6c1af96ee48c42f9a974e693d3b6d3ec", + "ef4bf5a186fc4929968843d362ef5215", + "fcf5dbd8751e480a9f8c24bfa3e46b0c", + "586598cd92104bb2ab57b4622a37d0f9", + "739e6abde20f4fc38961369668893d55", + "8b5bb82df31d4a0aabdbc8631fbca752", + "fb23d5fe2cfa4a7aa8962f1236029a0c", + "126fba137f8543dab4a3d4369d1bfd18", + "f2305cbd9cfe4481985091059e387d0b", + "0f4dabf59df2470ea3d34928cff9c890", + "89e09fb727304f989f15e71d41bdf25f", + "f73b454de9a2421ebb649528a20c6d52", + "ed95356a1f514c7b9bc40658a9ce5652", + "3789c9e0b9484cdd9d07a77562ac5f39", + "a4cf7471bed64fddb30e5ff3ba3c19ce", + "e8cfc627ccfc4069b48d2fef92bc3b8b", + "30ae6b60eb6946c8a79c4f0e696be666", + "3f26f8355f0b4090bca40ec42881d4e4", + "44442c3f52cc484597d30a76dcaa2bd9", + "33ee5b09394a43d79ce9a81c1d7d8046", + "4ba0f8d55af34232bd57ad768425a0e5", + "64f990d6a6c84666a3395c3c6245d4a3", + "5a09ced1379e4c43a1155e88d79925cc", + "2adc9f650f5c4798a97727b755d96bdb", + "683bbe63169541efa9e82ba1cce1e98c", + "05d0e83e6a294c4eaf6bcbe20305e75d", + "04375733ca3f40db88dcbd6118ddd35b", + "e5529a86cbd94dffb52bc76e366b5fcb", + "00c6531d423844bba41d4a7ef2e4ad04", + "4d6e0b2883194609bb6b14916f65cf6d", + "fe6f2a9301cb4984b9135d5abfd86b05", + "2cb812e1b6dc401abaf5569a5de4338b", + "22923598bc874f99b37a36fe24e9fdbc", + "edfd84f22ac24918940b4b7285124e7e", + "dbddc435ae9f46388bc42ebf19dcd012", + "506bc1765df34d5ab1f8a6600f0cd603", + "b45b94f34bc943e4892db07e335890d7", + "807e6c41f51a44cdaf2277ab8c73b775", + "c916aa8ef63d4e8b9583d6edcb4ea3cd", + "24673e9aa4164255ad72f4ba420715f9", + "7d2b3a2529e74d039b4e16495d78bdfe", + "8ed31cb053ce44a9ac4abbd27d628de9", + "b6a4301ec151433bb48b8508054232f6", + "5ef2cdc55d184a13ae9f7976cb5ae0da", + "e6bf12c54f4d4cb7aabbef501a3f7afe", + "f048bd1a096a4c959ab1cc8665bbf0d0", + "8c7b04ef930a4ea18390a077739df9cf", + "313b49ed1cdc454fb036393a18c72d58", + "2f4d62020da94f7ea8c18559c9cdfd53", + "7bd58f0732524b7d9809bb49711db06a", + "c8bb51c92ad6447f8f755b13b35cf335", + "69803a30789f40819978966d61f5e7ac", + "21245826d24c45c79269f2ab2159c432", + "61fdc1e0472e498dba2d4ad061975b78", + "96a1ab93ee85432b9d7c47bab09f4a41", + "2f707820bc9946e7b7b5acb98bbf67ad", + "fc3f4442262f4e09b9d3cca89119b79a", + "71661cd7181842ae95385fa306911413", + "e9df1ce64bd84e9fbf804af20f036544", + "58701bdaaf4f4edba9c3d00a604fe846", + "44d8aab1f5074c96bc772d5bc0bbf6d1", + "dde163ac769547e58e9e75004e7bb524", + "9829fbd49e3b438d93e325439f6e9942", + "927bbd9ab5664edcaa0492dc7f2acff4", + "3bf1356b731946c2a90a88a8793afb45", + "f9d6d9a5abab4c13a78a89ce60d380e4", + "2c159cb71dd4474e8c475c5a6c551f8e", + "0cb91cb0ccf14321b116b3eb9e56d119", + "d383bd0af4f0425796dd786dd16343ab", + "bb792e421dcc46ba967205af2fe726d6", + "ae252bab330543289b1bf0d0e49a8464", + "db050ee5fea54f52a9172d29892fab67", + "650aac143bd54b229ae7ac1e33074c27", + "9d57f12fbcba41df957acd7f130bea12", + "a05502a3af1847a19be62941c7307555", + "5cc805ae048249e5847504e84ba04ded" + ] + }, + "outputId": "b722e2c0-07eb-42e7-b435-4813cefa0a6e" + }, + "source": [ + "from transformers import AutoModelWithLMHead, AutoTokenizer\n", + "\n", + "modelv01 = AutoModelWithLMHead.from_pretrained('aubmindlab/bert-base-arabertv01')\n", + "tokenizerv01 = AutoTokenizer.from_pretrained('aubmindlab/bert-base-arabertv01')\n", + "\n", + "modelv1 = AutoModelWithLMHead.from_pretrained('aubmindlab/bert-base-arabert')\n", + "tokenizerv1 = AutoTokenizer.from_pretrained('aubmindlab/bert-base-arabert')\n", + "\n", + "model_safaya = AutoModelWithLMHead.from_pretrained('asafaya/bert-base-arabic')\n", + "tokenizersafaya = AutoTokenizer.from_pretrained('asafaya/bert-base-arabic')\n", + "\n", + "model_mbert = AutoModelWithLMHead.from_pretrained('bert-base-multilingual-cased')\n", + "tokenizers_mbert = AutoTokenizer.from_pretrained('bert-base-multilingual-cased')\n", + "\n", + "model_xlmr_large = AutoModelWithLMHead.from_pretrained('xlm-roberta-large')\n", + "tokenizers_xlmr_large = AutoTokenizer.from_pretrained('xlm-roberta-large')\n", + "\n", + "model_xlmr_base = AutoModelWithLMHead.from_pretrained('xlm-roberta-base')\n", + "tokenizers_xlmr_base = AutoTokenizer.from_pretrained('xlm-roberta-base')" + ], + "execution_count": 13, + "outputs": [ + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/transformers/modeling_auto.py:791: FutureWarning: The class `AutoModelWithLMHead` is deprecated and will be removed in a future version. Please use `AutoModelForCausalLM` for causal language models, `AutoModelForMaskedLM` for masked language models and `AutoModelForSeq2SeqLM` for encoder-decoder models.\n", + " FutureWarning,\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "b48458a2e5464f5298f6cd04fe86f98d", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=545.0, style=ProgressStyle(description_…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "53afacded2d144078f46859b856ef486", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=543450723.0, style=ProgressStyle(descri…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "Some weights of the model checkpoint at aubmindlab/bert-base-arabertv01 were not used when initializing BertForMaskedLM: ['cls.seq_relationship.weight', 'cls.seq_relationship.bias']\n", + "- This IS expected if you are initializing BertForMaskedLM from the checkpoint of a model trained on another task or with another architecture (e.g. initializing a BertForSequenceClassification model from a BertForPretraining model).\n", + "- This IS NOT expected if you are initializing BertForMaskedLM from the checkpoint of a model that you expect to be exactly identical (initializing a BertForSequenceClassification model from a BertForSequenceClassification model).\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "5569c513c27c42ed98978a69d317bd1c", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=780030.0, style=ProgressStyle(descripti…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "588b9b72fe22475ea4af5f4213c2b426", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=547.0, style=ProgressStyle(description_…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "3b1ab448522f488f9ff448d5dcad6dff", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=543450661.0, style=ProgressStyle(descri…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "Some weights of the model checkpoint at aubmindlab/bert-base-arabert were not used when initializing BertForMaskedLM: ['cls.seq_relationship.weight', 'cls.seq_relationship.bias']\n", + "- This IS expected if you are initializing BertForMaskedLM from the checkpoint of a model trained on another task or with another architecture (e.g. initializing a BertForSequenceClassification model from a BertForPretraining model).\n", + "- This IS NOT expected if you are initializing BertForMaskedLM from the checkpoint of a model that you expect to be exactly identical (initializing a BertForSequenceClassification model from a BertForSequenceClassification model).\n", + "Some weights of BertForMaskedLM were not initialized from the model checkpoint at aubmindlab/bert-base-arabert and are newly initialized: ['cls.predictions.decoder.bias']\n", + "You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference.\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "e52ca6f88f7946588328fab15b903e03", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=717153.0, style=ProgressStyle(descripti…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "b676a328b62a439da345a90f863492ee", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=112.0, style=ProgressStyle(description_…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "4ae1142ef1024a05a09d35e7d2de9d37", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=406.0, style=ProgressStyle(description_…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "d82132369e2b4299b95479505d9fd3f7", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=450.0, style=ProgressStyle(description_…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "ca363678b0e246ef9334d69023679248", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=442514400.0, style=ProgressStyle(descri…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "Some weights of BertForMaskedLM were not initialized from the model checkpoint at asafaya/bert-base-arabic and are newly initialized: ['cls.predictions.transform.dense.bias', 'cls.predictions.decoder.weight', 'cls.predictions.transform.dense.weight', 'cls.predictions.transform.LayerNorm.bias', 'cls.predictions.transform.LayerNorm.weight', 'cls.predictions.bias', 'cls.predictions.decoder.bias']\n", + "You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference.\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "764698265cbb4bcbb56306647364ead9", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=334032.0, style=ProgressStyle(descripti…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "739e6abde20f4fc38961369668893d55", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=625.0, style=ProgressStyle(description_…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "ed95356a1f514c7b9bc40658a9ce5652", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=714314041.0, style=ProgressStyle(descri…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "Some weights of the model checkpoint at bert-base-multilingual-cased were not used when initializing BertForMaskedLM: ['cls.seq_relationship.weight', 'cls.seq_relationship.bias']\n", + "- This IS expected if you are initializing BertForMaskedLM from the checkpoint of a model trained on another task or with another architecture (e.g. initializing a BertForSequenceClassification model from a BertForPretraining model).\n", + "- This IS NOT expected if you are initializing BertForMaskedLM from the checkpoint of a model that you expect to be exactly identical (initializing a BertForSequenceClassification model from a BertForSequenceClassification model).\n", + "Some weights of BertForMaskedLM were not initialized from the model checkpoint at bert-base-multilingual-cased and are newly initialized: ['cls.predictions.decoder.bias']\n", + "You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference.\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "4ba0f8d55af34232bd57ad768425a0e5", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=995526.0, style=ProgressStyle(descripti…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "00c6531d423844bba41d4a7ef2e4ad04", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=513.0, style=ProgressStyle(description_…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "b45b94f34bc943e4892db07e335890d7", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=2244861551.0, style=ProgressStyle(descr…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "Some weights of XLMRobertaForMaskedLM were not initialized from the model checkpoint at xlm-roberta-large and are newly initialized: ['lm_head.decoder.bias']\n", + "You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference.\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "e6bf12c54f4d4cb7aabbef501a3f7afe", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=5069051.0, style=ProgressStyle(descript…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "21245826d24c45c79269f2ab2159c432", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=512.0, style=ProgressStyle(description_…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "44d8aab1f5074c96bc772d5bc0bbf6d1", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=1115590446.0, style=ProgressStyle(descr…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "Some weights of XLMRobertaForMaskedLM were not initialized from the model checkpoint at xlm-roberta-base and are newly initialized: ['lm_head.decoder.bias']\n", + "You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference.\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "d383bd0af4f0425796dd786dd16343ab", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=5069051.0, style=ProgressStyle(descript…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "u48v4CndIfmS", + "colab_type": "code", + "colab": {} + }, + "source": [ + "from transformers import pipeline\n", + "\n", + "pipeline_fill_mask_arabertv01 = pipeline(\"fill-mask\",model=modelv01, tokenizer=tokenizerv01)\n", + "pipeline_fill_mask_arabertv1 = pipeline(\"fill-mask\",model=modelv1, tokenizer=tokenizerv1)\n", + "pipeline_fill_mask_asafaya = pipeline(\"fill-mask\",model=model_safaya, tokenizer=tokenizersafaya)\n", + "\n", + "pipeline_fill_mask_mbert = pipeline(\"fill-mask\",model=model_mbert, tokenizer=tokenizers_mbert)\n", + "pipeline_fill_mask_xlmr_large = pipeline(\"fill-mask\",model=model_xlmr_large, tokenizer=tokenizers_xlmr_large)\n", + "pipeline_fill_mask_xlmr_base = pipeline(\"fill-mask\",model=model_xlmr_base, tokenizer=tokenizers_xlmr_base)" + ], + "execution_count": 14, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "2DZp_nlzNoyT", + "colab_type": "code", + "colab": {} + }, + "source": [ + "from pprint import pprint" + ], + "execution_count": 15, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "MuQUzJjRLqBi", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 170 + }, + "outputId": "1de60678-8582-4308-fe28-dc40a59ecc0e" + }, + "source": [ + "from farasa.segmenter import FarasaSegmenter\n", + "from arabert.preprocess_arabert import preprocess\n", + "\n", + "farasa_segmenter = FarasaSegmenter(interactive=True)" + ], + "execution_count": 8, + "outputs": [ + { + "output_type": "stream", + "text": [ + "perform system check...\n", + "check java version...\n", + "Your java version is 11.0 which is compatiple with Farasa \n", + "check toolkit binaries...\n", + "Dependencies seem to be satisfied..\n", + "\u001b[37minitializing [SEGMENT] task in \u001b[32mINTERACTIVE \u001b[37mmode...\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/farasa/__base.py:45: UserWarning: Be careful with large lines as they may break on interactive mode. You may switch to Standalone mode for such cases.\n", + " \"Be careful with large lines as they may break on interactive mode. You may switch to Standalone mode for such cases.\"\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "task [SEGMENT] is initialized interactively.\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "QfqTGsxAJY5n", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 102 + }, + "outputId": "b7240721-fad2-4f17-9570-259631f57387" + }, + "source": [ + "text = \" عاصمة لبنان هي [MASK]\"\n", + "textv1 = preprocess(text, do_farasa_tokenization=True , farasa = farasa_segmenter, use_farasapy = True)\n", + "textv1 = textv1.replace(\"MASK\",\"[MASK]\")\n", + "textv1 = textv1.replace(\":[\",\":\")\n", + "text_xlm_r = text.replace(\"[MASK]\",\"\")\n", + "pprint(text.split())\n", + "print(\"#---------------------------------#\")\n", + "print(textv1)\n", + "print(\"#---------------------------------#\")\n", + "print(text_xlm_r)" + ], + "execution_count": 11, + "outputs": [ + { + "output_type": "stream", + "text": [ + "['عاصمة', 'لبنان', 'هي', '[MASK]']\n", + "#---------------------------------#\n", + "عاصم +ة لبنان هي [MASK]\n", + "#---------------------------------#\n", + " عاصمة لبنان هي \n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "bbpnwem4F_u-", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 119 + }, + "outputId": "b2cbe6e7-e824-4ac2-a6f0-db880d4327bf" + }, + "source": [ + "#check if the intended word is 1 subword\n", + "print(tokenizerv01.tokenize('بيروت'))\n", + "print(tokenizerv1.tokenize('بيروت'))\n", + "print(tokenizersafaya.tokenize('بيروت'))\n", + "print(tokenizers_mbert.tokenize('بيروت'))\n", + "print(tokenizers_xlmr_large.tokenize('بيروت'))\n", + "print(tokenizers_xlmr_base.tokenize('بيروت'))" + ], + "execution_count": 18, + "outputs": [ + { + "output_type": "stream", + "text": [ + "['بيروت']\n", + "['بيروت']\n", + "['بيروت']\n", + "['بيروت']\n", + "['▁بيروت']\n", + "['▁بيروت']\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "hQe4pYDBI4cG", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000 + }, + "outputId": "42f81a82-8a81-40a8-8655-fd6c2037aad4" + }, + "source": [ + "print(\"MASK to predict: \",text)\n", + "print(\"#-----------AraBERTv0.1-------------#\")\n", + "pprint(pipeline_fill_mask_arabertv01(text,))\n", + "print(\"#-----------AraBERTv1------------#\")\n", + "pprint(pipeline_fill_mask_arabertv1(textv1))\n", + "print(\"#-----------asafaya_BERT--------------#\")\n", + "pprint(pipeline_fill_mask_asafaya(text))\n", + "print(\"#-----------mBERT-------------#\")\n", + "pprint(pipeline_fill_mask_mbert(text))\n", + "print(\"#-----------XLM-R_large------------#\")\n", + "pprint(pipeline_fill_mask_xlmr_large(text_xlm_r))\n", + "print(\"#-----------XLM-R_base--------------#\")\n", + "pprint(pipeline_fill_mask_xlmr_base(text_xlm_r))" + ], + "execution_count": 19, + "outputs": [ + { + "output_type": "stream", + "text": [ + "MASK to predict: عاصمة لبنان هي [MASK]\n", + "#-----------AraBERTv0.1-------------#\n", + "[{'score': 0.16055037081241608,\n", + " 'sequence': '[CLS] عاصمة لبنان هي طرابلس [SEP]',\n", + " 'token': 37024,\n", + " 'token_str': 'طرابلس'},\n", + " {'score': 0.1498166173696518,\n", + " 'sequence': '[CLS] عاصمة لبنان هي بيروت [SEP]',\n", + " 'token': 20456,\n", + " 'token_str': 'بيروت'},\n", + " {'score': 0.05173841491341591,\n", + " 'sequence': '[CLS] عاصمة لبنان هي بغداد [SEP]',\n", + " 'token': 20202,\n", + " 'token_str': 'بغداد'},\n", + " {'score': 0.03738606348633766,\n", + " 'sequence': '[CLS] عاصمة لبنان هي دمشق [SEP]',\n", + " 'token': 8369,\n", + " 'token_str': 'دمشق'},\n", + " {'score': 0.034828972071409225,\n", + " 'sequence': '[CLS] عاصمة لبنان هي. [SEP]',\n", + " 'token': 17031,\n", + " 'token_str': '.'}]\n", + "#-----------AraBERTv1------------#\n", + "[{'score': 0.6333718299865723,\n", + " 'sequence': '[CLS] عاصم +ة لبنان هي بيروت [SEP]',\n", + " 'token': 32803,\n", + " 'token_str': 'بيروت'},\n", + " {'score': 0.16333439946174622,\n", + " 'sequence': '[CLS] عاصم +ة لبنان هي. [SEP]',\n", + " 'token': 11,\n", + " 'token_str': '.'},\n", + " {'score': 0.09127318859100342,\n", + " 'sequence': '[CLS] عاصم +ة لبنان هي دمشق [SEP]',\n", + " 'token': 16689,\n", + " 'token_str': 'دمشق'},\n", + " {'score': 0.017441021278500557,\n", + " 'sequence': '[CLS] عاصم +ة لبنان هي لبنان [SEP]',\n", + " 'token': 38184,\n", + " 'token_str': 'لبنان'},\n", + " {'score': 0.012539410032331944,\n", + " 'sequence': '[CLS] عاصم +ة لبنان هي : [SEP]',\n", + " 'token': 23,\n", + " 'token_str': ':'}]\n", + "#-----------asafaya_BERT--------------#\n", + "[{'score': 0.0005092307110317051,\n", + " 'sequence': '[CLS] عاصمة لبنان هي يومنا [SEP]',\n", + " 'token': 16164,\n", + " 'token_str': 'يومنا'},\n", + " {'score': 0.0004948975401930511,\n", + " 'sequence': '[CLS] عاصمة لبنان هي الصبح [SEP]',\n", + " 'token': 17856,\n", + " 'token_str': 'الصبح'},\n", + " {'score': 0.0004179252136964351,\n", + " 'sequence': '[CLS] عاصمة لبنان هي وصي [SEP]',\n", + " 'token': 31733,\n", + " 'token_str': 'وصي'},\n", + " {'score': 0.0003999972832389176,\n", + " 'sequence': '[CLS] عاصمة لبنان هي sud [SEP]',\n", + " 'token': 24067,\n", + " 'token_str': 'sud'},\n", + " {'score': 0.00039474532241001725,\n", + " 'sequence': '[CLS] عاصمة لبنان هي الدكالي [SEP]',\n", + " 'token': 29454,\n", + " 'token_str': 'الدكالي'}]\n", + "#-----------mBERT-------------#\n", + "[{'score': 0.45505157113075256,\n", + " 'sequence': '[CLS] عاصمة لبنان هي : [SEP]',\n", + " 'token': 131,\n", + " 'token_str': ':'},\n", + " {'score': 0.24596887826919556,\n", + " 'sequence': '[CLS] عاصمة لبنان هي بيروت [SEP]',\n", + " 'token': 64551,\n", + " 'token_str': 'بيروت'},\n", + " {'score': 0.0741082951426506,\n", + " 'sequence': '[CLS] عاصمة لبنان هي لبنان [SEP]',\n", + " 'token': 45920,\n", + " 'token_str': 'لبنان'},\n", + " {'score': 0.07040220499038696,\n", + " 'sequence': '[CLS] عاصمة لبنان هي - [SEP]',\n", + " 'token': 118,\n", + " 'token_str': '-'},\n", + " {'score': 0.041250430047512054,\n", + " 'sequence': '[CLS] عاصمة لبنان هي. [SEP]',\n", + " 'token': 119,\n", + " 'token_str': '.'}]\n", + "#-----------XLM-R_large------------#\n", + "[{'score': 0.4700421988964081,\n", + " 'sequence': ' عاصمة لبنان هي:',\n", + " 'token': 12,\n", + " 'token_str': ':'},\n", + " {'score': 0.12027233839035034,\n", + " 'sequence': ' عاصمة لبنان هي...',\n", + " 'token': 27,\n", + " 'token_str': '...'},\n", + " {'score': 0.07662902772426605,\n", + " 'sequence': ' عاصمة لبنان هي',\n", + " 'token': 2,\n", + " 'token_str': ''},\n", + " {'score': 0.06177076697349548,\n", + " 'sequence': ' عاصمة لبنان هي دمشق',\n", + " 'token': 109661,\n", + " 'token_str': '▁دمشق'},\n", + " {'score': 0.048900872468948364,\n", + " 'sequence': ' عاصمة لبنان هي :',\n", + " 'token': 152,\n", + " 'token_str': '▁:'}]\n", + "#-----------XLM-R_base--------------#\n", + "[{'score': 0.32167527079582214,\n", + " 'sequence': ' عاصمة لبنان هي:',\n", + " 'token': 12,\n", + " 'token_str': ':'},\n", + " {'score': 0.2610267996788025,\n", + " 'sequence': ' عاصمة لبنان هي',\n", + " 'token': 2,\n", + " 'token_str': ''},\n", + " {'score': 0.1931280642747879,\n", + " 'sequence': ' عاصمة لبنان هي...',\n", + " 'token': 27,\n", + " 'token_str': '...'},\n", + " {'score': 0.06696080416440964,\n", + " 'sequence': ' عاصمة لبنان هي...',\n", + " 'token': 153,\n", + " 'token_str': '▁...'},\n", + " {'score': 0.03286709263920784,\n", + " 'sequence': ' عاصمة لبنان هي.',\n", + " 'token': 5,\n", + " 'token_str': '.'}]\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "Rqu7Ew_zeixJ", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000 + }, + "outputId": "a9292bed-7e85-478d-c635-93a70c267fe0" + }, + "source": [ + "#original word was عادل\n", + "text_3 = \"أكد نائب رئيس مجلس الوزراء السابق غسان حاصباني أن المحاسبة ال+ [MASK] +ة والشفافة والتي تطاول الجميع اساسية، ولتكن الكلمة الفصل للقضاء، مشيرا الى ان على ما يبدو السياسة متداخلة في الكثير من الملفات، ومتمنيا أن يتوقف ذلك.\"\n", + "text_3 = preprocess(text3, do_farasa_tokenization=True , farasa = farasa_segmenter, use_farasapy = True)\n", + "text_3 = text_3.replace(\"MASK\",\"[MASK]\")\n", + "pprint(text_3.split())" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "stream", + "text": [ + "['أكد',\n", + " 'نائب',\n", + " 'رئيس',\n", + " 'مجلس',\n", + " 'ال+',\n", + " 'وزراء',\n", + " 'ال+',\n", + " 'سابق',\n", + " 'غسان',\n", + " 'حاصباني',\n", + " 'أن',\n", + " 'ال+',\n", + " 'محاسب',\n", + " '+ة',\n", + " 'ال+',\n", + " '[MASK]',\n", + " '+ة',\n", + " 'و+',\n", + " 'ال+',\n", + " 'شفاف',\n", + " '+ة',\n", + " 'و+',\n", + " 'التي',\n", + " 'تطاول',\n", + " 'ال+',\n", + " 'جميع',\n", + " 'اساسي',\n", + " '+ة',\n", + " '،',\n", + " 'و+',\n", + " 'ل+',\n", + " '+ت',\n", + " '+كن',\n", + " 'ال+',\n", + " 'كلم',\n", + " '+ة',\n", + " 'ال+',\n", + " 'فصل',\n", + " 'ل+',\n", + " 'ال+',\n", + " 'قضاء',\n", + " '،',\n", + " 'مشير',\n", + " '+ا',\n", + " 'الى',\n", + " '+ان',\n", + " 'على',\n", + " 'ما',\n", + " 'يبدو',\n", + " 'ال+',\n", + " 'سياس',\n", + " '+ة',\n", + " 'متداخل',\n", + " '+ة',\n", + " 'في',\n", + " 'ال+',\n", + " 'كثير',\n", + " 'من',\n", + " 'ال+',\n", + " 'ملف',\n", + " '+ات',\n", + " '،',\n", + " 'و+',\n", + " 'متمني',\n", + " '+ا',\n", + " 'أن',\n", + " 'يتوقف',\n", + " 'ذلك',\n", + " '.']\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "ZDYVTYRpiLAt", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 292 + }, + "outputId": "857f17b3-1886-4a70-9d54-a7138f0fee3d" + }, + "source": [ + "pipeline_fill_mask_arabertv1(text_3)" + ], + "execution_count": null, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "[{'score': 0.351762056350708,\n", + " 'sequence': '[CLS] أكد نائب رئيس مجلس ال+ وزراء ال+ سابق غسان حاصباني أن ال+ محاسب +ة ال+ عادل +ة و+ ال+ شفاف +ة و+ التي تطاول ال+ جميع اساسي +ة ، و+ ل+ +ت +كن ال+ كلم +ة ال+ فصل ل+ ال+ قضاء ، مشير +ا الى +ان على ما يبدو ال+ سياس +ة متداخل +ة في ال+ كثير من ال+ ملف +ات ، و+ متمني +ا أن يتوقف ذلك. [SEP]',\n", + " 'token': 18922},\n", + " {'score': 0.18136297166347504,\n", + " 'sequence': '[CLS] أكد نائب رئيس مجلس ال+ وزراء ال+ سابق غسان حاصباني أن ال+ محاسب +ة ال+ حقيقي +ة و+ ال+ شفاف +ة و+ التي تطاول ال+ جميع اساسي +ة ، و+ ل+ +ت +كن ال+ كلم +ة ال+ فصل ل+ ال+ قضاء ، مشير +ا الى +ان على ما يبدو ال+ سياس +ة متداخل +ة في ال+ كثير من ال+ ملف +ات ، و+ متمني +ا أن يتوقف ذلك. [SEP]',\n", + " 'token': 34985},\n", + " {'score': 0.05650452524423599,\n", + " 'sequence': '[CLS] أكد نائب رئيس مجلس ال+ وزراء ال+ سابق غسان حاصباني أن ال+ محاسب +ة ال+ نزيه +ة و+ ال+ شفاف +ة و+ التي تطاول ال+ جميع اساسي +ة ، و+ ل+ +ت +كن ال+ كلم +ة ال+ فصل ل+ ال+ قضاء ، مشير +ا الى +ان على ما يبدو ال+ سياس +ة متداخل +ة في ال+ كثير من ال+ ملف +ات ، و+ متمني +ا أن يتوقف ذلك. [SEP]',\n", + " 'token': 22906},\n", + " {'score': 0.04413159564137459,\n", + " 'sequence': '[CLS] أكد نائب رئيس مجلس ال+ وزراء ال+ سابق غسان حاصباني أن ال+ محاسب +ة ال+ جدي +ة و+ ال+ شفاف +ة و+ التي تطاول ال+ جميع اساسي +ة ، و+ ل+ +ت +كن ال+ كلم +ة ال+ فصل ل+ ال+ قضاء ، مشير +ا الى +ان على ما يبدو ال+ سياس +ة متداخل +ة في ال+ كثير من ال+ ملف +ات ، و+ متمني +ا أن يتوقف ذلك. [SEP]',\n", + " 'token': 3687},\n", + " {'score': 0.042669184505939484,\n", + " 'sequence': '[CLS] أكد نائب رئيس مجلس ال+ وزراء ال+ سابق غسان حاصباني أن ال+ محاسب +ة ال+ شامل +ة و+ ال+ شفاف +ة و+ التي تطاول ال+ جميع اساسي +ة ، و+ ل+ +ت +كن ال+ كلم +ة ال+ فصل ل+ ال+ قضاء ، مشير +ا الى +ان على ما يبدو ال+ سياس +ة متداخل +ة في ال+ كثير من ال+ ملف +ات ، و+ متمني +ا أن يتوقف ذلك. [SEP]',\n", + " 'token': 18083}]" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 88 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "KDmxnLgyiWYL", + "colab_type": "code", + "colab": {} + }, + "source": [ + "" + ], + "execution_count": null, + "outputs": [] + } + ] +} \ No newline at end of file diff --git a/arabert/examples/old/AraBERT_Text_Classification_with_HF_Trainer_Pytorch_GPU.ipynb b/arabert/examples/old/AraBERT_Text_Classification_with_HF_Trainer_Pytorch_GPU.ipynb new file mode 100644 index 0000000000000000000000000000000000000000..4e2b79a6d9714b7437f8d01ec6ac335c1a302a2b --- /dev/null +++ b/arabert/examples/old/AraBERT_Text_Classification_with_HF_Trainer_Pytorch_GPU.ipynb @@ -0,0 +1,5999 @@ +{ + "nbformat": 4, + "nbformat_minor": 0, + "metadata": { + "colab": { + "name": "AraBERT Text Classification with HF Trainer - Pytorch GPU.ipynb", + "provenance": [], + "collapsed_sections": [], + "toc_visible": true + }, + "kernelspec": { + "name": "python3", + "display_name": "Python 3" + }, + "widgets": { + "application/vnd.jupyter.widget-state+json": { + "17813b948bcf4e969c836380f05006ef": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_38982754d77944e4b7efc4eca8bd969c", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_2be6e5c534f34a71b16340fd8fecfddd", + "IPY_MODEL_8cb309473b4f497ab02f7979181cdb2d" + ] + } + }, + "38982754d77944e4b7efc4eca8bd969c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "2be6e5c534f34a71b16340fd8fecfddd": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_653c8cc6609e4bf097f3573e04851c60", + "_dom_classes": [], + "description": "Epoch: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 5, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 5, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_e2c89e8246b349a9bdd6de29c8127a64" + } + }, + "8cb309473b4f497ab02f7979181cdb2d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_afb60ef656214893b07027cee9d9cca9", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 5/5 [06:25<00:00, 77.20s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_d255651515ef444582b106ed3919f229" + } + }, + "653c8cc6609e4bf097f3573e04851c60": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "e2c89e8246b349a9bdd6de29c8127a64": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "afb60ef656214893b07027cee9d9cca9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "d255651515ef444582b106ed3919f229": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "fd23578f00dc4abc9642095c330611ed": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_a65723c9197646b0848b2bae2481dff6", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_70aa50492e664cb3b8f08ecb48bb4145", + "IPY_MODEL_21681fb94406488d967b16f6322675c8" + ] + } + }, + "a65723c9197646b0848b2bae2481dff6": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "70aa50492e664cb3b8f08ecb48bb4145": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_8b92965e88be46b4b8498f8cc8f97f6a", + "_dom_classes": [], + "description": "Iteration: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 90, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 90, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_03ecb7ada6044d3f95f0845bf6d66cc4" + } + }, + "21681fb94406488d967b16f6322675c8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_e8e3af5f4f574fdfb9c9ba4a40c5c649", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 90/90 [03:05<00:00, 2.06s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_ecdbaa12cf6b4c90bdf416901cc358e8" + } + }, + "8b92965e88be46b4b8498f8cc8f97f6a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "03ecb7ada6044d3f95f0845bf6d66cc4": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e8e3af5f4f574fdfb9c9ba4a40c5c649": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "ecdbaa12cf6b4c90bdf416901cc358e8": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "37d95fb1806b4c64b7ba1b01b8191562": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_484308fd15af4f03a10ca30e72049c6e", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_81a0dbea95944c5a9128a383674607af", + "IPY_MODEL_65fedd1acbc94fb3bf9e3b61474dda60" + ] + } + }, + "484308fd15af4f03a10ca30e72049c6e": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "81a0dbea95944c5a9128a383674607af": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_7636e76415f24d40bf3e3a6dbb2e0c1d", + "_dom_classes": [], + "description": "Evaluation: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 23, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 23, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_aab3095589464c37a59d2aaa48063b00" + } + }, + "65fedd1acbc94fb3bf9e3b61474dda60": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_df57fce3ef14489fb5ee686d14c5f1cb", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 23/23 [00:05<00:00, 4.40it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_e7e24d1ea65649e090783985598e5195" + } + }, + "7636e76415f24d40bf3e3a6dbb2e0c1d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "aab3095589464c37a59d2aaa48063b00": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "df57fce3ef14489fb5ee686d14c5f1cb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "e7e24d1ea65649e090783985598e5195": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "194636aaccc14fdfad8311f8c8374c99": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_402b92e099314328a8163a90d41c197e", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_c9c56a03cc404a76b489d4eb2b245d0b", + "IPY_MODEL_adf33486ee924f4e93c92b04adf8b9e9" + ] + } + }, + "402b92e099314328a8163a90d41c197e": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c9c56a03cc404a76b489d4eb2b245d0b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_349e928a7c2547e4b196fd05ed521b7b", + "_dom_classes": [], + "description": "Iteration: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 90, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 90, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_5785c38b06174a8c8420fbc7c8709412" + } + }, + "adf33486ee924f4e93c92b04adf8b9e9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_e674e00fc7be4a118d128f61878c99ca", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 90/90 [01:48<00:00, 1.20s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_dcfa6e6d328144cabbe02874abd03e6a" + } + }, + "349e928a7c2547e4b196fd05ed521b7b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "5785c38b06174a8c8420fbc7c8709412": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e674e00fc7be4a118d128f61878c99ca": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "dcfa6e6d328144cabbe02874abd03e6a": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7d66a7e8846d4c65beffd08bb700d218": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_ef9a3e78cd514de4a75d4604f5211dc9", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_7899682189f74835a81f5812a0e77d12", + "IPY_MODEL_5f3739789a4746ffa2614ea9dd3ac3b7" + ] + } + }, + "ef9a3e78cd514de4a75d4604f5211dc9": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "7899682189f74835a81f5812a0e77d12": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_e42218a701db454a8c3e390c72718486", + "_dom_classes": [], + "description": "Evaluation: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 23, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 23, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_1a8ba84566c34458b2181ca3e056880a" + } + }, + "5f3739789a4746ffa2614ea9dd3ac3b7": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_b3ca12fec190483ca683a99476d3d150", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 23/23 [00:44<00:00, 1.95s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_3a29e069bbce416bad055484cde0cf45" + } + }, + "e42218a701db454a8c3e390c72718486": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "1a8ba84566c34458b2181ca3e056880a": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "b3ca12fec190483ca683a99476d3d150": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "3a29e069bbce416bad055484cde0cf45": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "dce2b22327e148eeb9dd956120c4e32e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_127b26d898fa4693a98dcc69fb9249b2", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_0cb1cb77d2f4499e93e5bd3aaab2251a", + "IPY_MODEL_9573c3877ee94cf6bf8ab84af22e8328" + ] + } + }, + "127b26d898fa4693a98dcc69fb9249b2": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "0cb1cb77d2f4499e93e5bd3aaab2251a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_e7e87e458ade41afae719a00e886edc3", + "_dom_classes": [], + "description": "Iteration: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 90, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 90, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_59f3029377fb409c968043ef3233d68f" + } + }, + "9573c3877ee94cf6bf8ab84af22e8328": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_16e4163d1acd4d35a6904b8546aa3522", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 90/90 [01:17<00:00, 1.16it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_ac1120ed8dca4f569164959b107aaad5" + } + }, + "e7e87e458ade41afae719a00e886edc3": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "59f3029377fb409c968043ef3233d68f": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "16e4163d1acd4d35a6904b8546aa3522": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "ac1120ed8dca4f569164959b107aaad5": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "2c73bbb701224bbcae31c8dff3f1bfc6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_7d2705003ebc40e09334baf989bdd34d", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_5a01ed1eb8e845ceaf0bbf4afbfc84dc", + "IPY_MODEL_213ea689fb3049c1b86c62f768729f58" + ] + } + }, + "7d2705003ebc40e09334baf989bdd34d": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "5a01ed1eb8e845ceaf0bbf4afbfc84dc": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_2b297c9489dd45639b8ce6f867d8ecde", + "_dom_classes": [], + "description": "Evaluation: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 23, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 23, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_7551764c8d1e4c23a85cd1480771d29b" + } + }, + "213ea689fb3049c1b86c62f768729f58": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_58ddaa2efb0c4a249d753f3c009ec34c", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 23/23 [03:26<00:00, 8.96s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_70496505a3354479871dad4bfea1ae1c" + } + }, + "2b297c9489dd45639b8ce6f867d8ecde": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "7551764c8d1e4c23a85cd1480771d29b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "58ddaa2efb0c4a249d753f3c009ec34c": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "70496505a3354479871dad4bfea1ae1c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "1def79d196bc40e0b5f22ccd1e6127f8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_fd5c0c072da74e0c9dc1099f90074c92", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_26bf09cab5884e929bc7783c98329ce6", + "IPY_MODEL_df0e1e7410f4490c913f76836e119d5a" + ] + } + }, + "fd5c0c072da74e0c9dc1099f90074c92": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "26bf09cab5884e929bc7783c98329ce6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_9ca7af35c4064d399f4c8c1bad6b4cd0", + "_dom_classes": [], + "description": "Iteration: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 90, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 90, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_e816e89ae61446778644b700b414495a" + } + }, + "df0e1e7410f4490c913f76836e119d5a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_37a196f4a10748208af126f78d840074", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 90/90 [03:11<00:00, 2.12s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_0972a0192f584347927608325d5f4546" + } + }, + "9ca7af35c4064d399f4c8c1bad6b4cd0": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "e816e89ae61446778644b700b414495a": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "37a196f4a10748208af126f78d840074": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "0972a0192f584347927608325d5f4546": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "ca6e184fd64041d8afa797b04fb98007": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_b0fe9a318a3248da8ec43f29227472fb", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_38fbfae7364f4ddcb3941f2b5bf47816", + "IPY_MODEL_660b2c0a32f94850ba25576dd0fc745e" + ] + } + }, + "b0fe9a318a3248da8ec43f29227472fb": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "38fbfae7364f4ddcb3941f2b5bf47816": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_a06249d499974f1ea6497e03c42bda98", + "_dom_classes": [], + "description": "Evaluation: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 23, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 23, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_80624de7b0c64b0fb2f50c4f7d308e21" + } + }, + "660b2c0a32f94850ba25576dd0fc745e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_040234f721a84629b08ef8c30f99ff04", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 23/23 [00:05<00:00, 4.42it/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_e639ebfd62bc49e6a2a5561962e02bc2" + } + }, + "a06249d499974f1ea6497e03c42bda98": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "80624de7b0c64b0fb2f50c4f7d308e21": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "040234f721a84629b08ef8c30f99ff04": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "e639ebfd62bc49e6a2a5561962e02bc2": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "cc41a24584d44adabc2b4fa04fdf31e9": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_c05748435d374016b3756e38b49b43d8", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_90ac82918d994fc4b45fcf7d540c0067", + "IPY_MODEL_7cb99d2aaa504f93b829a700fd3ca087" + ] + } + }, + "c05748435d374016b3756e38b49b43d8": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "90ac82918d994fc4b45fcf7d540c0067": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_1cf94b0c795d44daa77f2fd02059f2a2", + "_dom_classes": [], + "description": "Iteration: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 90, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 90, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_ef7043b4aaf14dd4beeb832587cd77e5" + } + }, + "7cb99d2aaa504f93b829a700fd3ca087": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_c4aa279f78b941bbab1ff37348647b39", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 90/90 [01:54<00:00, 1.28s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_c402ccf10d61409398956fa9b4a2322b" + } + }, + "1cf94b0c795d44daa77f2fd02059f2a2": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "ef7043b4aaf14dd4beeb832587cd77e5": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "c4aa279f78b941bbab1ff37348647b39": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "c402ccf10d61409398956fa9b4a2322b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "e205b470c6e044e694fc997d011b0927": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_e4f9b9f4c3774fd195c4118c1d39d8de", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_5ee4fc0330fb4ec7b41b195565996bc0", + "IPY_MODEL_10e97e1a515e496583ba5234988eb0e4" + ] + } + }, + "e4f9b9f4c3774fd195c4118c1d39d8de": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "5ee4fc0330fb4ec7b41b195565996bc0": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_4cdc398913364462a4ca840520e81f5b", + "_dom_classes": [], + "description": "Evaluation: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 23, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 23, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_25cc6e40b1714c3b80fef4a48328dffd" + } + }, + "10e97e1a515e496583ba5234988eb0e4": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_2f44bf008f4449ff82a44c90148f825e", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 23/23 [00:52<00:00, 2.27s/it]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_091df1f6989a44b882c9747b124d236b" + } + }, + "4cdc398913364462a4ca840520e81f5b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "25cc6e40b1714c3b80fef4a48328dffd": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "2f44bf008f4449ff82a44c90148f825e": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "091df1f6989a44b882c9747b124d236b": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + } + } + }, + "accelerator": "GPU" + }, + "cells": [ + { + "cell_type": "markdown", + "metadata": { + "id": "4zrUB2zR0w7u", + "colab_type": "text" + }, + "source": [ + "#AraBERT Sentiment Classication with HuggingFace Trainer API\n", + "\n", + "This notebook shows how you can train a variaity of transformer-based model to get state-of-the-art score easily" + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "CgaKuo8x1AOK", + "colab_type": "text" + }, + "source": [ + "##Installing Prerequisites" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "spffESd_nH2L", + "colab_type": "code", + "outputId": "9aabceb7-30a8-46c8-d19d-c0915ce3f4a6", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 646 + } + }, + "source": [ + "!pip install transformers\n", + "!pip install farasapy\n", + "!pip install pyarabic\n", + "!git clone https://github.com/aub-mind/arabert" + ], + "execution_count": 4, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Requirement already satisfied: transformers in /usr/local/lib/python3.6/dist-packages (2.11.0)\n", + "Requirement already satisfied: regex!=2019.12.17 in /usr/local/lib/python3.6/dist-packages (from transformers) (2019.12.20)\n", + "Requirement already satisfied: numpy in /usr/local/lib/python3.6/dist-packages (from transformers) (1.18.4)\n", + "Requirement already satisfied: tqdm>=4.27 in /usr/local/lib/python3.6/dist-packages (from transformers) (4.41.1)\n", + "Requirement already satisfied: filelock in /usr/local/lib/python3.6/dist-packages (from transformers) (3.0.12)\n", + "Requirement already satisfied: requests in /usr/local/lib/python3.6/dist-packages (from transformers) (2.23.0)\n", + "Requirement already satisfied: packaging in /usr/local/lib/python3.6/dist-packages (from transformers) (20.4)\n", + "Requirement already satisfied: sacremoses in /usr/local/lib/python3.6/dist-packages (from transformers) (0.0.43)\n", + "Requirement already satisfied: tokenizers==0.7.0 in /usr/local/lib/python3.6/dist-packages (from transformers) (0.7.0)\n", + "Requirement already satisfied: sentencepiece in /usr/local/lib/python3.6/dist-packages (from transformers) (0.1.91)\n", + "Requirement already satisfied: dataclasses; python_version < \"3.7\" in /usr/local/lib/python3.6/dist-packages (from transformers) (0.7)\n", + "Requirement already satisfied: certifi>=2017.4.17 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (2020.4.5.1)\n", + "Requirement already satisfied: urllib3!=1.25.0,!=1.25.1,<1.26,>=1.21.1 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (1.24.3)\n", + "Requirement already satisfied: chardet<4,>=3.0.2 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (3.0.4)\n", + "Requirement already satisfied: idna<3,>=2.5 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (2.9)\n", + "Requirement already satisfied: pyparsing>=2.0.2 in /usr/local/lib/python3.6/dist-packages (from packaging->transformers) (2.4.7)\n", + "Requirement already satisfied: six in /usr/local/lib/python3.6/dist-packages (from packaging->transformers) (1.12.0)\n", + "Requirement already satisfied: click in /usr/local/lib/python3.6/dist-packages (from sacremoses->transformers) (7.1.2)\n", + "Requirement already satisfied: joblib in /usr/local/lib/python3.6/dist-packages (from sacremoses->transformers) (0.15.1)\n", + "Requirement already satisfied: farasapy in /usr/local/lib/python3.6/dist-packages (0.0.3)\n", + "Requirement already satisfied: requests in /usr/local/lib/python3.6/dist-packages (from farasapy) (2.23.0)\n", + "Requirement already satisfied: tqdm in /usr/local/lib/python3.6/dist-packages (from farasapy) (4.41.1)\n", + "Requirement already satisfied: idna<3,>=2.5 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (2.9)\n", + "Requirement already satisfied: urllib3!=1.25.0,!=1.25.1,<1.26,>=1.21.1 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (1.24.3)\n", + "Requirement already satisfied: chardet<4,>=3.0.2 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (3.0.4)\n", + "Requirement already satisfied: certifi>=2017.4.17 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (2020.4.5.1)\n", + "Collecting pyarabic\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/ee/59/2c7efe30a789c1dfd3c5c15b9b06fcde8cde67ff1c27adabb78692eb7f7f/PyArabic-0.6.7.tar.gz (103kB)\n", + "\u001b[K |████████████████████████████████| 112kB 3.5MB/s \n", + "\u001b[?25hBuilding wheels for collected packages: pyarabic\n", + " Building wheel for pyarabic (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for pyarabic: filename=PyArabic-0.6.7-cp36-none-any.whl size=108603 sha256=7989bcab59f1877e9c01fb25ad27f81ee06d49c877c6a414fcdaef840ab0d040\n", + " Stored in directory: /root/.cache/pip/wheels/c6/50/b1/4df7f705f36e91360ab04416dbf1017084698d30a7a3645b5e\n", + "Successfully built pyarabic\n", + "Installing collected packages: pyarabic\n", + "Successfully installed pyarabic-0.6.7\n", + "fatal: destination path 'arabert' already exists and is not an empty directory.\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "OW_bb7XDe-js", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 340 + }, + "outputId": "6d712c41-62aa-4a16-9bd8-7a65367efe36" + }, + "source": [ + "#Checking for GPU\n", + "import torch\n", + "\n", + "# If there's a GPU available...\n", + "if torch.cuda.is_available(): \n", + "\n", + " # Tell PyTorch to use the GPU. \n", + " device = torch.device(\"cuda\")\n", + "\n", + " print('There are %d GPU(s) available.' % torch.cuda.device_count())\n", + "\n", + " print('We will use the GPU:', torch.cuda.get_device_name(0))\n", + " !nvidia-smi\n", + "\n", + "# If not...\n", + "else:\n", + " print('No GPU available, using the CPU instead.')\n", + " device = torch.device(\"cpu\")" + ], + "execution_count": 2, + "outputs": [ + { + "output_type": "stream", + "text": [ + "There are 1 GPU(s) available.\n", + "We will use the GPU: Tesla K80\n", + "Tue Jun 2 14:42:40 2020 \n", + "+-----------------------------------------------------------------------------+\n", + "| NVIDIA-SMI 440.82 Driver Version: 418.67 CUDA Version: 10.1 |\n", + "|-------------------------------+----------------------+----------------------+\n", + "| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |\n", + "| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |\n", + "|===============================+======================+======================|\n", + "| 0 Tesla K80 Off | 00000000:00:04.0 Off | 0 |\n", + "| N/A 71C P8 32W / 149W | 11MiB / 11441MiB | 0% Default |\n", + "+-------------------------------+----------------------+----------------------+\n", + " \n", + "+-----------------------------------------------------------------------------+\n", + "| Processes: GPU Memory |\n", + "| GPU PID Type Process name Usage |\n", + "|=============================================================================|\n", + "| No running processes found |\n", + "+-----------------------------------------------------------------------------+\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "mVrFHcoJhA84", + "colab_type": "text" + }, + "source": [ + "#Imports" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "XAZGAsu4hAiu", + "colab_type": "code", + "colab": {} + }, + "source": [ + "import pandas as pd\n", + "import numpy as np\n", + "\n", + "#from py4j.java_gateway import JavaGateway\n", + "from farasa.segmenter import FarasaSegmenter\n", + "from arabert.preprocess_arabert import preprocess, never_split_tokens\n", + "\n", + "from sklearn.model_selection import train_test_split\n", + "from sklearn.metrics import classification_report, accuracy_score, f1_score, confusion_matrix, precision_score , recall_score\n", + "\n", + "from transformers import AutoConfig, BertForSequenceClassification, AutoTokenizer\n", + "from transformers.data.processors import SingleSentenceClassificationProcessor\n", + "from transformers import Trainer , TrainingArguments\n", + "#https://github.com/huggingface/transformers/blob/master/src/transformers/training_args.py#L31 \n", + "\n", + "import logging\n", + "\n", + "logging.basicConfig(level=logging.INFO)\n", + "logger = logging.getLogger(__name__)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "9aC8vgSnAKYA", + "colab_type": "text" + }, + "source": [ + "#Reading and Preparing Data" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "Ceof45e7_s8O", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 255 + }, + "outputId": "50c18c72-72c8-4d02-9a5e-87542ec2f9b5" + }, + "source": [ + "# !pkill \"java\"\n", + "# gateway = JavaGateway.launch_gateway(classpath='./FarasaSegmenterJar.jar')\n", + "# farasa_segmenter = gateway.jvm.com.qcri.farasa.segmenter.Farasa()\n", + "\n", + "farasa_segmenter = FarasaSegmenter(interactive=True)\n", + "\n", + "df_AJGT = pd.read_excel('./arabert/AJGT.xlsx',header=0)\n", + "\n", + "DATA_COLUMN = 'text'\n", + "LABEL_COLUMN = 'label'\n", + "\n", + "df_AJGT = df_AJGT[['Feed', 'Sentiment']]\n", + "df_AJGT.columns = [DATA_COLUMN, LABEL_COLUMN]\n", + "\n", + "label_map = {\n", + " 'Negative' : 0,\n", + " 'Positive' : 1\n", + "}\n", + "\n", + "df_AJGT[DATA_COLUMN] = df_AJGT[DATA_COLUMN].apply(lambda x: preprocess(x, do_farasa_tokenization=True , farasa=farasa_segmenter, use_farasapy = True))\n", + "df_AJGT[LABEL_COLUMN] = df_AJGT[LABEL_COLUMN].apply(lambda x: label_map[x])\n", + "\n", + "\n", + "train_AJGT, test_AJGT = train_test_split(df_AJGT, test_size=0.2,random_state=42)" + ], + "execution_count": 5, + "outputs": [ + { + "output_type": "stream", + "text": [ + "perform system check...\n", + "check java version...\n", + "Your java version is 11.0 which is compatiple with Farasa \n", + "check toolkit binaries...\n", + "some binaries are not existed..\n", + "downloading zipped binaries...\n", + "100%|██████████| 200M/200M [00:03<00:00, 56.3MiB/s]\n", + "extracting...\n", + "toolkit binaries are downloaded and extracted.\n", + "Dependencies seem to be satisfied..\n", + "\u001b[37minitializing [SEGMENT] task in \u001b[32mINTERACTIVE \u001b[37mmode...\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/farasa/__base.py:40: UserWarning: Be careful with large lines as they may break on interactive mode. You may switch to Standalone mode for such cases.\n", + " warnings.warn(\"Be careful with large lines as they may break on interactive mode. You may switch to Standalone mode for such cases.\")\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "task [SEGMENT] is initialized interactively.\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "8DiGo8MkUN2B", + "colab_type": "code", + "colab": {} + }, + "source": [ + "%load_ext google.colab.data_table" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "YMGa-giVK6Ce", + "colab_type": "code", + "outputId": "db995400-ccc2-413a-a7ac-d0c4ff5d36f4", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 623 + } + }, + "source": [ + "test_AJGT" + ], + "execution_count": 7, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "application/vnd.google.colaboratory.module+javascript": "\n import \"https://ssl.gstatic.com/colaboratory/data_table/a6224c040fa35dcf/data_table.js\";\n\n window.createDataTable({\n data: [[{\n 'v': 1591,\n 'f': \"1591\",\n },\n\"\\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u062d\\u0631\\u0627\\u0645 \\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0645\\u0648\\u062a\\u0648 +\\u0647 \\u0644+ \\u0634\\u0639\\u0628 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646\\u064a \\u0645\\u0646 \\u0648\\u064a\\u0646 \\u0628\\u062f\\u0646 +\\u0627 \\u0646\\u062c\\u064a\\u0628 \\u0627\\u0644+ \\u0643\\u0648 \\u0645\\u0646 \\u0648\\u064a\\u0646 \\u064a\\u0627 \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0631\\u062d\\u0645\\u0648 \\u0645\\u0646 \\u0641\\u064a \\u0627\\u0644+ \\u0623\\u0631\\u0636 \\u064a\\u0631\\u062d\\u0645\\u0643\\u0645 \\u0645\\u0646 \\u0641\\u064a \\u0627\\u0644+ \\u0633\\u0645\\u0627\\u0621 \\u0627\\u0644\\u0644\\u0647 \\u062d\\u0631\\u0627\\u0645\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 943,\n 'f': \"943\",\n },\n\"\\u0635\\u0628\\u0627\\u062d \\u0643+ \\u0633\\u0639\\u064a\\u062f\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 869,\n 'f': \"869\",\n },\n\"\\u0634\\u062e\\u0635\\u064a +\\u0647 \\u062a\\u0627\\u0641\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 162,\n 'f': \"162\",\n },\n\"\\u0627\\u0644+ \\u062d\\u0642 \\u0645\\u0634 \\u0639\\u0644\\u0649 \\u0644+ \\u062c\\u0646 +\\u0647 \\u0627\\u0644+ \\u062a\\u062d\\u0643\\u064a\\u0645 \\u0627\\u0644+ \\u062d\\u0642 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u0627\\u063a\\u0628\\u064a\\u0647 \\u0627\\u0644+ \\u0645\\u0634\\u062a\\u0631\\u0643 +\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1271,\n 'f': \"1271\",\n },\n\"\\u0644+ \\u0645\\u0627 \\u062a\\u0643\\u062b\\u0631 \\u0639\\u0644\\u064a\\u0627 \\u0627\\u0644+ \\u0627\\u0644\\u062a\\u0632\\u0627\\u0645 +\\u0627\\u062a \\u064a\\u0635\\u064a\\u0631 \\u0643\\u0644 \\u0627\\u0644\\u0644\\u064a \\u0646\\u0641\\u0633 +\\u064a \\u0627\\u0633\\u0648 +\\u064a +\\u0647 \\u0627\\u0633\\u062a\\u0644\\u0642\\u064a \\u0639\\u0644\\u0649 \\u0638\\u0647\\u0631\\u064a \\u0648+ \\u0627\\u0633\\u0648\\u0644\\u0641 \\u0644+ \\u0627\\u0644+ \\u0633\\u0645\\u0627\\u0621\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 70,\n 'f': \"70\",\n },\n\"\\u0627\\u0633\\u0648\\u0621 \\u0634\\u0639\\u0648\\u0631 \\u0644+ \\u0645\\u0627 \\u062a\\u062a\\u0627\\u0633\\u0641 \\u0648+ \\u062a\\u0646\\u062f\\u0645 \\u0639\\u0644\\u0649 \\u0634\\u064a\\u0621 \\u0645\\u0627 \\u0633\\u0648\\u064a +\\u062a +\\u0647 \\u0644+ \\u0645\\u0627 \\u0643\\u0627\\u0646 +\\u062a \\u0627\\u0644+ \\u0641\\u0631\\u0635\\u0647 \\u0645\\u062a\\u0627\\u062d +\\u0647 \\u0627\\u0645\\u0627\\u0645 \\u0643+ .\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 247,\n 'f': \"247\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644\\u0644\\u0647 \\u064a\\u062d\\u0641\\u0638\\u0643 \\u064a\\u0627 \\u0645\\u0645\\u0644\\u0643 +\\u0647 \\u0627\\u0644+ \\u0627\\u0646\\u0633\\u0627\\u0646\\u064a\\u0647 \\u0644\\u0645 \\u062a\\u0642\\u062a\\u0635\\u0631 \\u0645\\u0633\\u0627\\u0639\\u062f +\\u0647 \\u0627\\u0644+ \\u0633\\u0648\\u0631\\u064a +\\u064a\\u0646 \\u0641\\u064a \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0639\\u0644\\u064a \\u0627\\u0644+ \\u0645\\u0639\\u0648\\u0646 +\\u0627\\u062a \\u0627\\u0644+ \\u063a\\u0630\\u0627\\u064a\\u064a\\u0647 \\u0623\\u0648 \\u0627\\u0644\\u0637\\u0628\\u064a +\\u0647 \\u0628\\u0644 \\u062d\\u062a\\u064a \\u0634\\u0646\\u0637 \\u0645\\u062f\\u0627\\u0631\\u0633 \\u0627\\u0644+ \\u0623\\u0637\\u0641\\u0627\\u0644 \\u0628+ \\u0643\\u0644 \\u0634\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 322,\n 'f': \"322\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u062c\\u0639\\u0644 +\\u0646\\u0627 \\u0645\\u0646 \\u064a\\u062a\\u0645\\u062a\\u0639 +\\u0648\\u0646 \\u0628+ \\u0631\\u0648\\u062d \\u0648+ \\u0631\\u064a\\u062d\\u0627\\u0646 \\u0648+ \\u062c\\u0646 +\\u0647 \\u0627\\u0644+ \\u0646\\u0639\\u064a\\u0645 \\u0645\\u0646 \\u0627\\u0644+ \\u0631\\u062d\\u0645\\u0646 \\u0635\\u0628\\u0627\\u062d +\\u0643\\u0645 \\u0642\\u0637\\u0631 +\\u0627\\u062a \\u0645\\u0646 \\u0646\\u062f\\u0649 \\u0627\\u0644+ \\u0623\\u0632\\u0647\\u0627\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1659,\n 'f': \"1659\",\n },\n\"\\u0648+ \\u0644\\u0643\\u0646 \\u0643\\u064a\\u0641 +\\u0627\\u0646 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0627\\u0644+ \\u0646\\u0648\\u0648\\u064a \\u063a\\u064a\\u0631 \\u0645\\u0636\\u0631 \\u0628+ \\u0627\\u0644+ \\u0628\\u064a\\u0626\\u0647 \\u0641\\u0647\\u0645\\u0646\\u064a \\u061f\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1004,\n 'f': \"1004\",\n },\n\"\\u0639\\u0627\\u0647 +\\u0627\\u062a \\u0648+ \\u0639\\u0647\\u062f \\u0627\\u0644\\u0644\\u0647 \\u0639\\u0627\\u0647 +\\u0627\\u062a \\u0623\\u064a \\u0627\\u0644\\u0644\\u064a \\u062e\\u0644\\u0627 +\\u0647\\u0645 \\u064a\\u063a\\u0646\\u0648 \\u062f\\u0648\\u0644\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1662,\n 'f': \"1662\",\n },\n\"\\u0648+ \\u0645\\u0627\\u0630\\u0627 \\u0639\\u0646 \\u0627\\u0644+ \\u062a\\u0641\\u0627\\u0624\\u0644 \\u0641\\u064a \\u064a\\u0648\\u0645 \\u0631\\u0628\\u064a\\u0639\\u064a \\u062c\\u0645\\u064a\\u0644 \\u0646\\u062d\\u0642\\u0642 \\u0628+ +\\u0647 \\u0627\\u0644+ \\u0622\\u0645\\u0627\\u0644 \\u0627\\u0644+ \\u0637\\u0648\\u0627\\u0644\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 909,\n 'f': \"909\",\n },\n\"\\u0635\\u0628\\u0627\\u062d \\u0627\\u0644+ \\u062a\\u0641\\u0643\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1225,\n 'f': \"1225\",\n },\n\"\\u0644\\u0627 \\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0645\\u0627 +\\u0647\\u0645 \\u0627\\u0644\\u0644\\u064a \\u0645\\u0633\\u062e\\u0631 +\\u0647 \\u0623\\u0646\\u0627 \\u0627\\u0644\\u0644\\u064a \\u0645\\u0633\\u062e\\u0631 +\\u0647 \\u0627\\u0644\\u0644\\u064a \\u062a\\u0641\\u0631\\u062c +\\u062a \\u0639\\u0644\\u064a +\\u0647\\u0645\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 901,\n 'f': \"901\",\n },\n\"\\u0634\\u064a\\u0626 \\u0645\\u0624\\u0633\\u0641 \\u0627\\u0644\\u0644\\u0647 \\u064a\\u0647\\u062f\\u064a\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 591,\n 'f': \"591\",\n },\n\"\\u0628+ \\u062a\\u062e\\u0627\\u0641\\u0649 \\u062d\\u062f \\u064a\\u0627\\u062e\\u062f \\u0645\\u0643\\u0627\\u0646 \\u0643+ \\u0645\\u0639 +\\u0627\\u0646 \\u0643+ \\u0645\\u0627\\u0644\\u0643\\u064a\\u0634 \\u0645\\u0643\\u0627\\u0646 \\u0623\\u0635\\u0644 +\\u0627\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1273,\n 'f': \"1273\",\n },\n\"\\u0644\\u0646 \\u064a\\u0642\\u0641\\u0644 \\u0628\\u0627\\u0628 \\u0645\\u062f\\u064a\\u0646 +\\u062a +\\u0646\\u0627 \\u0641+ \\u0623\\u0646\\u0627 \\u0630\\u0627\\u0647\\u0628 +\\u0647 \\u0644+ \\u0627\\u0635\\u0644\\u064a \\u0633\\u0627\\u062f\\u0642 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u0623\\u0628\\u0648\\u0627\\u0628 \\u0648+ \\u0633\\u0627\\u0641\\u062a\\u062d\\u0647\\u0627 \\u0627\\u0644+ \\u0623\\u0628\\u0648\\u0627\\u0628 \\u0648+ \\u0633+ \\u062a\\u063a\\u0633\\u0644 \\u064a\\u0627 \\u0646\\u0647\\u0631 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0648\\u062c\\u0647 +\\u064a \\u0628+ \\u0645\\u064a\\u0627\\u0647 \\u0642\\u062f\\u0633\\u064a +\\u0647 \\u0648+ \\u0633+ \\u062a\\u0645\\u062d\\u0648 \\u064a\\u0627 \\u0646\\u0647\\u0631 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0627\\u062b\\u0627\\u0631 \\u0627\\u0644+ \\u0642\\u062f\\u0645 \\u0627\\u0644+ \\u0647\\u0645\\u062c\\u064a\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 554,\n 'f': \"554\",\n },\n\"\\u0627\\u0647 \\u064a\\u0627 \\u0623\\u0628\\u0648 \\u0627\\u0644+ \\u0642\\u0645\\u0644\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1061,\n 'f': \"1061\",\n },\n\"\\u0641\\u062a\\u062d +\\u0647 \\u0646\\u0635\\u0631 +\\u0647 \\u0646\\u0648\\u0631 +\\u0647 \\u0628\\u0631\\u0643 +\\u062a +\\u0647 \\u0647\\u062f\\u0627 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 529,\n 'f': \"529\",\n },\n\"\\u0623\\u0646\\u062a \\u0645\\u0627 \\u0634\\u0641\\u062a \\u0627\\u0644+ \\u0646\\u0633\\u062e\\u0647 \\u0627\\u0644+ \\u0627\\u0648\\u0631\\u0648\\u0628\\u064a\\u0647 \\u0648+ \\u0627\\u0644\\u0627\\u0645\\u0631\\u064a\\u0643\\u064a\\u0647 \\u0648+ \\u0627\\u0644+ \\u0645\\u0627\\u0644\\u064a\\u0632\\u064a\\u0647 \\u0645\\u0646 \\u0646\\u0641\\u0633 \\u0627\\u0644+ \\u0628\\u0631\\u0646\\u0627\\u0645\\u062c \\u0641\\u064a +\\u0647\\u0627 \\u0628+ \\u0644\\u0627\\u0648\\u064a \\u0623\\u0643\\u062b\\u0631 \\u0645\\u0646 \\u0643\\u0630\\u0627 \\u0628\\u0633 \\u062d\\u0646\\u0627 \\u0627\\u0644+ \\u0639\\u0631\\u0628 \\u0641\\u064a +\\u0646\\u0627 \\u0639\\u0642\\u062f +\\u0647 \\u0627\\u0644+ \\u0646\\u0642\\u0635 \\u0648+ \\u0627\\u0644+ \\u062a\\u062e\\u0644\\u0641\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1719,\n 'f': \"1719\",\n },\n\"\\u064a\\u0627 \\u0641\\u0636\\u064a\\u062d +\\u062a \\u0643+ \\u064a\\u0627 \\u0644\\u0628\\u0646\\u0627\\u0646 \\u0628+ \\u0647\\u064a \\u0643+ \\u0639\\u0627\\u0644\\u0645 \\u0627\\u0645\\u0627 \\u0647\\u064a\\u062f\\u0627 \\u0633\\u0643\\u062a +\\u0627\\u0646 +\\u064a \\u0648+ \\u0644\\u0643 \\u062f\\u062e\\u064a\\u0644 \\u0627\\u0644\\u0644\\u0647 \\u062e\\u0644\\u064a\\u0643 \\u0633\\u0627\\u0643\\u062a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 721,\n 'f': \"721\",\n },\n\"\\u062d\\u0641\\u0638 \\u0633\\u0648\\u0631 \\u062c\\u062f\\u064a\\u062f +\\u0647 \\u062a\\u0633\\u0645\\u064a\\u0639 +\\u0647\\u0627 \\u0641\\u064a \\u0627\\u0644+ \\u0635\\u0644\\u0627\\u0647 \\u064a\\u0633\\u0627\\u0639\\u062f \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u062a\\u0631\\u0643\\u064a\\u0632\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 561,\n 'f': \"561\",\n },\n\"\\u0623\\u0647\\u0645 \\u0627\\u0634\\u064a \\u0623\\u0643\\u0648\\u0646 \\u0645\\u0628\\u0633\\u0648\\u0637\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 538,\n 'f': \"538\",\n },\n\"\\u0627\\u0646\\u062a +\\u0647 \\u0648+ \\u0627\\u0644+ \\u0645\\u0639\\u0643 \\u0643\\u0644 +\\u0647\\u0645 \\u0633\\u0627\\u0641\\u0644 +\\u064a\\u0646 \\u0648+ \\u0648\\u0642\\u062d +\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1253,\n 'f': \"1253\",\n },\n\"\\u0644+ \\u0639\\u0646 \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644+ \\u0645\\u062a\\u0634\\u0628\\u0647 +\\u064a\\u0646 \\u0645\\u0646 \\u0627\\u0644+ \\u0631\\u062c\\u0627\\u0644 \\u0644+ \\u0627\\u0644+ \\u0646\\u0633\\u0627\\u0621\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 495,\n 'f': \"495\",\n },\n\"\\u0623\\u0646\\u0627 \\u0623\\u0631\\u062f\\u0646\\u064a \\u0628+ \\u0642\\u0648\\u0644 \\u0627\\u0644+ \\u0634\\u0639\\u0628 \\u0628+ \\u064a\\u0633\\u062a\\u0627\\u0647\\u0644 \\u063a\\u0644\\u0627 \\u0623\\u0643\\u062b\\u0631 \\u0645\\u0646 \\u0647\\u064a \\u0643+\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 650,\n 'f': \"650\",\n },\n\"\\u062a\\u062d\\u064a +\\u0647 \\u0644+ \\u0623\\u0647\\u0644 \\u0641\\u0644\\u0633\\u0637\\u064a\\u0646 \\u0627\\u0644+ \\u063a\\u0627\\u0644\\u064a\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 715,\n 'f': \"715\",\n },\n\"\\u062d\\u0633\\u0628 +\\u064a \\u0627\\u0644\\u0644\\u0647 \\u0646\\u0639\\u0645 \\u0627\\u0644+ \\u0648\\u0643\\u064a\\u0644 \\u0641\\u064a \\u0643\\u0644 \\u0638\\u0627\\u0644\\u0645 \\u0645\\u0641\\u062a\\u0631\\u064a \\u0627\\u0644\\u0644\\u0647 \\u064a\\u0639\\u064a\\u0646 \\u0627\\u0644+ \\u0634\\u0639\\u0628\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 530,\n 'f': \"530\",\n },\n\"\\u0623\\u0646\\u062a \\u0645\\u0648 \\u0623\\u0646\\u062a \\u0623\\u0646\\u062a \\u062c\\u0648\\u0639\\u0627\\u0646 \\u0643\\u0644 \\u0634\\u0648\\u0643\\u0648\\u0644\\u0627\\u062a +\\u0647 \\u0627\\u0641\\u0631\\u062d\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1573,\n 'f': \"1573\",\n },\n\"\\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644+ \\u0631\\u0633\\u0627\\u0644\\u0647 \\u062f\\u064a \\u062c\\u0627\\u062a\\u0644\\u064a \\u0641\\u064a \\u0648\\u0642\\u062a +\\u0647\\u0627 \\u0642\\u0648\\u0644 +\\u062a \\u0623\\u0643\\u064a\\u062f \\u0631\\u0628 +\\u0646\\u0627 \\u0628\\u0639\\u062a\\u0647\\u0627\\u0644\\u064a \\u0627\\u0644+ \\u062d\\u0645\\u062f \\u0644+ \\u0627\\u0644\\u0644\\u0647 \\u0648\\u062e +\\u0627\\u062a \\u0627\\u0644+ \\u0642\\u0631\\u0627\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1582,\n 'f': \"1582\",\n },\n\"\\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0646\\u0648 \\u0645\\u0643\\u0628 \\u0646\\u0641\\u0627\\u064a +\\u0627\\u062a \\u0646\\u0648\\u0648\\u064a +\\u0647 \\u0623\\u0646\\u0627 \\u0627\\u0634\\u062a\\u063a\\u0644 +\\u062a \\u0628+ \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0645\\u0648\\u0642\\u0639 +\\u0647 \\u0628+ \\u0639\\u0644\\u0627\\u0646 \\u0628+ \\u0627\\u0644+ \\u0633\\u0644\\u0637\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1723,\n 'f': \"1723\",\n },\n\"\\u064a\\u0627 \\u0645\\u0642\\u0644\\u0628 \\u0627\\u0644+ \\u0642\\u0644\\u0648\\u0628 \\u062b\\u0628\\u062a \\u0642\\u0644\\u0648\\u0628 +\\u0646\\u0627 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u0625\\u0633\\u0644\\u0627\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1298,\n 'f': \"1298\",\n },\n\"\\u0644+ \\u064a\\u0634 \\u0647\\u064a \\u0643+ \\u0645\\u0639\\u062c\\u0628 +\\u064a\\u0646 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 471,\n 'f': \"471\",\n },\n\"\\u0627\\u0645\\u0627 \\u0641\\u064a \\u0627\\u0644+ \\u062f\\u064a\\u0646 \\u0641\\u062a\\u0635\\u064a\\u0631 \\u0627\\u062e\\u0648 +\\u0647 \\u0641\\u064a \\u0627\\u0644\\u0644\\u0647 \\u0648+ \\u0647\\u064a \\u0627\\u0631\\u0642\\u0649 \\u0627\\u0644+ \\u0639\\u0644\\u0627\\u0642 +\\u0627\\u062a \\u0627\\u0644+ \\u0627\\u0646\\u0633\\u0627\\u0646\\u064a\\u0647 \\u0628+ \\u0635\\u062d\\u064a\\u062d \\u0627\\u0644+ \\u062d\\u062f\\u064a\\u062b \\u0631\\u0628 \\u0623\\u062e \\u0644\\u0645 \\u062a\\u0644\\u062f +\\u0647 \\u0627\\u0645\\u0643\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1344,\n 'f': \"1344\",\n },\n\"\\u0645\\u0627\\u062e\\u0627\\u0628 \\u0645\\u0646 \\u062f\\u0639\\u0627 \\u0627\\u0644\\u0649 \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 289,\n 'f': \"289\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u064a\\u0633\\u0627\\u0645\\u062d\\u0643 \\u062d\\u0628\\u064a\\u0628 +\\u062a +\\u064a \\u0627\\u0641\\u0647\\u0645\\u062a\\u064a\\u0646\\u064a \\u063a\\u0644\\u0637\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1561,\n 'f': \"1561\",\n },\n\"\\u0648+ \\u0627\\u062f\\u0645 \\u0639\\u0644\\u064a +\\u0646\\u0627 \\u064a\\u0627\\u0631\\u0628 \\u0646\\u0639\\u0645 +\\u0647 \\u0627\\u0644+ \\u0623\\u0645\\u0646 \\u0648+ \\u0627\\u0644+ \\u0627\\u0645\\u0627\\u0646 \\u0648+ \\u0633\\u0627\\u0626\\u0631 \\u0628\\u0644\\u0627\\u062f \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1633,\n 'f': \"1633\",\n },\n\"\\u0648+ \\u0631\\u0628\\u064a \\u0639\\u0627\\u0647 +\\u0627\\u062a \\u0645\\u0633\\u062a\\u0639\\u0635\\u064a +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 619,\n 'f': \"619\",\n },\n\"\\u0628\\u0639\\u062f \\u0639\\u0646 \\u0627\\u0644+ \\u062a\\u0634\\u0627\\u0624\\u0645 \\u0648+ \\u0639\\u064a\\u0634 \\u064a\\u0648\\u0645 \\u0643+ \\u0628+ \\u0627\\u0644+ \\u062a\\u0641\\u0627\\u0624\\u0644 \\u0644+ \\u063a\\u062f \\u0627\\u062d\\u0644\\u0649\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1427,\n 'f': \"1427\",\n },\n\"\\u0645\\u0646 \\u0632\\u0645\\u0627\\u0646 \\u0645\\u0627 \\u0634\\u0641\\u062a \\u0645\\u062e\\u0644\\u0648\\u0642 +\\u0627\\u062a \\u0641\\u0636\\u0627\\u0626\\u064a +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 660,\n 'f': \"660\",\n },\n\"\\u062a\\u0636\\u062d\\u0643 \\u0643\\u0627\\u0646 +\\u0647\\u0627 \\u0645\\u0641\\u062c\\u0648\\u0639 +\\u0647 \\u0645\\u0646 \\u0634\\u064a\\u0626\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1486,\n 'f': \"1486\",\n },\n\"\\u0646\\u0641\\u0633 +\\u064a \\u064a\\u0648\\u0645 \\u0623\\u0643\\u0644 \\u0648+ \\u0623\\u0646\\u0627 \\u0645\\u0634 \\u0645\\u0633\\u062a\\u0639\\u062c\\u0644 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1355,\n 'f': \"1355\",\n },\n\"\\u0645\\u0628\\u0627\\u0631\\u0643 \\u0627\\u0644+ \\u0641\\u0648\\u0632\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1740,\n 'f': \"1740\",\n },\n\"\\u064a\\u0627\\u0631\\u0628 \\u0627\\u0647\\u062f\\u064a \\u0628\\u0646 +\\u0627\\u062a \\u0648+ \\u0634\\u0628\\u0627\\u0628 \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646 \\u0627\\u0644\\u064a \\u0645\\u0627 \\u064a\\u0631\\u0636\\u064a \\u0643+ \\u0639\\u0646 +\\u0647\\u0645 \\u0648+ \\u0643+ \\u0641\\u064a +\\u0647\\u0645 \\u0634\\u0631 \\u0641\\u062a\\u0646 \\u0627\\u0644+ \\u062f\\u0646\\u064a\\u0627 \\u0648+ \\u0627\\u0644+ \\u0627\\u062e\\u0631\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 352,\n 'f': \"352\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0633\\u0645\\u0639 +\\u0646\\u0627 \\u062e\\u064a\\u0631 \\u0647\\u0630\\u0627 \\u0627\\u0644+ \\u064a\\u0648\\u0645 \\u0648+ \\u0645\\u0627 \\u0628\\u0639\\u062f +\\u0647 \\u0648+ \\u0627\\u0641\\u062a\\u062d \\u0644+ +\\u0646\\u0627 \\u0623\\u0628\\u0648\\u0627\\u0628 \\u0631\\u0632\\u0642 \\u0643+ \\u0648+ \\u0631\\u062d\\u0645 +\\u062a \\u0643+\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 551,\n 'f': \"551\",\n },\n\"+\\u0627\\u0646 +\\u0647 \\u063a\\u064a\\u0631 \\u0645\\u0633\\u0644\\u0645 \\u0648+ \\u064a\\u0639\\u0631\\u0641 \\u0642\\u0644\\u0628 +\\u0647 \\u0627\\u0644+ \\u0648\\u0641\\u0627\\u0621 \\u0641+ \\u0643\\u064a\\u0641 \\u062d\\u0627\\u0644 \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646 \\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0631\\u0632\\u0642 \\u0628\\u0646 +\\u0627\\u062a \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646 \\u0632\\u0648\\u062c +\\u0627 \\u0637\\u064a\\u0628 +\\u0627 \\u0645\\u062d\\u0628 +\\u0627 \\u0645\\u062b\\u0644 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 65,\n 'f': \"65\",\n },\n\"\\u0627\\u0633\\u062a\\u0648\\u062f\\u0639 +\\u0643\\u0645 \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644\\u0630\\u064a \\u0644\\u0627 \\u062a\\u0636\\u064a\\u0639 \\u0648\\u062f\\u0627\\u0626\\u0639 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1348,\n 'f': \"1348\",\n },\n\"\\u0645\\u0627\\u0641\\u0649 \\u0623\\u062c\\u0645\\u0644 \\u0645\\u0646 \\u0642\\u0648\\u0644 +\\u0647 \\u064a\\u0627\\u0631\\u0628 \\u0648+ \\u0645\\u0646 \\u064a\\u062a\\u062c\\u0647 \\u0627\\u0644\\u0649 \\u0627\\u0644\\u0644\\u0647 \\u0639\\u0632 \\u0648+ \\u062c\\u0644 \\u0644\\u0646 \\u064a\\u062a\\u0631\\u0643 +\\u0647 \\u0627\\u0644\\u0644\\u0647 \\u0623\\u0628\\u062f +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 324,\n 'f': \"324\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u062c\\u0639\\u0644\\u0646\\u0649 \\u062e\\u064a\\u0631 +\\u0627 \\u0645\\u0645\\u0627 \\u064a\\u0638\\u0646 +\\u0648\\u0646 \\u0627\\u063a\\u0641\\u0631 \\u0644\\u064a \\u0645\\u0627 \\u0644\\u0627 \\u064a\\u0639\\u0644\\u0645 +\\u0648\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1134,\n 'f': \"1134\",\n },\n\"\\u0643\\u062b\\u0631 \\u0627\\u0644+ \\u0643\\u0644\\u0627\\u0645 \\u0641\\u064a \\u0647\\u0630\\u0627\\u0646 \\u0627\\u0644+ \\u0645\\u0648\\u0636\\u0648\\u0639 +\\u064a\\u0646 \\u0648+ \\u0644\\u0645 \\u064a\\u062a\\u062d\\u0642\\u0642 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u0648\\u0627\\u0642\\u0639 \\u0634\\u064a \\u0623\\u0635\\u0628\\u062d \\u0627\\u0644+ \\u0645\\u0648\\u0627\\u0637\\u0646 \\u064a\\u062a\\u0628\\u0639 \\u0633\\u0631\\u0627\\u0628\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1643,\n 'f': \"1643\",\n },\n\"\\u0648\\u0634 \\u064a\\u062d\\u0633\\u0648 +\\u0646 \\u0641\\u064a +\\u0647 \\u0646\\u0627\\u0633 \\u0645\\u0647\\u0628\\u0644\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 251,\n 'f': \"251\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u0623\\u064a \\u0627\\u0644+ \\u062c\\u0645\\u0627\\u0644 \\u062f\\u0647 \\u0633\\u0628\\u062d\\u0627\\u0646 \\u0643+ \\u0631\\u0628 +\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1353,\n 'f': \"1353\",\n },\n\"\\u0645\\u0627\\u0644\\u0643\\u064a\\u0634 \\u0641+ \\u0627\\u0644+ \\u0637\\u064a\\u0628 \\u0646\\u0635\\u064a\\u0628\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 610,\n 'f': \"610\",\n },\n\"\\u0628\\u0633 \\u0627\\u0644\\u0644\\u064a \\u0642\\u0627\\u0647\\u0631\\u0646\\u064a \\u0627\\u0644\\u0644\\u064a \\u0645\\u0627 \\u064a\\u0646\\u0637\\u0642 +\\u0648\\u0646 \\u062d\\u0631\\u0641 \\u0627\\u0644+ \\u0631\\u0627\\u0621 \\u0627\\u0644+ \\u062a\\u063a \\u0645\\u0646 \\u062c\\u062f +\\u0647\\u0645 \\u062c\\u0627\\u064a\\u064a\\u0646 \\u064a\\u0628\\u0648\\u0646 \\u064a\\u063a\\u0646 +\\u0648\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1370,\n 'f': \"1370\",\n },\n\"\\u0645\\u062d\\u0638\\u0648\\u0638 +\\u0647 \\u0647\\u064a \\u062a\\u0644\\u0643 \\u0627\\u0644+ \\u0641\\u062a\\u0627\\u0647 \\u0627\\u0644\\u062a\\u064a \\u0633\\u0627\\u0646\\u0642\\u0644 \\u0645\\u0644\\u0627\\u0628\\u0633 +\\u064a \\u0645\\u0646 \\u063a\\u0633\\u0627\\u0644 +\\u0647 \\u0627\\u0645\\u064a \\u0627\\u0644\\u0649 \\u063a\\u0633\\u0627\\u0644 +\\u062a +\\u0647\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 678,\n 'f': \"678\",\n },\n\"\\u062b\\u0642\\u064a\\u0644 +\\u064a\\u0646 \\u062f\\u0645 \\u0643\\u062b\\u064a\\u0631\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1336,\n 'f': \"1336\",\n },\n\"\\u0645\\u0627 \\u0641\\u064a \\u0627\\u062d\\u0644\\u0649 \\u0645\\u0646 +\\u0627\\u0646 +\\u0647 \\u0627\\u0644+ \\u0648\\u0627\\u062d\\u062f \\u064a\\u0648\\u0643\\u0644 \\u0648+ \\u064a\\u0646\\u0627\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1339,\n 'f': \"1339\",\n },\n\"\\u0645\\u0627 \\u0647\\u064a \\u0643+ \\u0628\\u064a\\u0642\\u0648\\u0644 +\\u0648\\u0627 \\u0644+ \\u0627\\u0644+ \\u0627\\u0633\\u0641 \\u0645\\u0627 \\u0639\\u062c\\u0628 +\\u062a \\u062d\\u062f +\\u0627 \\u0623\\u0646\\u062a \\u062c\\u0627\\u0647\\u0644 \\u064a\\u0627 \\u0647\\u0630\\u0627 \\u0644\\u064a\\u0633 \\u0647\\u0643\\u0630\\u0627 \\u062a\\u062f\\u0639\\u0648 \\u0627\\u0644+ \\u0646\\u0627\\u0633 \\u0644+ \\u0642\\u0648\\u0644 \\u0644\\u0627 \\u0627\\u0644\\u0647 \\u0627\\u0644\\u0627 \\u0627\\u0644\\u0644\\u0647 \\u0645\\u062d\\u0645\\u062f \\u0631\\u0633\\u0648\\u0644 \\u0627\\u0644\\u0644\\u0647 \\u0623\\u0646\\u062a \\u063a\\u0628\\u064a \\u064a\\u0627 \\u0635\\u0627\\u062d\\u0628\\u0644 \\u0647\\u0630\\u0627 \\u0627\\u0644+ \\u0628\\u0648\\u0633\\u062a \\u0644\\u0627 \\u062a\\u0641\\u0642\\u0647 \\u0634\\u064a\\u0626 +\\u0627 \\u0645\\u0646 \\u0627\\u0644+ \\u0639\\u0644\\u0645 \\u0627\\u0644+ \\u062f\\u064a\\u0646 \\u0623\\u0646\\u062a \\u0647\\u064a \\u0643+ \\u062a\\u0628\\u064a\\u0646 +\\u0627\\u0646 \\u0643+ \\u0641\\u064a \\u0642\\u0645 +\\u0647 \\u0627\\u0644+ \\u062c\\u0647\\u0644 \\u0627\\u0644+ \\u0639\\u0627\\u0631 \\u0642\\u0644 \\u0643\\u0644\\u0627\\u0645 +\\u0627 \\u062c\\u064a\\u062f +\\u0627 \\u0645\\u062d\\u0628\\u0628 +\\u0627 \\u0644\\u0627 \\u062a\\u062a\\u0644\\u0641\\u0638 \\u0628+ \\u0627\\u0644+ \\u0643\\u0644\\u0627\\u0645 \\u0627\\u0644+ \\u0633\\u064a\\u0626 \\u0625\\u0646\\u0645\\u0627 \\u062a\\u0639\\u062c\\u0628 +\\u0646\\u0627 \\u0643\\u0644 +\\u0646\\u0627 \\u0644\\u0648 \\u0642\\u0644 +\\u062a \\u0627\\u0646\\u0637\\u0642 +\\u0648\\u0627 \\u0628+ \\u0627\\u0644+ \\u0634\\u0647\\u0627\\u062f +\\u062a +\\u064a\\u0646 \\u064a\\u0627 \\u0627\\u0648\\u0644\\u064a \\u0627\\u0644+ \\u0627\\u0644\\u0628\\u0627\\u0628\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 29,\n 'f': \"29\",\n },\n\"\\u0623\\u062d\\u0645\\u062f \\u0627\\u0644\\u0644\\u0647 \\u062a\\u0639\\u0627\\u0644\\u0649 +\\u0627\\u0646 \\u0623\\u0648\\u0644\\u0627\\u062f +\\u064a \\u0644\\u0627\\u064a\\u062f\\u0631\\u0633\\u0648\\u0646 \\u0641\\u064a \\u0645\\u062f\\u0627\\u0631\\u0633 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 .\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1121,\n 'f': \"1121\",\n },\n\"\\u0642\\u0648\\u0644\\u0649 \\u064a\\u0627\\u0631\\u0628 \\u062b\\u0645 \\u062a\\u0648\\u0643\\u0644\\u0649 \\u0639\\u0644\\u064a +\\u0647 +\\u0627\\u0646 +\\u0647 \\u0646\\u0639\\u0645 \\u0627\\u0644+ \\u0645\\u0648\\u0644\\u0649 \\u0646\\u0639\\u0645 \\u0627\\u0644+ \\u0648\\u0643\\u064a\\u0644 \\u0627\\u062d\\u062a\\u0633\\u0628\\u0649 \\u0639\\u0646\\u062f +\\u0647 \\u0645\\u0627 \\u062a\\u0638\\u0646\\u064a\\u0646 +\\u0627\\u0646 \\u0643+ \\u0644\\u0627 \\u062a\\u0642\\u062f\\u0631 +\\u064a\\u0646 \\u0639\\u0644\\u064a +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1709,\n 'f': \"1709\",\n },\n\"\\u064a\\u0627 \\u0631\\u064a +\\u062a \\u0643+ \\u0645\\u0627 \\u0643\\u0628\\u0631 +\\u062a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 135,\n 'f': \"135\",\n },\n\"\\u0627\\u0644+ \\u0625\\u0633\\u0644\\u0627\\u0645 \\u0646\\u0639\\u0645 +\\u0647 \\u0643\\u0628\\u064a\\u0631 +\\u0647 \\u0645\\u0646 \\u0639\\u0646\\u062f \\u0631\\u0628 +\\u0646\\u0627 \\u0644\\u0627 \\u062a\\u0642\\u062f\\u0631 \\u0628+ \\u0643\\u0646\\u0648\\u0632 \\u0627\\u0644+ \\u062f\\u0646\\u064a\\u0627 \\u0643\\u0644 +\\u0647\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 651,\n 'f': \"651\",\n },\n\"\\u062a\\u062d\\u064a +\\u0647 \\u0645\\u062d\\u0628 +\\u0647 \\u0648+ \\u0633\\u0644\\u0627\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1649,\n 'f': \"1649\",\n },\n\"\\u0648+ \\u0644\\u0627 \\u0623\\u0646\\u0627 \\u0635\\u0648\\u0631\\u062a\\u064a \\u0643\\u0630\\u0627 \\u0627\\u062c\\u064a \\u0627\\u0647\\u0628\\u0627\\u0644 \\u0647\\u0648\\u0648\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 680,\n 'f': \"680\",\n },\n\"\\u062c\\u0627\\u0628\\u0648 \\u0627\\u0644+ \\u0645\\u0633\\u062e\\u0631\\u0647 \\u0644+ \\u0646\\u0641\\u0633 +\\u0647\\u0645 \\u0627\\u0644\\u0644\\u0647 \\u0644+ \\u0627\\u064a\\u0631\\u062f +\\u0647\\u0645\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1672,\n 'f': \"1672\",\n },\n\"\\u0648+ \\u0647\\u0627\\u064a \\u0627\\u0644+ \\u0645\\u0636\\u0631\\u0648\\u0628\\u0647 \\u062c\\u0627\\u064a\\u062e +\\u0647 \\u0639\\u0644\\u0649 \\u0648\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1454,\n 'f': \"1454\",\n },\n\"\\u0646\\u0627\\u0633 \\u0645\\u0637\\u0641\\u0631 +\\u0647 \\u0645\\u0646 \\u0627\\u0644+ \\u0622\\u062e\\u0631\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1493,\n 'f': \"1493\",\n },\n\"\\u0647\\u0627\\u062a \\u0646\\u0627\\u0633 \\u062a\\u0641\\u0647\\u0645 \\u0648+ \\u0627\\u0644+ \\u0645\\u062b\\u0644 \\u0628+ \\u062d\\u0643\\u064a \\u0627\\u0633\\u0627\\u0644 \\u0645\\u062c\\u0631\\u0628 \\u0648+ \\u0644\\u0627 \\u062a\\u0633\\u0627\\u0644 \\u062e\\u0628\\u064a\\u064a\\u0631\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1310,\n 'f': \"1310\",\n },\n\"\\u0645\\u0627 \\u0627\\u062d\\u0644\\u0649 \\u0627\\u0644+ \\u0648\\u062c\\u0648\\u062f \\u0628+ \\u0642\\u0631\\u0628 \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 555,\n 'f': \"555\",\n },\n\"\\u0627\\u0647 \\u064a\\u0627\\u0634\\u0648\\u064a\\u0647 \\u0639\\u0627\\u0647 +\\u0627\\u062a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1595,\n 'f': \"1595\",\n },\n\"\\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0634\\u0643\\u0643\\u0646\\u064a \\u0641\\u064a \\u0627\\u0644+ \\u0628\\u0631\\u0646\\u0627\\u0645\\u062c +\\u0627\\u0646 +\\u0647 \\u0633\\u0648\\u0628\\u0631 \\u0633\\u062a\\u0627\\u0631 \\u0623\\u0648 \\u0628\\u0631\\u0646\\u0627\\u0645\\u062c \\u0643\\u0648\\u0645\\u064a\\u062f\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 382,\n 'f': \"382\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0646\\u0632\\u0639 \\u0645\\u0646 \\u0642\\u0644\\u0648\\u0628 +\\u0646\\u0627 \\u0645\\u0627\\u0644 +\\u0627 \\u064a\\u0631\\u0636\\u064a \\u0643+\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 173,\n 'f': \"173\",\n },\n\"\\u0627\\u0644+ \\u062d\\u0645\\u062f \\u0644+ \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644\\u0630\\u064a \\u0644\\u0627 \\u064a\\u062d\\u0645\\u062f \\u0639\\u0644\\u0649 \\u0645\\u0643\\u0631\\u0647 \\u0633\\u0648\\u0627 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 109,\n 'f': \"109\",\n },\n\"\\u0627\\u0642\\u0637\\u0639 \\u0631\\u0627\\u0633 +\\u0647\\u0627 \\u0648+ \\u062e\\u0644\\u0635\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 570,\n 'f': \"570\",\n },\n\"\\u0627\\u064a \\u062a\\u0642\\u062f\\u0645 \\u0627\\u064a \\u0627\\u0632\\u062f\\u0647\\u0627\\u0631 \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0627\\u0644\\u0646\\u0648\\u0648\\u064a +\\u0647 \\u0628+ \\u0639\\u0645\\u0644 \\u0627\\u0644+ \\u0623\\u0645\\u0631\\u0627\\u0636 \\u0643\\u062b\\u064a\\u0631 \\u0623\\u0647\\u0645 \\u0627\\u0644+ \\u0633\\u0631\\u0637\\u0627\\u0646 \\u0627\\u0644\\u0644\\u0647 \\u064a\\u0628\\u0639\\u062f +\\u0647 \\u0639\\u0646 +\\u0647\\u0627 \\u0623\\u0646\\u0627 \\u0645\\u0639 +\\u0647\\u0645 \\u0631\\u0641\\u0636 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0627\\u0644\\u0646\\u0648\\u0648\\u064a +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 535,\n 'f': \"535\",\n },\n\"\\u0627\\u0646\\u062a\\u062e\\u0628 \\u0645\\u064a\\u0646 \\u064a\\u0627 \\u0639\\u0645 \\u0647\\u0649 \\u0646\\u0627\\u0642\\u0635 +\\u0647 \\u0644\\u0628\\u062e +\\u0647 \\u0641\\u064a \\u0627\\u0644+ \\u0643\\u0644\\u0627\\u0645 \\u0645\\u0639\\u062a\\u0634 \\u0627\\u0644\\u0627 \\u0627\\u0644+ \\u0627\\u0647\\u0628\\u0644 \\u062f\\u0647 \\u0643\\u0645\\u0627\\u0646 \\u064a\\u0628\\u0642\\u0649 \\u0631\\u0626\\u064a\\u0633 \\u062c\\u0645\\u0647\\u0648\\u0631\\u064a +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1604,\n 'f': \"1604\",\n },\n\"\\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0644\\u0648 +\\u0627\\u0646 +\\u0647 \\u0641\\u0627\\u064a\\u0632 \\u0628+ \\u0639\\u0631\\u0628 \\u0627\\u064a\\u062f\\u0648\\u0644 \\u0623\\u0648 \\u0645\\u0646 \\u0647\\u0644 \\u0628\\u0631\\u0627\\u0645\\u062c \\u0627\\u0644+ \\u0641\\u0627\\u0631\\u0637\\u0647 \\u063a\\u064a\\u0631 \\u062a\\u0644\\u0627\\u0642\\u064a \\u0627\\u0636\\u0639\\u0627\\u0641 \\u0647\\u0630\\u0627 \\u0627\\u0644+ \\u0639\\u062f\\u062f \\u064a\\u0627\\u0639\\u0645\\u064a \\u0634\\u0639\\u0628 \\u0628+ \\u062d\\u0628 \\u0627\\u0644+ \\u0633\\u062d \\u0627\\u0646\\u062f\\u062d\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1027,\n 'f': \"1027\",\n },\n\"\\u0639\\u0646 \\u062c\\u062f \\u0627\\u0646\\u062a\\u0649 \\u0645\\u0627 \\u0634\\u0627\\u0621 \\u0627\\u0644\\u0644\\u0647 \\u0639\\u0644\\u064a\\u0643\\u0649 \\u062c\\u0632\\u0627\\u0643\\u0649 \\u0627\\u0644\\u0644\\u0647 \\u0643\\u0644 \\u062e\\u064a\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 864,\n 'f': \"864\",\n },\n\"\\u0633\\u064a\\u0626 \\u062c\\u062f +\\u0627\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 239,\n 'f': \"239\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u0627\\u062e\\u062a\\u0631 +\\u062a \\u0627\\u0633\\u0645 \\u063a\\u0627\\u0644\\u0649 \\u0639\\u0644\\u0649 \\u0642\\u0644\\u0628\\u0649 \\u0642\\u0648\\u0649 \\u0631\\u0628 +\\u0646\\u0627 \\u064a\\u062b\\u0628\\u062a \\u0643+ \\u0639\\u0644\\u0649 \\u062f\\u064a\\u0646 \\u0627\\u0644+ \\u0625\\u0633\\u0644\\u0627\\u0645 \\u0627\\u062e\\u062a\\u0631 +\\u062a \\u0635\\u062d \\u0628+ \\u062c\\u062f\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 111,\n 'f': \"111\",\n },\n\"\\u0627\\u0643\\u0627\\u062f\\u064a\\u0645\\u064a \\u0627\\u0644\\u0644\\u064a \\u062e\\u0644\\u0641 +\\u062a \\u0639\\u0627\\u0647 +\\u0627\\u062a \\u0644+ \\u0627\\u0644+ \\u0641\\u0646 \\u0627\\u0644+ \\u0645\\u0639\\u0627\\u0642 \\u062d\\u0627\\u0644\\u064a +\\u0627 \\u0641+ \\u064a\\u0632\\u064a\\u062f +\\u0648\\u0646 \\u0627\\u0644+ \\u0637\\u064a\\u0646 \\u0628\\u0644 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1660,\n 'f': \"1660\",\n },\n\"\\u0648+ \\u0644+ \\u0643\\u0648\\u0645 \\u0645\\u0627 \\u0646\\u062d\\u0646 \\u0645\\u064a\\u062a +\\u064a\\u0646 \\u0645\\u0646 \\u062f\\u0648\\u0646 \\u0647\\u0627\\u0644\\u0648\\u0633\\u0637\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 948,\n 'f': \"948\",\n },\n\"\\u0635\\u0628\\u0627\\u062d +\\u0643\\u0645 \\u0623\\u0645\\u0644 \\u0645\\u0634\\u0631\\u0642 \\u0639\\u0637\\u0627 \\u0645\\u062a\\u062c\\u062f\\u062f +\\u0643\\u0645\\u0627 \\u0634\\u0631\\u0648\\u0642 \\u0627\\u0644+ \\u0634\\u0645\\u0633\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 589,\n 'f': \"589\",\n },\n\"\\u0628+ \\u0627\\u0644\\u0644\\u0647 \\u064a\\u0627 \\u0634\\u0628\\u0627\\u0628 \\u0648\\u0634 \\u0631\\u0627\\u064a +\\u0643\\u0645 \\u0628+ \\u0627\\u0644+ \\u0627\\u0634\\u0643\\u0627\\u0644 \\u0647\\u0630\\u0647 \\u0647\\u0644 \\u062a\\u062a\\u0648\\u0642\\u0639 +\\u0648\\u0646 \\u0623\\u0647\\u0644 +\\u0647\\u0645 \\u0643\\u0627\\u0631\\u0647\\u064a\\u0646\\u0647\\u0645 \\u0648+ \\u0627\\u0644+ \\u0646\\u0627\\u0633 \\u062a\\u062c\\u064a \\u0644+ \\u0627\\u0647\\u0627\\u0644\\u064a +\\u0647\\u0645 \\u0648+ \\u062a\\u0642\\u0648\\u0644 \\u0644+ +\\u0647\\u0645 \\u062d\\u0631\\u0627\\u0645 \\u0639\\u0644\\u064a +\\u0643\\u0645 \\u0647\\u0630\\u0648\\u0644 \\u0645\\u0646 \\u062f\\u0645 +\\u0643\\u0645\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 817,\n 'f': \"817\",\n },\n\"\\u0631\\u0648\\u0639 +\\u0647 \\u0627\\u0644+ \\u0623\\u0634\\u064a\\u0627\\u0621 \\u062a\\u0628\\u0642\\u0649 \\u0631\\u0648\\u0627\\u0626\\u062d +\\u0647\\u0627 \\u0628\\u0642\\u0649 \\u0623\\u0635\\u062d\\u0627\\u0628 +\\u0647\\u0627 \\u0627\\u0645 \\u0627\\u0646\\u0635\\u0631\\u0641 +\\u0648\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 23,\n 'f': \"23\",\n },\n\"\\u0627\\u062d\\u0633\\u0646 +\\u0648\\u0627 \\u0627\\u0644+ \\u0638\\u0646 \\u0648\\u062b\\u0642 +\\u0648\\u0627 \\u0628+ \\u0645\\u0627 \\u0639\\u0646\\u062f \\u0627\\u0644\\u0644\\u0647 \\u0648+ \\u062a\\u0648\\u0643\\u0644 +\\u0648\\u0627 \\u0639\\u0644\\u064a +\\u0647 \\u0644\\u0627 \\u062a\\u0641\\u0633\\u062f \\u0639\\u0642\\u0644 \\u0643+ \\u0628+ \\u0627\\u0644+ \\u062a\\u0634\\u0627\\u0624\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1567,\n 'f': \"1567\",\n },\n\"\\u0648+ \\u0627\\u0644\\u062d\\u0627\\u062c +\\u0647 \\u0627\\u0644\\u064a \\u0623\\u0646\\u062a \\u0628+ \\u062a\\u062d\\u0628 +\\u0647\\u0627 \\u062f\\u064a \\u0647\\u064a \\u0645\\u0634 \\u0627\\u0643\\u062a\\u0631 \\u0645\\u0646 \\u062d\\u0627\\u062c +\\u0647 \\u0632\\u064a\\u0646 +\\u0647\\u0627 \\u0627\\u0644+ \\u0634\\u064a\\u0637\\u0627\\u0646 \\u0648+ \\u0627\\u0642\\u0646\\u0639 \\u0643+ \\u0628+ \\u062d\\u0644\\u0627\\u0648 +\\u062a +\\u0647\\u0627 \\u0628\\u0633 \\u0647\\u062a\\u0646\\u062f\\u0645 \\u0628\\u0639\\u062f +\\u064a\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1789,\n 'f': \"1789\",\n },\n\"\\u064a\\u0644\\u0639\\u0646 \\u0623\\u0628\\u0648 \\u0627\\u0644\\u064a \\u0645\\u0627 \\u0628+ \\u0633\\u062a\\u062d\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1255,\n 'f': \"1255\",\n },\n\"\\u0644\\u0642\\u062f \\u0627\\u062a\\u062d\\u0641\\u062a\\u0645\\u0648\\u0646\\u0627 \\u0628+ \\u0644\\u062c\\u0648 +\\u0643\\u0645 \\u0644\\u062c\\u064a\\u0628\\u062a\\u0646\\u0627 \\u0627\\u0644\\u062a\\u064a \\u0627\\u0646\\u0641\\u062c\\u0631 +\\u062a \\u0628+ \\u0641\\u0636\\u0644 +\\u0643\\u0645 \\u0627\\u0644+ \\u0641\\u0627\\u0633\\u062f +\\u064a\\u0646 \\u064a\\u062a\\u0646\\u0639\\u0645\\u0648\\u0646 \\u0628+ \\u0627\\u0645\\u0648\\u0627\\u0644 +\\u0646\\u0627 \\u0641+ \\u0647\\u0644 \\u0623\\u0635\\u0628\\u062d \\u0641\\u0627\\u0633\\u062f +\\u0627 \\u0644+ \\u0627\\u0639\\u064a\\u0634\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 518,\n 'f': \"518\",\n },\n\"\\u0623\\u0646\\u0627 \\u0644\\u0627\\u062d\\u0638 +\\u062a \\u0627\\u0644+ \\u0644\\u0628\\u0646\\u0627\\u0646\\u064a +\\u064a\\u0646 +\\u0627\\u0646 +\\u0647\\u0645 \\u0645\\u0627\\u0639\\u0646\\u062f\\u0647\\u0645 \\u0631\\u0648\\u062d \\u0627\\u0644+ \\u0643\\u0648\\u0645\\u064a\\u062f\\u064a\\u0627 \\u0646\\u0647\\u0627\\u0626\\u064a +\\u0627\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 429,\n 'f': \"429\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0646\\u0642\\u064a \\u0646\\u0641\\u0648\\u0633 +\\u0646\\u0627 \\u0627\\u062c\\u0639\\u0644 +\\u0646\\u0627 \\u0644+ \\u0643+ \\u0645\\u0646 \\u0627\\u0644+ \\u0645\\u062e\\u0644\\u0635 +\\u064a\\u0646 \\u0633\\u0631 +\\u0627 \\u062c\\u0647\\u0631 +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 654,\n 'f': \"654\",\n },\n\"\\u062a\\u0630\\u0643\\u0631 \\u0645\\u0646 \\u0643\\u0630\\u0628 \\u064a\\u0643\\u062a\\u0628 \\u0639\\u0646\\u062f +\\u0627 \\u0627\\u0644\\u0644\\u0647 \\u0643\\u0627\\u0630\\u0628 \\u0644\\u0627 \\u0627\\u0644\\u0647 \\u0627\\u0644\\u0627 \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0645\\u0627 \\u0645\\u0646 \\u064a\\u062a\\u062d\\u0631\\u0649 \\u0627\\u0644+ \\u0635\\u062f\\u0642 \\u064a\\u0643\\u062a\\u0628 \\u0639\\u0646\\u062f +\\u0627 \\u0627\\u0644\\u0644\\u0647 \\u0635\\u0627\\u062f\\u0642 +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 331,\n 'f': \"331\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0631\\u0632\\u0642 \\u0623\\u0628\\u0646\\u0627\\u0621 \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646 \\u0632\\u0648\\u062c +\\u0627\\u062a \\u0635\\u0627\\u0644\\u062d +\\u0627\\u062a \\u0648+ \\u0628\\u0646\\u0627 +\\u062a \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646 \\u0627\\u0632\\u0648\\u0627\\u062c \\u0635\\u0627\\u0644\\u062d +\\u064a\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 188,\n 'f': \"188\",\n },\n\"\\u0627\\u0644+ \\u062d\\u0645\\u062f\\u0644\\u0644\\u0647 \\u0645\\u0646 \\u0643\\u0644 \\u0636\\u064a\\u0642 \\u0627\\u0633\\u062c\\u062f \\u0644+ \\u0627\\u0644\\u0644\\u0647 \\u0627\\u062d\\u0633 +\\u0627\\u0646 \\u0641\\u064a \\u0627\\u0639\\u0644 +\\u0647 \\u0645\\u0633\\u062a\\u0648\\u0627 \\u0648+ \\u0627\\u0646\\u0633 +\\u0627 \\u0648+ \\u0627\\u062a\\u0630\\u0644\\u0644 \\u0627\\u0644\\u0649 \\u0627\\u0644\\u0644\\u0647 \\u0644\\u064a\\u062d\\u0645\\u064a\\u0646\\u0649 \\u0645\\u0646 \\u0641\\u062a\\u0646 \\u0627\\u0644+ \\u062f\\u0646\\u064a\\u0627 \\u0648+ \\u0623\\u062d\\u0633\\u0646 \\u0645\\u0646\\u0632\\u0644\\u0649 \\u0641\\u064a \\u0627\\u0644+ \\u062c\\u0646\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1725,\n 'f': \"1725\",\n },\n\"\\u064a\\u0627 \\u0645\\u0646 \\u064a\\u0631\\u0632\\u0642 \\u0627\\u0644+ \\u0646\\u0639\\u0627\\u0628 \\u0641\\u064a \\u0639\\u0634 +\\u0647 \\u0647\\u064a\\u0621 \\u0644+ +\\u0646\\u0627 \\u0645\\u0642\\u0627\\u062f\\u064a\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 383,\n 'f': \"383\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0623\\u0646\\u0633 \\u0642\\u0644\\u0648\\u0628 +\\u0646\\u0627 \\u0628+ \\u0630\\u0643\\u0631 \\u0643+\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 438,\n 'f': \"438\",\n },\n\"\\u0627\\u0644+ \\u0645\\u0627\\u0644 \\u0627\\u0644+ \\u0623\\u0633\\u0648\\u062f \\u062c\\u0631\\u064a\\u0645 +\\u0647 \\u0628+ \\u062d\\u0642 \\u0627\\u0644+ \\u0648\\u0637\\u0646 \\u0648+ \\u0627\\u0644+ \\u0645\\u0633\\u062a\\u0642\\u0628\\u0644\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1775,\n 'f': \"1775\",\n },\n\"\\u064a\\u0639 \\u0628+ \\u062a\\u0642\\u0631\\u0641 \\u0623\\u0646\\u062a \\u0648\\u0633\\u062e \\u064a\\u0639 \\u0634\\u0648\\u0647\\u0627\\u064a \\u0627\\u0644+ \\u0648\\u0633\\u0627\\u062e\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 590,\n 'f': \"590\",\n },\n\"\\u0628+ \\u0627\\u0644\\u0645\\u0646\\u0627\\u0633\\u0628 +\\u0647 \\u0623\\u0646\\u0627 \\u0645\\u0624\\u062f\\u0628 \\u062c\\u062f +\\u0627 \\u060c \\u0644\\u0627 \\u0627\\u062d\\u062a\\u0633\\u0649 \\u0627\\u0644+ \\u0643\\u062d\\u0648\\u0644 \\u0648+ \\u0644\\u0627 \\u0627\\u0628\\u062d\\u062b \\u0639\\u0646 \\u0639\\u0644\\u0627\\u0642 +\\u0627\\u062a \\u0645\\u0634\\u0628\\u0648\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 210,\n 'f': \"210\",\n },\n\"\\u0627\\u0644+ \\u0636\\u063a\\u0648\\u0637 \\u0627\\u0644+ \\u0646\\u0641\\u0633\\u064a\\u0647 \\u0644+ +\\u0647\\u0627 \\u062a\\u0623\\u062b\\u064a\\u0631 \\u0641\\u064a \\u0627\\u0644+ \\u0646\\u0647\\u0627\\u064a\\u0647 \\u060c \\u0633\\u0645\\u0639 +\\u062a \\u0642\\u0635 +\\u0647 \\u0639\\u0646 \\u0623\\u0634\\u062e\\u0627\\u0635 \\u0627\\u0646\\u062a\\u062d\\u0631 +\\u0648\\u0627 \\u0628+ \\u0633\\u0628\\u0628 \\u062a\\u0639\\u0644\\u064a\\u0642 +\\u0627\\u062a \\u0633\\u0627\\u062e\\u0631 +\\u0647 \\u0636\\u062f +\\u0647\\u0645 .\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 220,\n 'f': \"220\",\n },\n\"\\u0627\\u0644+ \\u0639\\u0646\\u0635\\u0631\\u064a\\u0647 \\u0641\\u064a \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0644\\u0627 \\u062a\\u062a\\u0648\\u0642\\u0641 \\u0639\\u0644\\u0649 \\u0643+ \\u0644\\u0645 +\\u0647 \\u0623\\u0631\\u062f\\u0646\\u064a \\u0648+ \\u0641\\u0644\\u0633\\u0637\\u064a\\u0646\\u064a \\u0648+ \\u0625\\u0646\\u0645\\u0627 \\u062a\\u062a\\u062c\\u0627\\u0648\\u0632 +\\u062a \\u0630\\u0644\\u0643 \\u0627\\u0644\\u0649 \\u062a\\u0635\\u0646\\u064a\\u0641 \\u0623\\u0628\\u0646\\u0627\\u0621 \\u0627\\u0644+ \\u0648\\u0637\\u0646 \\u0627\\u0644+ \\u0648\\u0627\\u062d\\u062f \\u0648\\u0641\\u0642 +\\u0627 \\u0644+ \\u0627\\u0644+ \\u0639\\u0634\\u064a\\u0631\\u0647 \\u0648+ \\u0647\\u0630\\u0627 \\u0627\\u0633\\u0648\\u0621 \\u062d\\u0627\\u0644 \\u0648\\u0635\\u0644 +\\u0646\\u0627 \\u0644+ +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 203,\n 'f': \"203\",\n },\n\"\\u0627\\u0644+ \\u0632\\u0639\\u0644 \\u0628+ \\u062f\\u0627\\u064a +\\u0647 \\u0627\\u0644+ \\u0637\\u0631\\u064a\\u0642 \\u0644+ \\u0627\\u0644+ \\u0627\\u0645\\u0631\\u0627\\u0636\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 439,\n 'f': \"439\",\n },\n\"\\u0627\\u0644+ \\u0645\\u0631\\u0627\\u0647 \\u062a\\u0647\\u0627\\u0646 \\u0648+ \\u062a\\u0639\\u0627\\u0645\\u0644 \\u0643\\u0627\\u062f +\\u0627 +\\u0647 \\u062c\\u0646\\u0633\\u064a +\\u0647 \\u062a\\u062d\\u062a \\u0645\\u0633\\u0645\\u064a +\\u0627\\u062a \\u0639\\u062f\\u064a\\u062f +\\u0647 \\u0643+ \\u0627\\u0644+ \\u0645\\u0633\\u064a\\u0627\\u0631 \\u0648+ \\u0627\\u0644+ \\u0645\\u0633\\u0641\\u0627\\u0631 \\u0648+ \\u0627\\u0644+ \\u0645\\u0635\\u064a\\u0627\\u0641 \\u0627\\u0644+ \\u062e \\u0648+ \\u0643\\u0644\\u0648 \\u0628+ \\u062a\\u0645\\u0646\\u0648\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1619,\n 'f': \"1619\",\n },\n\"\\u0648+ \\u0623\\u0646\\u0627 100 % \\u0628\\u0633 \\u0634\\u0643\\u0644 +\\u0647\\u0627 +\\u0647\\u0627 +\\u064a \\u0645\\u0648 \\u0645\\u062f\\u0631\\u0633 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1517,\n 'f': \"1517\",\n },\n\"\\u0647\\u0630\\u0627 \\u0647\\u0648 \\u0627\\u0644+ \\u062f\\u064a\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1741,\n 'f': \"1741\",\n },\n\"\\u064a\\u0627\\u0631\\u0628 \\u062a\\u0647\\u062f\\u064a +\\u0646\\u0627 \\u0627\\u0644\\u064a \\u0627\\u0644+ \\u0635\\u0631\\u0627\\u0637 \\u0627\\u0644+ \\u0645\\u0633\\u062a\\u0642\\u064a\\u0645 \\u064a\\u0627\\u0631\\u0628 \\u062a\\u0642\\u0628\\u0644 \\u0645\\u0646 +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 582,\n 'f': \"582\",\n },\n\"\\u0628\\u0627\\u0631\\u0643 \\u0627\\u0644\\u0644\\u0647 \\u0641\\u064a \\u0643\\u0627\\u062a\\u0628 +\\u0647\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1733,\n 'f': \"1733\",\n },\n\"\\u064a\\u0627\\u0631\\u0628 \\u0627\\u062e\\u0631\\u062c +\\u0646\\u0627 \\u0645\\u0646 \\u0630\\u0644 \\u0627\\u0644+ \\u0645\\u0639\\u0635\\u064a\\u0647 \\u0627\\u0644\\u064a \\u0639\\u0632 \\u0627\\u0644+ \\u0637\\u0627\\u0639\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 483,\n 'f': \"483\",\n },\n\"+\\u0627\\u0646 \\u0627\\u0644\\u0644\\u0647 \\u0644\\u0627 \\u064a\\u062a\\u062e\\u0644 \\u0639\\u0646 \\u0639\\u0628\\u0627\\u062f +\\u0647 \\u0623\\u0628\\u062f +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1249,\n 'f': \"1249\",\n },\n\"\\u0644+ \\u062c\\u0646 +\\u0647 \\u0641\\u0627\\u0634\\u0644 +\\u0647 \\u062a\\u062a\\u0645\\u0633\\u062e\\u0631 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u0645\\u062a\\u0642\\u062f\\u0645 +\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 782,\n 'f': \"782\",\n },\n\"\\u0631\\u0628 +\\u0646\\u0627 \\u064a\\u0633\\u0647\\u0644\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 481,\n 'f': \"481\",\n },\n\"+\\u0627\\u0646 \\u0627\\u0644+ \\u062f\\u064a\\u0646 \\u0639\\u0646\\u062f \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644+ \\u0625\\u0633\\u0644\\u0627\\u0645 \\u0647\\u0630\\u0627 \\u0647\\u0648 \\u0627\\u0644+ \\u062f\\u064a\\u0646 \\u0627\\u0644\\u0630\\u064a \\u064a\\u062c\\u0628 +\\u0627\\u0646 \\u064a\\u0639\\u062a\\u0646\\u0642 +\\u0647 \\u0643\\u0644 \\u0625\\u0646\\u0633\\u0627\\u0646 \\u0639\\u0644\\u064a \\u0648\\u062c\\u0647 \\u0627\\u0644+ \\u0623\\u0631\\u0636 \\u0648+ \\u0644\\u064a\\u0633 \\u0627\\u0644+ \\u0639\\u0631\\u0628 \\u0641\\u0642\\u0637 \\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0647\\u062f\\u064a \\u063a\\u064a\\u0631 \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646 \\u0627\\u0644\\u064a \\u062f\\u064a\\u0646 \\u0627\\u0644+ \\u0625\\u0633\\u0644\\u0627\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 514,\n 'f': \"514\",\n },\n\"\\u0623\\u0646\\u0627 \\u0641\\u0639\\u0644 +\\u0627 \\u0642\\u0631\\u0631 +\\u062a \\u0648+ \\u0627\\u062e\\u062f +\\u062a \\u0627\\u0644+ \\u0642\\u0631\\u0627\\u0631 \\u062f\\u0647 \\u0648+ \\u062d\\u0627\\u0633 +\\u0647 \\u0628+ \\u0631\\u0627\\u062d +\\u0647 \\u0648+ \\u0633\\u0639\\u0627\\u062f +\\u0647 \\u0643\\u0628\\u064a\\u0631 +\\u0647 \\u0627\\u0648\\u064a \\u0628+ \\u0642\\u0631\\u0628\\u064a \\u0645\\u0646 \\u0631\\u0628 +\\u0646\\u0627 \\u0628+ \\u062c\\u062f \\u0627\\u0644+ \\u062d\\u0645\\u062f \\u0644+ \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 949,\n 'f': \"949\",\n },\n\"\\u0635\\u0628\\u0627\\u062d +\\u0643\\u0645 \\u062a\\u0641\\u0627\\u0626\\u0644\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 968,\n 'f': \"968\",\n },\n\"\\u0635\\u062f\\u0642 +\\u062a \\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0623\\u0646\\u062a \\u062a\\u0631\\u064a\\u062f \\u0648+ \\u0623\\u0646\\u0627 \\u0623\\u0631\\u064a\\u062f \\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u064a\\u0641\\u0639\\u0644 \\u0645\\u0627 \\u064a\\u0631\\u064a\\u062f\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 611,\n 'f': \"611\",\n },\n\"\\u0628\\u0633 \\u0645\\u0642\\u0632\\u0632\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 802,\n 'f': \"802\",\n },\n\"\\u0631\\u0628 +\\u064a \\u0627\\u0631\\u0632\\u0642\\u0646\\u064a \\u062d\\u0644\\u0648 \\u0627\\u0644+ \\u062d\\u064a\\u0627\\u0647 \\u0648+ \\u062c\\u0645\\u0627\\u0644 \\u0627\\u0644+ \\u062d\\u0638 \\u0648+ \\u0633\\u0639 +\\u0647 \\u0627\\u0644+ \\u0631\\u0632\\u0642 \\u0648+ \\u0631\\u0627\\u062d +\\u0647 \\u0627\\u0644+ \\u0628\\u0627\\u0644\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 527,\n 'f': \"527\",\n },\n\"\\u0627\\u0646\\u0628\\u0633\\u0637 \\u064a\\u0627 \\u0639\\u0645 \\u0627\\u0641\\u0631\\u062d\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 767,\n 'f': \"767\",\n },\n\"\\u0631\\u0628 \\u0641\\u0639\\u0644 \\u0635\\u063a\\u064a\\u0631 \\u064a\\u0633\\u062a\\u0639\\u0638\\u0645 +\\u0647 \\u063a\\u064a\\u0631 \\u0643+ \\u062e\\u0627\\u0635 +\\u0647 +\\u0627\\u0646 +\\u0643\\u0646 +\\u062a \\u062a\\u0645\\u062b\\u0644 \\u0627\\u0644+ \\u0625\\u0633\\u0644\\u0627\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 598,\n 'f': \"598\",\n },\n\"\\u0628+ \\u062f\\u0643\\u0648 \\u062a\\u062e\\u0644\\u0648 +\\u0646\\u0627 \\u0646\\u0634\\u062d\\u062f\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 115,\n 'f': \"115\",\n },\n\"\\u0627\\u0643\\u0631\\u0645 \\u0643+ \\u0627\\u0644\\u0644\\u0647 \\u064a\\u0627 \\u0627\\u0633\\u062a\\u0627\\u0630\\u064a \\u0627\\u0644+ \\u0641\\u0627\\u0636\\u0644\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 506,\n 'f': \"506\",\n },\n\"\\u0623\\u0646\\u0627 \\u062e\\u0644\\u064a\\u0646\\u0649 \\u0633\\u0627\\u0643\\u062a +\\u0647 \\u0623\\u062d\\u0633\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 544,\n 'f': \"544\",\n },\n\"\\u0625\\u0646\\u0634\\u0627\\u0621 \\u0627\\u0644\\u0644\\u0647 \\u0647\\u0646\\u0639\\u0645\\u0644 \\u062d\\u0627\\u062c +\\u0647 \\u062a\\u0641\\u062a\\u062e\\u0631\\u0648 \\u0641\\u064a +\\u0647\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 350,\n 'f': \"350\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0633\\u062a\\u062e\\u062f\\u0645 +\\u0646\\u0627 \\u0641\\u064a \\u0637\\u0627\\u0639 +\\u062a \\u0643+\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1387,\n 'f': \"1387\",\n },\n\"\\u0645\\u0634 \\u0641\\u064a \\u0645\\u062d\\u0644 +\\u0648\\u0627\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1717,\n 'f': \"1717\",\n },\n\"\\u064a\\u0627 \\u0639\\u0646 +\\u064a \\u0639\\u0644\\u064a \\u0630\\u0643\\u0631 \\u0643+ \\u0634\\u0643\\u0631 \\u0643+ \\u062d\\u0633\\u0646 \\u0639\\u0628\\u0627\\u062f +\\u062a \\u0643+\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1751,\n 'f': \"1751\",\n },\n\"\\u064a\\u0627\\u0631\\u0628 \\u0648+ \\u0623\\u0646\\u062a \\u0627\\u062f\\u0639\\u064a\\u0644\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1050,\n 'f': \"1050\",\n },\n\"\\u0641\\u0627\\u062c\\u0639\\u0644 \\u0627\\u0644\\u0644\\u0647\\u0645 \\u0639\\u0648\\u0636\\u064a \\u0641\\u064a +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1201,\n 'f': \"1201\",\n },\n\"\\u0644\\u0627 \\u062a\\u062d\\u0632\\u0646 +\\u0627\\u0646 \\u0627\\u0644\\u0644\\u0647 \\u0645\\u0639 \\u0643+\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 275,\n 'f': \"275\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u064a\\u062a\\u0645\\u0645 \\u0623\\u0641\\u0631\\u0627\\u062d \\u0627\\u0644+ \\u062c\\u0645\\u064a\\u0639 \\u064a\\u0627 \\u0631\\u0628\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 344,\n 'f': \"344\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0631\\u0632\\u0642\\u0646\\u064a \\u062d\\u0628\\u0643 \\u062d\\u0628 \\u0645\\u0646 \\u0627\\u062d\\u0628\\u0643 \\u062d\\u0628 \\u0639\\u0645\\u0644 \\u064a\\u0642\\u0631\\u0628\\u0646\\u064a \\u0644+ \\u062d\\u0628\\u0643\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1776,\n 'f': \"1776\",\n },\n\"\\u064a\\u0639 \\u062d\\u0627\\u0633 +\\u0647 \\u062d\\u0627\\u0644\\u064a \\u0628\\u062f\\u064a \\u0627\\u0633\\u062a\\u0641\\u0631\\u063a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1216,\n 'f': \"1216\",\n },\n\"\\u0644\\u0627 \\u0644+ \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u062f\\u0627\\u062e\\u0644 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 710,\n 'f': \"710\",\n },\n\"\\u062d\\u0632\\u0646 +\\u064a \\u0643\\u062b\\u064a\\u0631 \\u0648+ \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 342,\n 'f': \"342\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0631\\u0632\\u0642\\u0646\\u0627 \\u0645\\u0646 \\u062e\\u064a\\u0631\\u064a \\u0627\\u0644+ \\u062f\\u0646\\u064a\\u0627 \\u0627\\u0644+ \\u0627\\u062e\\u0631\\u0647 \\u0627\\u0631\\u0632\\u0642\\u0646\\u0627 \\u062d\\u0633\\u0646 \\u0627\\u0644+ \\u062e\\u0627\\u062a\\u0645\\u0647 \\u0627\\u0631\\u0632\\u0642\\u0646\\u0627 \\u0627\\u0644+ \\u0641\\u0631\\u062f\\u0648\\u0633 \\u0627\\u0644+ \\u0623\\u0639\\u0644\\u0649 \\u0645\\u0639 \\u0645\\u0646 \\u0646\\u062d\\u0628 \\u0627\\u0631\\u0632\\u0642\\u0646\\u0627 \\u0644\\u0630 +\\u0647 \\u0627\\u0644+ \\u0646\\u0638\\u0631 \\u0627\\u0644\\u0649 \\u0648\\u062c\\u0647 \\u0643+ \\u0627\\u0644+ \\u0643\\u0631\\u064a\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1196,\n 'f': \"1196\",\n },\n\"\\u0644\\u0627 \\u0627\\u0644\\u0647 \\u0627\\u0644\\u0627 \\u0627\\u0644\\u0644\\u0647 \\u0645\\u062d\\u0645\\u062f \\u0631\\u0633\\u0648\\u0644 \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 482,\n 'f': \"482\",\n },\n\"+\\u0627\\u0646 \\u0627\\u0644\\u0644\\u0647 \\u0639\\u0644\\u0649 \\u0643\\u0644 \\u0634\\u064a\\u0621 \\u0642\\u062f\\u064a\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 886,\n 'f': \"886\",\n },\n\"\\u0634\\u0648 \\u0627\\u0644\\u064a \\u062c\\u0646\\u0646\\u064a \\u0648+ \\u0646\\u0632\\u0644 +\\u062a \\u0645\\u0627\\u062f +\\u0647 \\u0627\\u062b\\u0627\\u0631 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 332,\n 'f': \"332\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0631\\u0632\\u0642\\u0646\\u0627 \\u0627\\u0644+ \\u0627\\u062e\\u0644\\u0627\\u0635 \\u0641\\u064a \\u0627\\u0644+ \\u0642\\u0648\\u0644 \\u0627\\u0644+ \\u0639\\u0645\\u0644 \\u0641\\u064a \\u0627\\u0644+ \\u0633\\u0631 \\u0627\\u0644+ \\u0639\\u0644\\u0646 \\u0641\\u064a \\u0627\\u0644+ \\u0631\\u062e\\u0627\\u0621 \\u0627\\u0644+ \\u0634\\u062f\\u0647 \\u0641\\u064a \\u0627\\u0644+ \\u0639\\u0627\\u0641\\u064a\\u0647 \\u0627\\u0644+ \\u0645\\u0631\\u0636 \\u0639\\u0646\\u062f \\u0627\\u0644+ \\u0627\\u0628\\u062a\\u0644\\u0627\\u0621\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1165,\n 'f': \"1165\",\n },\n\"\\u0643\\u0644\\u0627\\u0645 \\u0635\\u062d\\u064a\\u062d \\u0645\\u0646 \\u0634\\u0623\\u0646 \\u0647\\u064a \\u0643+ \\u0627\\u0644+ \\u062f\\u0648\\u0644 \\u0627\\u0644\\u0644\\u064a \\u0645\\u0627 \\u0641\\u064a +\\u0647\\u0627 \\u0628+ \\u0637\\u0627\\u0644 +\\u0647 \\u0648+ \\u0627\\u0644+ \\u0645\\u062c\\u062a\\u0645\\u0639 +\\u0627\\u062a \\u0627\\u0644+ \\u0645\\u0641\\u062a\\u0648\\u062d\\u0647 \\u0628+ \\u062a\\u0642\\u0644 \\u0641\\u064a +\\u0647\\u0627 \\u0627\\u0644+ \\u0645\\u0634\\u0627\\u0643\\u0644 \\u0627\\u0644+ \\u0646\\u0641\\u0633\\u064a\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 124,\n 'f': \"124\",\n },\n\"\\u0627\\u0644\\u0627 \\u0644+ \\u0639\\u0646 +\\u0647 \\u0627\\u0644\\u0644\\u0647 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u0634\\u064a\\u0639\\u0647 \\u0627\\u0644\\u0649 \\u064a\\u0648\\u0645 \\u0627\\u0644+ \\u062f\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 543,\n 'f': \"543\",\n },\n\"\\u0625\\u0646\\u0634\\u0627\\u0621 \\u0627\\u0644\\u0644\\u0647 \\u0646\\u0643\\u0648\\u0646 \\u0631\\u0627\\u0636 +\\u064a\\u0646 \\u0628+ \\u0642\\u0636\\u0627\\u0621 \\u0627\\u0644\\u0644\\u0647 \\u0644\\u0643\\u0646 +\\u0646\\u0627 \\u0646\\u0631\\u062c\\u0648 \\u0645\\u0646 \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644+ \\u0644\\u0637\\u0641 \\u0641\\u064a +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1124,\n 'f': \"1124\",\n },\n\"\\u0643\\u0627\\u0645\\u064a\\u0631\\u0627 \\u062e\\u0641\\u064a +\\u0647 \\u0641\\u064a \\u0627\\u0644+ \\u0627\\u0646\\u062d\\u0637\\u0627\\u0637 \\u0627\\u0644+ \\u0623\\u062e\\u0644\\u0627\\u0642\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 49,\n 'f': \"49\",\n },\n\"\\u0627\\u0630 +\\u0627 \\u0645\\u0631\\u062a\\u0643 \\u0628+ \\u062a\\u0639\\u0645\\u0644 \\u0647\\u064a \\u0643+ \\u064a\\u0627 \\u0627\\u062f\\u0645\\u0646 \\u0644\\u0627 \\u062a\\u0641\\u0643\\u0631 \\u0643\\u0644 \\u0627\\u0644+ \\u0631\\u062c\\u0627\\u0644 \\u0645\\u062b\\u0644 \\u0643+ \\u062a\\u0641\\u064a \\u0639\\u0644\\u064a \\u0643+\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1211,\n 'f': \"1211\",\n },\n\"\\u0644\\u0627 \\u0631\\u0628 +\\u0646\\u0627 \\u064a\\u0631\\u062d\\u0645 +\\u0646\\u0627 \\u0628+ \\u0631\\u062d\\u0645 +\\u062a +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 426,\n 'f': \"426\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0645\\u0627 \\u0627\\u0639\\u0646 +\\u0627 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u062a\\u063a\\u064a\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 700,\n 'f': \"700\",\n },\n\"\\u062d\\u062a\\u0649 \\u0646\\u0639\\u0631\\u0641 \\u0646\\u062d\\u0644 \\u0645\\u0634\\u0643\\u0644 +\\u0647 \\u0627\\u0644+ \\u0645\\u062c\\u0627\\u0631\\u064a \\u0628\\u0639\\u062f +\\u064a\\u0646 \\u0645\\u0646\\u0639\\u0645\\u0644 \\u0645\\u0641\\u0627\\u0639\\u0644 +\\u0627\\u062a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1160,\n 'f': \"1160\",\n },\n\"\\u0643\\u0644\\u0627\\u0645 \\u0630\\u0647\\u0628\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1777,\n 'f': \"1777\",\n },\n\"\\u064a\\u0639\\u062a\\u0628\\u0631 \\u0627\\u0644+ \\u062a\\u0631\\u0645\\u0633 \\u0645\\u0646 \\u0627\\u0644+ \\u0645\\u0635\\u0627\\u062f\\u0631 \\u0627\\u0644+ \\u0637\\u0628\\u064a\\u0639\\u064a\\u0647 \\u0644+ \\u0641\\u062a\\u062d \\u0627\\u0644+ \\u0634\\u0647\\u064a\\u0647 \\u0648+ \\u062a\\u0642\\u0648\\u064a +\\u0647 \\u0627\\u0644+ \\u0623\\u062c\\u0633\\u0627\\u0645 \\u0627\\u0644+ \\u0647\\u0632\\u064a\\u0644\\u0647 \\u061b \\u0644\\u0627\\u0646 +\\u0647 \\u063a\\u0646\\u064a \\u0628+ \\u0627\\u0644+ \\u0643\\u0627\\u0644\\u0633\\u064a\\u0648\\u0645 \\u0648+ \\u0627\\u0644+ \\u0641\\u0648\\u0633\\u0641\\u0648\\u0631 .\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 892,\n 'f': \"892\",\n },\n\"\\u0634\\u0648 \\u0647\\u0627\\u0636 \\u0627\\u0644+ \\u0645\\u0646\\u0634\\u0648\\u0631 \\u0627\\u0644+ \\u0648\\u0633\\u062e\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1164,\n 'f': \"1164\",\n },\n\"\\u0643\\u0644\\u0627\\u0645 \\u0633\\u0644\\u064a\\u0645 \\u0648+ \\u0627\\u0644+ \\u0635\\u0631\\u0627\\u062d\\u0647 \\u0631\\u0627\\u062d +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1511,\n 'f': \"1511\",\n },\n\"\\u0647\\u0630\\u0627 \\u0635\\u062f\\u0642 \\u0648+ \\u0644\\u0627 \\u0645\\u062c\\u0646\\u0648\\u0646 \\u0648+ \\u0644\\u0627 \\u064a\\u0633\\u062a\\u0647\\u0628\\u0644 \\u0648\\u0634 \\u0627\\u0644\\u0642\\u0635 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1787,\n 'f': \"1787\",\n },\n\"\\u064a\\u0644\\u0639\\u0646 \\u0623\\u0628\\u0648 \\u0627\\u0644+ \\u062a\\u062e\\u0644\\u0641 \\u0648+ \\u0627\\u0644+ \\u063a\\u0628\\u0627\\u0621 \\u0648+ \\u0627\\u0644+ \\u0628\\u064a\\u0627\\u062e\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1208,\n 'f': \"1208\",\n },\n\"\\u0644\\u0627 \\u062d\\u0648\\u0644 \\u0648+ \\u0644\\u0627 \\u0642\\u0648\\u0647 \\u0627\\u0644\\u0627 \\u0628+ \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0630 +\\u0627 \\u0623\\u062e\\u0630 \\u0645\\u0627 \\u0627\\u0648\\u0647\\u0628 \\u0623\\u0633\\u0642\\u0637 \\u0645\\u0627 \\u0627\\u0648\\u062c\\u0628\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1765,\n 'f': \"1765\",\n },\n\"\\u064a\\u062c\\u0628 \\u0648\\u0636\\u0639 \\u0643\\u0644 \\u0645\\u0646 \\u062a\\u0633\\u0648\\u0644 \\u0644+ +\\u0647 \\u0646\\u0641\\u0633 +\\u0647 \\u0645\\u062c\\u0631\\u062f +\\u0627\\u0646 \\u064a\\u0639\\u0645\\u0644 \\u0627\\u064a \\u062a\\u0635\\u0631\\u0641 \\u0644\\u0627 \\u064a\\u0644\\u064a\\u0642 \\u0628+ \\u0627\\u0644+ \\u0627\\u0631\\u062f\\u0646 +\\u0627\\u0646 \\u064a\\u0633\\u062c\\u0646 \\u064a\\u0633\\u062c\\u0646 \\u0634\\u064a\\u0621 \\u0645\\u062e\\u0632\\u064a \\u0634\\u0648\\u064a +\\u0647 \\u0647\\u0645\\u0644 \\u0632\\u0639\\u0631\\u0627\\u0646 \\u064a\\u062e\\u0631\\u0628 +\\u0648\\u0627 \\u0627\\u0644+ \\u062c\\u0627\\u0645\\u0639 +\\u0627\\u062a \\u0633\\u0645\\u0639 +\\u0647 \\u0627\\u0644+ \\u0628\\u0644\\u062f\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 233,\n 'f': \"233\",\n },\n\"\\u0627\\u0644+ \\u0642\\u0644\\u0628 \\u0627\\u0644\\u0630\\u064a \\u064a\\u0624\\u0645\\u0646 \\u0628+ \\u0627\\u0644\\u0644\\u0647 \\u0644\\u0627 \\u064a\\u064a\\u0627\\u0633 \\u0623\\u0628\\u062f +\\u0627 \\u0644\\u0627\\u0646 +\\u0647 \\u064a\\u0633\\u064a\\u0631 \\u0646\\u062d\\u0648 \\u0627\\u0644+ \\u0646\\u0648\\u0631 \\u0648+ \\u0627\\u0644+ \\u0623\\u0645\\u0644 . \\u0648+ \\u0627\\u0644+ \\u062d\\u064a\\u0627\\u0647 .\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 78,\n 'f': \"78\",\n },\n\"\\u0623\\u0635\\u0628\\u062d +\\u0646\\u0627 \\u0623\\u0635\\u0628\\u062d \\u0627\\u0644+ \\u0645\\u0644\\u0643 \\u0644+ \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644\\u0644\\u0647\\u0645 \\u0644+ \\u0643+ \\u0627\\u0644+ \\u062d\\u0645\\u062f \\u0627\\u062d\\u064a\\u064a\\u062a\\u0646\\u0627 \\u0628\\u0639\\u062f \\u0645\\u0627 \\u0645\\u062a +\\u0646\\u0627 \\u0627\\u0644+ \\u064a\\u0643 \\u0627\\u0644+ \\u0646\\u0634\\u0648\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 881,\n 'f': \"881\",\n },\n\"\\u0634\\u0643\\u0644 \\u0643+ \\u0627\\u062d\\u0648\\u0644 \\u0645\\u0648\\u0628 \\u062d\\u0648\\u0644 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 614,\n 'f': \"614\",\n },\n\"\\u0628+ \\u0635\\u0641\\u062d +\\u0627\\u062a \\u0627\\u0644+ \\u0641\\u064a\\u0632\\u0627 \\u0639\\u0644\\u0649 \\u062c\\u0648\\u0627\\u0632 \\u0627\\u0644+ \\u0633\\u0641\\u0631 \\u062d\\u0627\\u0637 +\\u064a\\u0646 \\u0635\\u0648\\u0631 \\u0627\\u062b\\u0627\\u0631 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0639\\u0627\\u0633\\u0627\\u0633 \\u0647\\u064a \\u0643+ \\u0628\\u0633 \\u0627\\u0634\\u0648\\u0641 +\\u0647\\u0645 \\u0631\\u062d \\u0627\\u062d\\u0646 \\u0648+ \\u0627\\u0628\\u0637\\u0644 \\u0627\\u0633\\u0627\\u0641\\u0631\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 414,\n 'f': \"414\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0642\\u0648\\u0646 +\\u0627 \\u0639\\u0644\\u0649 \\u0646\\u0641\\u0648\\u0633 +\\u0646\\u0627 \\u0627\\u0644+ \\u0636\\u0639\\u064a\\u0641\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 73,\n 'f': \"73\",\n },\n\"\\u0627\\u0634\\u062a\\u0642 +\\u062a \\u0644+ \\u0645\\u0643 +\\u0647 \\u0648+ \\u0644+ \\u0631\\u0627\\u0626\\u062d +\\u0647 \\u0645\\u0643 +\\u0647 \\u0648+ \\u0644+ \\u0627\\u0644+ \\u0635\\u0644\\u0627\\u0647 \\u0641\\u064a \\u0645\\u0643 +\\u0647 \\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0631\\u0632\\u0642\\u0646\\u064a \\u0623\\u0646\\u0627 \\u0648+ \\u0643\\u0644 \\u0645\\u0646 \\u0627\\u0634\\u062a\\u0627\\u0642 \\u0627\\u0644\\u0649 \\u0645\\u0643 +\\u0647 \\u0628+ \\u0632\\u064a\\u0627\\u0631 +\\u0647 \\u0639\\u0627\\u062c\\u0644 +\\u0627 \\u063a\\u064a\\u0631 \\u0623\\u062c\\u0644\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 620,\n 'f': \"620\",\n },\n\"\\u0628\\u0639\\u062f \\u0643+ \\u0645\\u0627 \\u0634\\u0641\\u062a \\u0627\\u0634\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 69,\n 'f': \"69\",\n },\n\"\\u0623\\u0633\\u0641\\u0644 \\u0645\\u0646 \\u0628\\u0639\\u0636 +\\u0647\\u0645\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1607,\n 'f': \"1607\",\n },\n\"\\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0645\\u0627 \\u0641\\u064a \\u0627\\u0634\\u064a \\u0645\\u0632\\u0639\\u0644\\u0646\\u064a \\u0627\\u0644\\u0627 +\\u0627\\u0646 +\\u0647 \\u0627\\u0633\\u0645 +\\u0647 \\u0645\\u062d\\u0645\\u062f\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1318,\n 'f': \"1318\",\n },\n\"\\u0645\\u0627 \\u0623\\u0642\\u0633\\u0649 \\u063a\\u0631\\u0628 +\\u0647 \\u0627\\u0644+ \\u0631\\u0648\\u062d\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 785,\n 'f': \"785\",\n },\n\"\\u0631\\u0628 +\\u0646\\u0627 \\u064a\\u0635\\u0644\\u062d \\u062d\\u0627\\u0644 +\\u0646\\u0627 \\u062c\\u0645\\u064a\\u0639 +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 777,\n 'f': \"777\",\n },\n\"\\u0631\\u0628 +\\u0646\\u0627 \\u064a\\u0628\\u0627\\u0631\\u0643\\u0644\\u0643 \\u064a\\u0627 \\u0627\\u0633\\u062a\\u0627\\u0630\\u064a \\u064a\\u0639\\u0632\\u0643\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1754,\n 'f': \"1754\",\n },\n\"\\u064a\\u0627\\u0631\\u0628 \\u064a\\u0642\\u0648\\u064a +\\u0646\\u0627 \\u062c\\u0645\\u064a\\u0639 +\\u0627 \\u0639\\u0644\\u0649 \\u0637\\u0627\\u0639 +\\u062a +\\u0647 \\u0648+ \\u062d\\u0633\\u0646 \\u0639\\u0628\\u0627\\u062f +\\u062a +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 450,\n 'f': \"450\",\n },\n\"\\u0627\\u0644+ \\u0645\\u0647\\u0645 \\u0627\\u0644+ \\u062f\\u0639\\u0627\\u0621 \\u0641\\u064a \\u0627\\u0644+ \\u0633\\u062c\\u0648\\u062f \\u062d\\u062a\\u0649 \\u062a\\u063a\\u0633\\u0644 \\u0639\\u064a\\u0646 +\\u064a \\u0643+ \\u0627\\u0644+ \\u062f\\u0645\\u0648\\u0639\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 845,\n 'f': \"845\",\n },\n\"\\u0633\\u062e\\u0627\\u0641 +\\u0647 \\u0628+ \\u0643\\u0644 \\u0645\\u0627\\u062a\\u062d\\u0648\\u064a \\u0627\\u0644+ \\u0643\\u0644\\u0645\\u0647 \\u0645\\u0646 \\u0645\\u0639\\u0646\\u0649\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 844,\n 'f': \"844\",\n },\n\"\\u0633\\u062e\\u0627\\u0641 +\\u0647 \\u0627\\u0644+ \\u0634\\u0627\\u0645\\u064a +\\u064a\\u0646 \\u0623\\u0628\\u062f +\\u0627 \\u0645\\u0627 \\u064a\\u0646\\u0641\\u0639 \\u0644+ +\\u0647\\u0645 \\u0627\\u0644+ \\u0643\\u0648\\u0645\\u064a\\u062f\\u064a\\u0627\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 867,\n 'f': \"867\",\n },\n\"\\u0634\\u0628\\u0627\\u0628 +\\u0646\\u0627 \\u0632\\u064a \\u0627\\u0644+ \\u0648\\u0631\\u062f\\u0647 \\u0628\\u0633 \\u0628\\u062f +\\u0647\\u0645 \\u062d\\u062f +\\u0627 \\u064a\\u062f\\u0639\\u0645 +\\u0647\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 849,\n 'f': \"849\",\n },\n\"\\u0633\\u0639\\u0627\\u062f\\u062a\\u0646\\u0627 \\u062a\\u0643\\u0648\\u0646 \\u0628+ \\u062d\\u0633\\u0646 \\u0627\\u0644+ \\u0627\\u0633\\u062a\\u0645\\u062a\\u0627\\u0639 \\u0628+ \\u0627\\u0644+ \\u0627\\u0634\\u064a\\u0627\\u0621 \\u0627\\u0644\\u062a\\u064a \\u0646\\u062d\\u0635\\u0644 \\u0639\\u0644\\u064a +\\u0647\\u0627 +\\u0643\\u0645\\u0627 \\u062a\\u0643\\u0648\\u0646 \\u0628+ \\u062d\\u0633\\u0646 \\u0627\\u0644+ \\u0627\\u0633\\u062a\\u063a\\u0646\\u0627\\u0621 \\u0639\\u0646 \\u0627\\u0644+ \\u0623\\u0634\\u064a\\u0627\\u0621 \\u0627\\u0644\\u062a\\u064a \\u0646\\u062d\\u0631\\u0645 \\u0645\\u0646 +\\u0647\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1262,\n 'f': \"1262\",\n },\n\"\\u0644+ \\u0627\\u0644+ \\u0627\\u0633\\u0641 \\u0627\\u0644+ \\u0628\\u0639\\u0636 \\u064a\\u0639\\u062a\\u0642\\u062f +\\u0627\\u0646 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0627\\u0644+ \\u0646\\u0648\\u0648\\u064a \\u0633+ \\u064a\\u062d\\u0644 \\u0645\\u0634\\u0627\\u0643\\u0644 +\\u0646\\u0627 \\u0627\\u0644+ \\u0627\\u0642\\u062a\\u0635\\u0627\\u062f\\u064a\\u0647 \\u0648+ \\u0644\\u0643\\u0646 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0644\\u0627 \\u064a\\u0645\\u062a\\u0644\\u0643 \\u0645\\u0648\\u0627\\u0631\\u062f \\u0645\\u0627\\u0644\\u064a +\\u0647 \\u0648+ \\u0647\\u0630\\u0627 \\u064a\\u0639\\u0646\\u064a \\u0627\\u0644\\u062d\\u0627\\u062c +\\u0647 \\u0644+ \\u0634\\u0631\\u064a\\u0643 \\u0623\\u062c\\u0646\\u0628\\u064a +\\u0643\\u0645\\u0627 \\u0623\\u0639\\u0644\\u0646 +\\u062a \\u0647\\u064a\\u0626 +\\u0647 \\u0627\\u0644+ \\u0637\\u0627\\u0642\\u0647 \\u064a\\u0645\\u0644\\u0643 \\u063a\\u0627\\u0644\\u0628\\u064a +\\u0647 \\u0627\\u0644+ \\u0623\\u0633\\u0647\\u0645 +\\u0643\\u0645\\u0627 \\u0641\\u064a \\u062a\\u0631\\u0643\\u064a\\u0627 \\u0639\\u0644\\u0649 \\u0633\\u0628\\u064a\\u0644 \\u0627\\u0644+ \\u0645\\u062b\\u0627\\u0644 \\u0648+ \\u0630\\u0644\\u0643 \\u064a\\u0639\\u0646\\u064a +\\u0627\\u0646 \\u0647\\u0630\\u0627 \\u0627\\u0644+ \\u0634\\u0631\\u064a\\u0643 \\u0633+ \\u064a\\u0645\\u062a\\u0644\\u0643 \\u0627\\u0644+ \\u062c\\u0632\\u0621 \\u0627\\u0644+ \\u0623\\u0643\\u0628\\u0631 \\u0645\\u0646 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0648+ \\u0644\\u0646 \\u064a\\u0643\\u0648\\u0646 \\u0645\\u0644\\u0643 \\u0644+ \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0648+ \\u0628+ \\u0627\\u0644+ \\u062a\\u0627\\u0644\\u064a \\u0633+ \\u062a\\u0642\\u0648\\u0645 \\u0627\\u0644+ \\u062d\\u0643\\u0648\\u0645\\u0647 \\u0627\\u064a\\u0636 +\\u0627 \\u0628+ \\u062f\\u0641\\u0639 \\u062a\\u0643\\u0627\\u0644\\u064a\\u0641 \\u0627\\u0644+ \\u0643\\u0647\\u0631\\u0628\\u0627\\u0621 \\u0644+ \\u0627\\u0644+ \\u0645\\u0633\\u062a\\u062b\\u0645\\u0631 \\u0648+ \\u0628+ \\u0627\\u0644+ \\u062a\\u0627\\u0644\\u064a \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0627\\u0644+ \\u0646\\u0648\\u0648\\u064a \\u0644\\u0646 \\u064a\\u0648\\u0641\\u0631 \\u0644+ \\u0643+ \\u0627\\u0644+ \\u0643\\u0647\\u0631\\u0628\\u0627\\u0621 \\u0628+ \\u0633\\u0639\\u0631 \\u0642\\u0644\\u064a\\u0644\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 76,\n 'f': \"76\",\n },\n\"\\u0623\\u0634\\u0647\\u062f \\u0627\\u0644\\u0644\\u0647 +\\u0627\\u0646 +\\u064a \\u0627\\u062d\\u0628\\u0643 \\u0641\\u064a \\u0627\\u0644\\u0644\\u0647 \\u0627\\u062f\\u0639 +\\u0648\\u0627 +\\u0627\\u0646 \\u0646\\u062d\\u0634\\u0631 \\u0645\\u0639 \\u062d\\u0628\\u064a\\u0628 +\\u0646\\u0627 \\u0627\\u0645\\u0627\\u0645 +\\u0646\\u0627 \\u0645\\u062d\\u0645\\u062f \\u0635\\u0644\\u0649 \\u0627\\u0644\\u0644\\u0647 \\u0639\\u0644\\u064a +\\u0647 \\u0633\\u0644\\u0645 \\u0641\\u064a \\u0627\\u0644+ \\u062c\\u0646\\u0647 \\u0623\\u0645\\u064a\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1505,\n 'f': \"1505\",\n },\n\"\\u0647\\u0630\\u0627 \\u0627\\u0644\\u0644\\u064a \\u0641+ \\u0627\\u0644+ \\u062d\\u064a\\u0646 \\u0641\\u064a +\\u0647 \\u0627\\u0644+ \\u0639\\u0631\\u0628 \\u0641\\u0642\\u0637 \\u0627\\u0644+ \\u0647\\u0628\\u0644 \\u0627\\u0644+ \\u062a\\u062e\\u0644\\u0641\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 937,\n 'f': \"937\",\n },\n\"\\u0635\\u0628\\u0627\\u062d \\u0645\\u0645\\u0644\\u0648\\u0621 \\u0628+ \\u0627\\u0644+ \\u062e\\u064a\\u0631 \\u0644+ \\u062c\\u0645\\u064a\\u0639 \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646 \\u064a\\u0627 \\u0631\\u0628\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1521,\n 'f': \"1521\",\n },\n\"\\u0647\\u0630\\u0647 \\u062c\\u0632\\u0627\\u0621 \\u0643\\u0644 \\u0645\\u0646 \\u064a\\u062a\\u0637\\u0627\\u0648\\u0644 \\u0639\\u0644\\u0649 \\u0631\\u062c\\u0627\\u0644 \\u0647\\u0630\\u0647 \\u0627\\u0644+ \\u0648\\u0637\\u0646 \\u0627\\u0644+ \\u0639\\u0632\\u064a\\u0632\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1286,\n 'f': \"1286\",\n },\n\"\\u0644\\u0648 \\u064a\\u0637\\u0644\\u0639 \\u0639\\u0644\\u064a +\\u0647\\u0645 \\u0628\\u0641\\u0636\\u062d\\u0648 \\u0639\\u0631\\u0636 +\\u0647\\u0645 \\u0643\\u0644 +\\u0647\\u0645\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 780,\n 'f': \"780\",\n },\n\"\\u0631\\u0628 +\\u0646\\u0627 \\u064a\\u062d\\u0645\\u0649 \\u0627\\u0644+ \\u0625\\u0633\\u0644\\u0627\\u0645 \\u0648+ \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1362,\n 'f': \"1362\",\n },\n\"\\u0645\\u062a\\u0649 \\u0631\\u062d \\u0646\\u0634\\u0648\\u0641 \\u0635\\u062d\\u0641\\u064a +\\u064a\\u0646 \\u064a\\u0643\\u0634\\u0641 +\\u0648\\u0627 \\u0641\\u0636\\u0627\\u0626\\u062d \\u0627\\u0644+ \\u0641\\u0633\\u0627\\u062f \\u0648+ \\u0645\\u0627 \\u064a\\u062e\\u0627\\u0641 +\\u0648\\u0627 \\u0645\\u0646 \\u0627\\u064a \\u062c\\u0647 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1326,\n 'f': \"1326\",\n },\n\"\\u0645\\u0627 \\u0633\\u0627\\u0644 \\u0644+ \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644+ \\u0647\\u0627\\u062f\\u064a \\u0627\\u0644+ \\u062e\\u0627\\u0644\\u0642\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 701,\n 'f': \"701\",\n },\n\"\\u062d\\u062b\\u0627\\u0644 +\\u0647 \\u0634\\u0628\\u0627\\u0628 \\u0635\\u0627\\u064a\\u0639\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1239,\n 'f': \"1239\",\n },\n\"\\u0644+ \\u0627\\u0644\\u0627 \\u0628\\u0633 \\u0627\\u063a\\u0644\\u0628 +\\u0647\\u0645 \\u062f\\u0627\\u0631\\u064a +\\u064a\\u0646 \\u0628\\u0633 \\u064a\\u0642\\u0648\\u0644 +\\u0647\\u0627 \\u0627\\u0633\\u062a\\u0639\\u0628\\u0627\\u0637 \\u0648+ \\u0631\\u0641\\u0639 \\u0636\\u0639\\u0637 \\u062e\\u0630 +\\u0647\\u0627 \\u0645\\u0646 +\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 705,\n 'f': \"705\",\n },\n\"\\u062d\\u0631\\u0627\\u0645 \\u0639\\u0644\\u064a \\u0643+ \\u0643\\u0627\\u0646\\u0648 \\u0628\\u0642\\u0631 +\\u0647 \\u0628+ \\u062a\\u0648\\u0644\\u062f\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1320,\n 'f': \"1320\",\n },\n\"\\u0645\\u0627 \\u0623\\u0646\\u0627 \\u0634\\u0637\\u0628 +\\u062a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 30,\n 'f': \"30\",\n },\n\"\\u0623\\u062d\\u064a\\u0627\\u0646 +\\u0627 \\u0627\\u0644+ \\u0648\\u062d\\u062f\\u0647 \\u062a\\u0632\\u064a\\u0644 \\u0628\\u0639\\u0636 +\\u0627 \\u0645\\u0646 \\u0627\\u0644+ \\u0647\\u0645\\u0648\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1319,\n 'f': \"1319\",\n },\n\"\\u0645\\u0627 \\u0627\\u0644+ \\u0632\\u0647 \\u0634\\u0643\\u0644 +\\u0647 \\u0628+ \\u0634\\u0647\\u064a \\u0628\\u062f\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1464,\n 'f': \"1464\",\n },\n\"\\u0646\\u062d\\u0646 \\u0646\\u0631\\u0641\\u0636 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0627\\u0644+ \\u0646\\u0648\\u0648\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1635,\n 'f': \"1635\",\n },\n\"\\u0648\\u0632\\u064a\\u0631 \\u0627\\u0644+ \\u062a\\u0639\\u0644\\u064a\\u0645 \\u0627\\u0644+ \\u0639\\u0627\\u0644\\u064a : \\u0644\\u0627 \\u0632\\u064a\\u0627\\u062f +\\u0647 \\u0644+ \\u0627\\u0644+ \\u062f\\u0639\\u0645 \\u0627\\u0644+ \\u0645\\u0627\\u0644\\u064a \\u0644+ \\u0627\\u0644+ \\u062c\\u0627\\u0645\\u0639 +\\u0627\\u062a \\u062e\\u0644\\u0627\\u0644 \\u0627\\u0644+ \\u0633\\u0646\\u0648 +\\u0627\\u062a \\u0627\\u0644+ \\u062b\\u0644\\u0627\\u062b \\u0627\\u0644\\u0645\\u0642\\u0628\\u0644 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 367,\n 'f': \"367\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u063a\\u0641\\u0631 \\u0644\\u064a \\u0645\\u0627 \\u0644\\u0627 \\u064a\\u0639\\u0644\\u0645 +\\u0648\\u0646 \\u0627\\u062c\\u0639\\u0644\\u0646\\u064a \\u062e\\u064a\\u0631 +\\u0627 \\u0645\\u0645\\u0627 \\u064a\\u0638\\u0646 +\\u0648\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 408,\n 'f': \"408\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0632\\u064a\\u062f \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646 \\u0648+ \\u0628\\u0627\\u0631\\u0643 \\u0641\\u064a +\\u0647\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1029,\n 'f': \"1029\",\n },\n\"\\u0639\\u0646\\u062c\\u062f \\u0627\\u0646\\u0648 \\u0628\\u0627\\u0644 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1395,\n 'f': \"1395\",\n },\n\"\\u0645\\u0639\\u0627\\u064a\\u0627 \\u0632\\u0645\\u064a\\u0644 \\u0632\\u0645\\u064a\\u0644 \\u064a\\u0644\\u0639\\u0646 \\u0627\\u0644+ \\u0645\\u0633\\u062e\\u0631\\u0647 \\u0643\\u0644 +\\u0647\\u0645 \\u0645\\u0627\\u064a\\u0633\\u062a\\u062d\\u0648\\u0646 \\u0630\\u0648\\u0644\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1412,\n 'f': \"1412\",\n },\n\"\\u0645\\u0646 \\u0627\\u062d\\u0628 +\\u0647 \\u0627\\u0644\\u0644\\u0647 \\u062d\\u0628\\u0628 \\u0628+ +\\u0647 \\u062e\\u0644\\u0642 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 99,\n 'f': \"99\",\n },\n\"\\u0627\\u0641\\u062a\\u062e\\u0631 +\\u0627\\u0646 +\\u064a \\u0645\\u0633\\u0644\\u0645 \\u0646\\u0639\\u0645 +\\u0647 \\u0645\\u0646 \\u0646\\u0639\\u0645 \\u0631\\u0628 +\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1144,\n 'f': \"1144\",\n },\n\"\\u0643\\u0644 \\u0627\\u0644+ \\u0627\\u062d\\u062a\\u0631\\u0627\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1108,\n 'f': \"1108\",\n },\n\"\\u0642\\u0635 +\\u0647 \\u0631\\u0627\\u0626\\u0639 +\\u0647 \\u064a\\u0627\\u0631\\u064a\\u062a \\u0643\\u0644 \\u0627\\u0644+ \\u0631\\u062c\\u0627\\u0644 \\u0647\\u064a \\u0643+\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1637,\n 'f': \"1637\",\n },\n\"\\u0648\\u0633\\u062f\\u0626\\u064a\\u0646\\u064a \\u0627\\u0646\\u0643\\u0648 \\u0643\\u0644\\u0627\\u0628\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1089,\n 'f': \"1089\",\n },\n\"\\u0641\\u064a \\u062e\\u0637\\u0628 +\\u0647 \\u0648\\u062d\\u062f +\\u0647 \\u0631\\u0641\\u0636 \\u0634\\u064a\\u062e \\u0625\\u062e\\u0648\\u0627\\u0646 +\\u064a \\u0627\\u0644+ \\u0646\\u0648\\u0648\\u064a \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646\\u064a \\u0648+ \\u0645\\u062f\\u062d \\u0627\\u0644+ \\u0646\\u0648\\u0648\\u064a \\u0627\\u0644+ \\u0625\\u064a\\u0631\\u0627\\u0646\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 855,\n 'f': \"855\",\n },\n\"\\u0633\\u0644\\u0645 +\\u062a \\u064a\\u0645\\u0646\\u0627 \\u0643+ \\u0643\\u0644\\u0627\\u0645 \\u0645\\u0646 \\u0630\\u0647\\u0628\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 787,\n 'f': \"787\",\n },\n\"\\u0631\\u0628 +\\u0646\\u0627 \\u064a\\u0639\\u064a\\u0646 +\\u0646\\u0627 \\u0639\\u0644\\u064a \\u0646\\u0641\\u0633 +\\u0646\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 168,\n 'f': \"168\",\n },\n\"\\u0627\\u0644+ \\u062d\\u0645\\u062f \\u0627\\u0644\\u0644\\u0647 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u0625\\u0633\\u0644\\u0627\\u0645 \\u064a\\u0627 \\u0631\\u0628 \\u0627\\u0647\\u062f\\u064a \\u0643\\u0644 \\u0645\\u0646 \\u0623\\u062d\\u0628 \\u0647\\u0630\\u0627 \\u0627\\u0644+ \\u062f\\u064a\\u0646 \\u0648+ \\u0643\\u0644 \\u0645\\u0646 \\u062a\\u0631\\u062f\\u062f \\u0641\\u064a \\u062f\\u062e\\u0648\\u0644 +\\u0647 \\u0648+ \\u0627\\u0631\\u062d\\u0645 +\\u0646\\u0627 \\u062c\\u0645\\u064a\\u0639 +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 942,\n 'f': \"942\",\n },\n\"\\u0635\\u0628\\u0627\\u062d \\u0643+ \\u062e\\u064a\\u0631 \\u064a\\u0627 \\u062f\\u0643\\u062a\\u0648\\u0631 \\u0633\\u0644\\u0645\\u0627\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 212,\n 'f': \"212\",\n },\n\"\\u0627\\u0644+ \\u0638\\u0627\\u0647\\u0631 +\\u0627\\u0646 +\\u0647 \\u062c\\u0627\\u064a\\u064a\\u0646 \\u064a\\u0633\\u062a\\u0647\\u0628\\u0644\\u0648\\u0646 \\u0639\\u0627\\u0644\\u062d\\u0643\\u0627\\u0645 \\u0628\\u0633\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1544,\n 'f': \"1544\",\n },\n\"\\u0647\\u0624\\u0644\\u0627\\u0621 \\u0645\\u0639\\u0648\\u0642 +\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1043,\n 'f': \"1043\",\n },\n\"\\u0639\\u064a\\u0646 \\u0627\\u0644+ \\u0639\\u0642\\u0644 \\u0631\\u0628 +\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1727,\n 'f': \"1727\",\n },\n\"\\u064a\\u0627\\u062c\\u0645\\u0627\\u0639\\u0647 \\u064a\\u0642\\u0648\\u0644 +\\u0648\\u0646 \\u0628\\u0634\\u0627\\u0631 \\u0627\\u0644+ \\u0623\\u0633\\u062f \\u0645\\u0627\\u062a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 480,\n 'f': \"480\",\n },\n\"+\\u0627\\u0646 \\u0627\\u0644+ \\u062c\\u0645\\u064a\\u0644 \\u0627\\u0630 +\\u0627 \\u0627\\u062e\\u0641\\u064a +\\u062a +\\u0647 \\u0638\\u0647\\u0631 +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1593,\n 'f': \"1593\",\n },\n\"\\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u062d\\u0631\\u0642 \\u0644+ \\u0627\\u062e\\u0648 +\\u0627\\u062a \\u0627\\u0644+ \\u0643\\u0644\\u0628\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1440,\n 'f': \"1440\",\n },\n\"\\u0645\\u0647\\u0648 \\u0623\\u0635\\u0644 +\\u0627 \\u0632\\u064a \\u0645\\u0634\\u0631\\u0648\\u0639 \\u0627\\u0644+ \\u0628\\u0627\\u0635 \\u0627\\u0644+ \\u0633\\u0631\\u064a\\u0639 \\u064a\\u0644\\u064a \\u0627\\u0633\\u062a\\u0645\\u0644\\u0643\\u0648 \\u0639\\u0634\\u0627\\u0646 +\\u0647 \\u0634\\u0627\\u0631\\u0639 \\u0627\\u0644+ \\u0645\\u062d\\u0637\\u0647 \\u0643\\u0627\\u0645\\u0644 \\u0644\\u064a\\u0633 +\\u0647 \\u0628+ \\u0646\\u0633\\u0645\\u0639 \\u0639\\u0646\\u0648 \\u0645\\u0627 \\u0634\\u0641 +\\u0646\\u0627\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1746,\n 'f': \"1746\",\n },\n\"\\u064a\\u0627\\u0631\\u0628 \\u0637\\u0647\\u0631 \\u0642\\u0644\\u0648\\u0628 +\\u0646\\u0627 \\u064a\\u0627\\u0631\\u0628 \\u0627\\u0647\\u062f\\u064a +\\u0646\\u0627 \\u0644+ \\u0627\\u0644+ \\u0635\\u0648\\u0627\\u0628\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 32,\n 'f': \"32\",\n },\n\"\\u0623\\u062e \\u064a\\u0627 \\u0628\\u0637\\u0646\\u064a \\u0639\\u0648\\u0631\\u0646\\u064a \\u0645\\u0646 \\u0627\\u0644+ \\u0636\\u062d\\u0643\\u0643\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 917,\n 'f': \"917\",\n },\n\"\\u0635\\u0628\\u0627\\u062d \\u0627\\u0644+ \\u062f\\u0631\\u0628 \\u0644+ \\u0644\\u062c\\u0646 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1163,\n 'f': \"1163\",\n },\n\"\\u0643\\u0644\\u0627\\u0645 \\u0633\\u0644\\u064a\\u0645 \\u0623\\u0644\\u0641 \\u0628+ \\u0627\\u0644+ \\u0645\\u064a\\u0647 \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 420,\n 'f': \"420\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0644\\u0627 \\u062a\\u062d\\u0631\\u0645 \\u0623\\u062d\\u062f \\u0645\\u0646 \\u0647\\u0630\\u0647 \\u0627\\u0644+ \\u0646\\u0639\\u0645\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1442,\n 'f': \"1442\",\n },\n\"\\u0645\\u0648\\u0636\\u0648\\u0639 \\u0627\\u0643\\u062a\\u0631 \\u0645\\u0646 \\u0631\\u0627\\u0626\\u0639\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1187,\n 'f': \"1187\",\n },\n\"+\\u0643\\u0646 +\\u0646\\u0627 \\u0646\\u0642\\u0648\\u0644 \\u0639\\u0627\\u0647 +\\u0627\\u062a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1304,\n 'f': \"1304\",\n },\n\"\\u0645\\u0627 \\u0623\\u062c\\u0645\\u0644 \\u0627\\u0644+ \\u0643\\u0644\\u0627\\u0645 \\u0648+ \\u0627\\u0644+ \\u0627\\u0631\\u0648\\u0639 +\\u0627\\u0646 \\u0646\\u0637\\u0628\\u0642 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 903,\n 'f': \"903\",\n },\n\"\\u0635\\u0627\\u0631 \\u0628\\u062f +\\u0647\\u0627 \\u0628+ \\u0637\\u0627\\u0631 +\\u064a +\\u0647 \\u0627\\u0644+ \\u062a\\u0642\\u0648\\u0649 \\u0634\\u062d\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 185,\n 'f': \"185\",\n },\n\"\\u0627\\u0644+ \\u062d\\u0645\\u062f\\u0644\\u0644\\u0647 \\u0632\\u0627\\u062f +\\u062a \\u062b\\u0642\\u0627\\u0641\\u062a\\u064a \\u0644+ \\u0643\\u062b\\u064a\\u0631 \\u0645\\u0646 \\u0627\\u0644+ \\u0623\\u0634\\u064a\\u0627\\u0621 \\u0648+ \\u062a\\u0646\\u0648\\u0639 +\\u062a \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0647\\u064a\\u0645 \\u0644\\u062f\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 962,\n 'f': \"962\",\n },\n\"\\u0635\\u062d \\u064a\\u0627 \\u0623\\u062e +\\u064a \\u0635\\u062f\\u0642 +\\u062a \\u0627\\u0644\\u0644\\u0647 \\u064a\\u0639\\u064a\\u0646 \\u0627\\u0644+ \\u062c\\u0645\\u064a\\u0639\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1540,\n 'f': \"1540\",\n },\n\"\\u0647\\u0648 \\u0631\\u062d\\u064a\\u0645 \\u0628+ \\u0643\\u0644 \\u0634\\u064a\\u0621 \\u0641\\u064a \\u0627\\u0644+ \\u0643\\u0648\\u0646 \\u0647\\u0648 \\u0627\\u0644+ \\u062e\\u0627\\u0644\\u0642 \\u0641+ \\u0644\\u0627\\u0628\\u062f +\\u0627\\u0646 \\u064a\\u0631\\u0632\\u0642 \\u0645\\u062e\\u0644\\u0648\\u0642 +\\u0627\\u062a +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 270,\n 'f': \"270\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u064a\\u0627 \\u0631\\u064a +\\u062a +\\u0643\\u0646 +\\u0646\\u0627 \\u0641\\u064a \\u0630\\u0627\\u0643 \\u0627\\u0644+ \\u0632\\u0645\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 44,\n 'f': \"44\",\n },\n\"\\u0627\\u0630 +\\u0627 \\u0641\\u0643\\u0631 +\\u062a \\u0645\\u0631 +\\u0647 \\u062a\\u062e\\u0633\\u0631 \\u0627\\u0635\\u062d\\u0627\\u0628 \\u0643+ \\u064a\\u0627 \\u0644\\u064a\\u062a \\u062a\\u062e\\u0633\\u0631 +\\u0647\\u0645 \\u0639\\u0644\\u0649 \\u0623\\u062d\\u062f \\u064a\\u0633\\u062a\\u0627\\u0647\\u0644 \\u060c \\u0635\\u062d \\u0627\\u0644+ \\u062d\\u064a\\u0627\\u0647 \\u062a\\u0639\\u0637\\u064a \\u0643+ \\u0645\\u064a\\u0647 \\u062d\\u0628 \\u0628\\u0633 \\u0627\\u0644+ \\u062d\\u064a\\u0627\\u0647 \\u0645\\u0627 \\u062a\\u0647\\u062f\\u064a \\u0643+ \\u0623\\u0635\\u062d\\u0627\\u0628 \\u0645\\u0631 +\\u062a +\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 371,\n 'f': \"371\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0643\\u0641\\u0646\\u064a \\u0628+ \\u062d\\u0644\\u0627\\u0644 \\u0643+ \\u0639\\u0646 \\u062d\\u0631\\u0627\\u0645 \\u0643+ \\u0648+ \\u0627\\u063a\\u0646\\u0646\\u064a \\u0628+ \\u0641\\u0636\\u0644 \\u0643+ \\u0639\\u0646\\u0645\\u0646 \\u0633\\u0648\\u0627 \\u0643+ \\u064a\\u0627 \\u0631\\u0628\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 583,\n 'f': \"583\",\n },\n\"\\u0628\\u0627\\u0631\\u0643 \\u0627\\u0644\\u0644\\u0647 \\u0641\\u064a \\u0643+ \\u0623\\u0646\\u0627 \\u0646\\u0636\\u0627\\u0644 \\u0641\\u062f\\u0639\\u0648\\u0644\\u064a \\u0628+ \\u0632\\u0648\\u062c +\\u0647 \\u0635\\u0627\\u0644\\u062d +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 941,\n 'f': \"941\",\n },\n\"\\u0635\\u0628\\u0627\\u062d \\u0643+ \\u062c\\u0645\\u0627\\u0644 \\u0631\\u0648\\u0639 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 818,\n 'f': \"818\",\n },\n\"\\u0631\\u064a\\u062d +\\u062a \\u0643+ \\u0637\\u0644\\u0639 +\\u062a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 196,\n 'f': \"196\",\n },\n\"\\u0627\\u0644+ \\u062f\\u0648\\u0644 \\u0627\\u0644+ \\u0645\\u062a\\u0642\\u062f\\u0645\\u0647 \\u0627\\u0644\\u0627\\u0646 \\u062a\\u062a\\u062c\\u0647 \\u0644\\u0633\\u062a\\u062e\\u062f\\u0627\\u0645 \\u0627\\u0644+ \\u0637\\u0627\\u0642\\u0647 \\u0627\\u0644+ \\u0645\\u062a\\u062c\\u062f\\u062f\\u0647 \\u0644\\u0627\\u0646 +\\u0647\\u0627 \\u0623\\u0642\\u0644 \\u0643\\u0644\\u0641 +\\u0647 \\u0648+ \\u0644\\u064a\\u0633 \\u0644+ +\\u0647\\u0627 \\u0645\\u062e\\u0627\\u0637\\u0631 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u0628\\u064a\\u0626\\u0647 \\u0648+ \\u0627\\u0644+ \\u0625\\u0646\\u0633\\u0627\\u0646 \\u0648+ \\u0646\\u062d\\u0646 \\u0627\\u0644\\u0627\\u0646 \\u0646\\u0639\\u0627\\u0646\\u064a \\u0645\\u0646 \\u0636\\u0627\\u0626\\u0642 +\\u0647 \\u0645\\u0627\\u0644\\u064a +\\u0647 \\u0643\\u0628\\u064a\\u0631 +\\u0647 \\u0648\\u0634\\u062d +\\u0647 \\u0645\\u064a\\u0627\\u0647 \\u0634\\u062f\\u064a\\u062f +\\u0647 \\u0648+ \\u0643\\u0644 +\\u0646\\u0627 \\u064a\\u0639\\u0644\\u0645 \\u0645\\u062f\\u0649 \\u062d\\u0627\\u062c +\\u0647 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0644+ \\u0627\\u0644+ \\u0645\\u064a\\u0627\\u0647 \\u0627\\u0630\\u0643\\u0631 +\\u0643\\u0645 \\u0641\\u0642\\u0637 \\u0628+ \\u0645\\u0627 \\u062d\\u062f\\u062b \\u0641\\u064a \\u0627\\u0644+ \\u064a\\u0627\\u0628\\u0627\\u0646 \\u0648+ \\u0647\\u064a \\u0627\\u0644+ \\u062f\\u0648\\u0644\\u0647 \\u0627\\u0644+ \\u0623\\u0643\\u062b\\u0631 \\u062a\\u0637\\u0648\\u0631 \\u0641\\u064a \\u0645\\u062c\\u0627\\u0644 \\u0627\\u0644+ \\u062a\\u0643\\u0646\\u0648\\u0644\\u0648\\u062c\\u064a\\u0627 \\u0648+ \\u0647\\u064a \\u0639\\u0628\\u0627\\u0631 +\\u0647 \\u0639\\u0646 \\u062c\\u0632\\u0631 \\u0648+ \\u0643\\u0630\\u0644\\u0643 +\\u0643\\u0645 \\u0627\\u062b\\u0631 \\u0639\\u0644\\u064a +\\u0646\\u0627 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0627\\u0644+ \\u0646\\u0648\\u0648\\u064a \\u0627\\u0644+ \\u0625\\u0633\\u0631\\u0627\\u0626\\u064a\\u0644\\u064a \\u0648+ \\u062d\\u0627\\u0644 +\\u0627\\u062a \\u0627\\u0644+ \\u0633\\u0631\\u0637\\u0627\\u0646 \\u0627\\u0644+ \\u0645\\u0646\\u062a\\u0634\\u0631\\u0647 \\u0648+ \\u0644\\u0648 \\u0644\\u0627\\u062d\\u0638 +\\u0646\\u0627 \\u0627\\u0644+ \\u062a\\u0634\\u0648\\u0647 +\\u0627\\u062a \\u0627\\u0644+ \\u062e\\u0644\\u0642\\u064a\\u0647 \\u0627\\u0644+ \\u0623\\u0643\\u062b\\u0631 \\u0641\\u064a \\u062c\\u0646\\u0648\\u0628 \\u0627\\u0644+ \\u0628\\u0644\\u0627\\u062f\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 898,\n 'f': \"898\",\n },\n\"\\u0634\\u0648 \\u064a\\u0639\\u0646\\u064a \\u0628\\u062f \\u0643+ \\u0625\\u064a\\u0627 +\\u0646\\u0627 \\u0646\\u062d\\u0643\\u064a \\u0645\\u0646 \\u0648+ \\u0631\\u0627\\u0643\\u064a \\u0645\\u0634 \\u062d\\u0644\\u0648 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1007,\n 'f': \"1007\",\n },\n\"\\u0639\\u0627\\u0647 +\\u0627\\u062a \\u0643+ \\u064a\\u0627\\u0639\\u0631\\u0628\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 237,\n 'f': \"237\",\n },\n\"\\u0627\\u0644+ \\u0644\\u0645\\u0647 \\u0647\\u064a \\u0627\\u062d\\u0644\\u0649 \\u0627\\u0634\\u064a \\u0628+ \\u0627\\u0644+ \\u0627\\u0641\\u0631\\u0627\\u062d\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 59,\n 'f': \"59\",\n },\n\"\\u0623\\u0633\\u062a\\u0627\\u0630 \\u0639\\u0645\\u0631\\u0648 \\u064a\\u0627 \\u0631\\u064a +\\u062a \\u0634\\u0648\\u064a +\\u0647 \\u062a\\u0631\\u0643\\u064a\\u0632 \\u0639\\u0644\\u0649 \\u0625\\u062e\\u0648 +\\u062a +\\u0646\\u0627 \\u0641\\u064a \\u0628\\u0648\\u0631\\u0645\\u0627 +\\u0627\\u0646 +\\u0647\\u0645 \\u064a\\u062a\\u0639\\u0631\\u0636 +\\u0648\\u0627 \\u0644+ \\u062d\\u0631\\u0628 \\u062d\\u0642\\u064a\\u0642\\u064a +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1226,\n 'f': \"1226\",\n },\n\"\\u0644\\u0627 \\u0648\\u062d\\u062f +\\u0647 \\u0645\\u0639 \\u0627\\u0644+ \\u0642\\u0631\\u0627\\u0646 \\u0647\\u0648 \\u0627\\u0646\\u064a\\u0633 +\\u064a \\u0627\\u0645 \\u0627\\u0644+ \\u063a\\u0631\\u0627\\u0645 \\u0641+ \\u0644\\u0627 \\u0627\\u062d\\u062a\\u0627\\u062c +\\u0647 \\u0645\\u0637\\u0644\\u0642 +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 398,\n 'f': \"398\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0647\\u062f\\u0646\\u0649 \\u0627\\u0644\\u0649 \\u0645\\u0627 \\u062a\\u062d\\u0628 \\u062a\\u0631\\u0636\\u0649\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 988,\n 'f': \"988\",\n },\n\"\\u0637\\u0628\\u0639 +\\u0627 \\u0645\\u062d\\u062f\\u0634 \\u064a\\u0642\\u062f\\u0631 \\u0628\\u0633 \\u0633\\u0628\\u062d\\u0627\\u0646 \\u0627\\u0644\\u0644\\u0647 \\u0641\\u064a +\\u0647 \\u0646\\u0627\\u0633 \\u0639\\u0627\\u064a\\u0634 +\\u064a\\u0646 \\u0645\\u0646 \\u063a\\u064a\\u0631 \\u0645\\u064a\\u0627\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1469,\n 'f': \"1469\",\n },\n\"\\u0646\\u0633\\u0645 +\\u0627\\u062a \\u0627\\u0646\\u062a\\u0639\\u0627\\u0634 \\u0627\\u0644+ \\u0641\\u062c\\u0631 \\u0631\\u062d\\u0645 +\\u0627\\u062a \\u064a\\u0638\\u0641\\u0631 \\u0628+ +\\u0647\\u0627 \\u0623\\u0647\\u0644 \\u0627\\u0644+ \\u0646\\u0648\\u0631 \\u0627\\u0644+ \\u062a\\u0627\\u0645 \\u0627\\u0644\\u0630\\u064a\\u0646 \\u062a\\u0648\\u0633\\u0639 +\\u062a \\u0635\\u062f\\u0648\\u0631 +\\u0647\\u0645 \\u0628+ \\u0627\\u0646\\u0634\\u0631\\u0627\\u062d \\u062c\\u0645\\u0627\\u0639 +\\u0647 \\u0627\\u0644+ \\u0641\\u062c\\u0631 \\u062d\\u064a\\u0648\\u064a +\\u0647 \\u0635\\u0628\\u062d \\u064a\\u062a\\u0646\\u0641\\u0633 \\u0645\\u0646\\u062a\\u0634\\u064a\\u0627 \\u0645\\u0631\\u062d\\u0628 +\\u0627 \\u0628+ \\u0643\\u0644 \\u0645\\u0628\\u0627\\u062f\\u0631 \\u0644+ \\u0627\\u0644+ \\u062e\\u064a\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 365,\n 'f': \"365\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u063a\\u0641\\u0631 \\u0644+ +\\u0647 \\u0648\\u0633\\u0639 \\u0644+ \\u0643+ \\u0631\\u062d\\u0645 +\\u062a \\u0643+ \\u0644+ +\\u0647 \\u0627\\u0635\\u0644\\u062d \\u0644+ +\\u0647 \\u0630\\u0631\\u064a +\\u062a +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1560,\n 'f': \"1560\",\n },\n\"\\u0648\\u0627\\u062d\\u062f \\u0648\\u0627\\u0637\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 307,\n 'f': \"307\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u064a\\u0646\\u062a\\u0642\\u0645 \\u0645\\u0646 +\\u0647\\u0645 \\u0627\\u062c\\u0645\\u0639 +\\u064a\\u0646 \\u0627\\u0644\\u0644\\u064a \\u0641\\u064a \\u0628\\u0627\\u0644\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1452,\n 'f': \"1452\",\n },\n\"\\u0646\\u0627\\u0633 \\u062a\\u0628\\u064a \\u062a\\u062a\\u0645\\u0635\\u062e\\u0631 \\u0645\\u0627\\u062a\\u062f\\u0631\\u064a \\u0634\\u0644 +\\u0648\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1272,\n 'f': \"1272\",\n },\n\"\\u0644\\u0646 \\u062a\\u0645\\u0648\\u062a \\u0646\\u0641\\u0633 \\u062d\\u062a\\u0649 \\u062a\\u0633\\u062a\\u0643\\u0645\\u0644 \\u0631\\u0632\\u0642 +\\u0647\\u0627 \\u0623\\u062c\\u0644 +\\u0647\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 123,\n 'f': \"123\",\n },\n\"\\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u062a\\u0639\\u062f\\u0644 \\u0627\\u0644+ \\u0645\\u0646\\u0627\\u0647\\u062c : \\u062a\\u0642\\u0644\\u064a\\u0635 +\\u0627 \\u0641\\u064a \\u0627\\u0644+ \\u0627\\u0633\\u062a\\u0634\\u0647\\u0627\\u062f \\u0628\\u0627\\u064a +\\u0627\\u062a \\u0642\\u0631\\u0627\\u0646 +\\u064a +\\u0647 \\u0648+ \\u0627\\u062d\\u0627\\u062f\\u064a\\u062b \\u0646\\u0628\\u0648\\u064a +\\u0647 \\u060c \\u0648+ \\u0628\\u062f\\u0644 +\\u0627 \\u0645\\u0646 \\u0630\\u0644\\u0643 \\u062a\\u0645 \\u0627\\u0639\\u062a\\u0645\\u0627\\u062f \\u062f\\u0631\\u0648\\u0633 \\u0623\\u0642\\u0631\\u0628 \\u0627\\u0644\\u0649 \\u0627\\u062e\\u0644\\u0627\\u0642 \\u0627\\u0644+ \\u062d\\u064a\\u0627\\u0647 \\u0627\\u0644\\u064a\\u0648\\u0645 +\\u064a +\\u0647 \\u0644+ \\u0627\\u0644+ \\u0637\\u0627\\u0644\\u0628\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 771,\n 'f': \"771\",\n },\n\"\\u0631\\u0628\\u0645\\u0627 \\u062a\\u0646\\u0627\\u0645 \\u0648+ \\u0639\\u0634\\u0631 +\\u0627\\u062a \\u0627\\u0644+ \\u062f\\u0639\\u0648 +\\u0627\\u062a \\u062a\\u0631\\u0641\\u0639 \\u0644+ \\u0643+ \\u060c \\u0645\\u0646 \\u0641\\u0642\\u064a\\u0631 \\u0627\\u0639\\u0646 +\\u062a +\\u0647 \\u0623\\u0648 \\u062c\\u0627\\u0626\\u0639 \\u0627\\u0637\\u0639\\u0645 +\\u062a +\\u0647 \\u060c \\u0623\\u0648 \\u062d\\u0632\\u064a\\u0646 \\u0627\\u0633\\u0639\\u062f +\\u062a +\\u0647 \\u0627\\u0648\\u0645\\u0643\\u0631\\u0648\\u0628 \\u0646\\u0641\\u0633 +\\u062a \\u0639\\u0646 +\\u0647 \\u060c \\u0641+ \\u0644\\u0627 \\u062a\\u0633\\u062a\\u0647\\u0646 \\u0628+ \\u0641\\u0639\\u0644 \\u0627\\u0644+ \\u062e\\u064a\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 254,\n 'f': \"254\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u062e\\u064a\\u0631 +\\u0627 \\u0645\\u0646 \\u0627\\u0644+ \\u062f\\u0646\\u064a\\u0627 \\u0648+ \\u0645\\u0627\\u0621 \\u0641\\u064a +\\u0647\\u0627 \\u0648+ \\u0645\\u0627 \\u0639\\u0644\\u064a +\\u0647\\u0627 \\u0627\\u0644+ \\u0633\\u0644\\u0627\\u0645 \\u0639\\u0644\\u064a +\\u0643\\u0645 \\u0648+ \\u0631\\u062d\\u0645 +\\u0647 \\u0627\\u0644\\u0644\\u0647 \\u062a\\u0639\\u0627\\u0644\\u0649 \\u0648+ \\u0628\\u0631\\u0643 +\\u0627\\u062a +\\u0647 \\u0625\\u062e\\u0648\\u0627\\u0646 +\\u064a \\u0648+ \\u0627\\u062e\\u0648 +\\u0627\\u062a +\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 305,\n 'f': \"305\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u064a\\u0644\\u0639\\u0646\\u0643\\u0645 \\u064a\\u0627 \\u0623\\u0648\\u0644\\u0627\\u062f \\u0627\\u0644+ \\u062d\\u0631\\u0627\\u0645 \\u0627\\u0644+ \\u0641\\u0646 \\u0644+ +\\u0647 \\u0627\\u0647\\u0644 +\\u0647 \\u0648+ \\u0646\\u0627\\u0633 +\\u0647 \\u0644\\u0627 \\u064a\\u062d\\u062a\\u0627\\u062c \\u0644\\u0627 \\u0645\\u0633\\u0627\\u0628\\u0642 +\\u0647 \\u0648+ \\u0644\\u0627 \\u0632\\u0628\\u064a \\u062a\\u0641\\u0648\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1022,\n 'f': \"1022\",\n },\n\"\\u0639\\u0644\\u064a \\u0643+ \\u0628+ \\u062a\\u0642\\u0648\\u0649 \\u0627\\u0644\\u0644\\u0647 +\\u0627\\u0646 +\\u0643\\u0646 +\\u062a \\u063a\\u0627\\u0641\\u0644 +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 682,\n 'f': \"682\",\n },\n\"\\u062c\\u062f \\u0627\\u0634\\u064a \\u0628+ \\u062e\\u0632\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1116,\n 'f': \"1116\",\n },\n\"\\u0642\\u0645 +\\u0647 \\u0627\\u0644+ \\u062a\\u062e\\u0644\\u0641 \\u0648+ \\u0627\\u0644+ \\u0627\\u0646\\u062d\\u0637\\u0627\\u0637\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1551,\n 'f': \"1551\",\n },\n\"\\u0648+ \\u0628+ \\u062d\\u0628 \\u0627\\u0644+ \\u0646\\u0627\\u0633 \\u0627\\u0644+ \\u0631\\u0627\\u064a\\u0642\\u0647 \\u0627\\u0644\\u064a \\u0628+ \\u062a\\u0636\\u062d\\u0643 \\u0639\\u0644\\u0649 \\u0637\\u0648\\u0644\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1636,\n 'f': \"1636\",\n },\n\"\\u0648+ \\u0633\\u0628\\u0628 \\u0628+ \\u0631\\u0641\\u0639 +\\u0647 \\u0636\\u063a\\u0637 \\u0643+\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1368,\n 'f': \"1368\",\n },\n\"\\u0645\\u062c\\u0646\\u0648\\u0646 \\u0635\\u0648\\u062a +\\u0647\\u0627 \\u0623\\u0646\\u0627\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1474,\n 'f': \"1474\",\n },\n\"\\u0646\\u0639\\u0645 \\u0623\\u0631\\u062f +\\u0646\\u0627 \\u063a\\u064a\\u0631 \\u0642\\u0627\\u0628\\u0644 \\u0644+ \\u0627\\u0644+ \\u062a\\u0644\\u0627\\u0639\\u0628 \\u0628+ \\u0627\\u0631\\u0648\\u0627\\u062d \\u0627\\u0628\\u0646\\u0627\\u0621 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1179,\n 'f': \"1179\",\n },\n\"\\u0643+ \\u0644\\u0648 \\u062d\\u0643\\u064a \\u0641\\u0627\\u0636\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1779,\n 'f': \"1779\",\n },\n\"\\u064a\\u0639\\u0646\\u064a \\u0627\\u0644+ \\u0648\\u0627\\u062d\\u062f \\u0628+ \\u063a\\u0644\\u0637 \\u063a\\u0644\\u0637 +\\u0647 \\u0628+ \\u0627\\u0644+ \\u062c\\u0627\\u0645\\u0639\\u0647 \\u0628+ \\u062f\\u0648\\u0646 \\u0645\\u0627 \\u064a\\u0627\\u062b\\u0631 \\u0639\\u062d\\u062f\\u0627 \\u063a\\u064a\\u0631 \\u062d\\u0627\\u0644 +\\u0647 \\u0628\\u0631\\u0648\\u062d +\\u0648\\u0627 \\u0628+ \\u0645\\u0646\\u0639\\u0648 +\\u0647 \\u064a\\u062f\\u062e\\u0644 \\u0643\\u0644 \\u062c\\u0627\\u0645\\u0639 +\\u0627\\u062a \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 297,\n 'f': \"297\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u064a\\u0641\\u0636\\u062d \\u0627\\u0645 +\\u0643\\u0645 \\u0641\\u0636\\u062d\\u062a\\u0648\\u0646\\u0627 \\u0634\\u0648 \\u0647\\u0627\\u0644\\u0633\\u062e\\u0627\\u0641\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1013,\n 'f': \"1013\",\n },\n\"\\u0639\\u0631\\u0628 \\u0627\\u063a\\u0628\\u064a\\u0627\\u0621\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 366,\n 'f': \"366\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u063a\\u0641\\u0631 \\u0644\\u0649 \\u0644\\u0627\\u0645 +\\u0647 \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646 \\u0627\\u062c\\u0645\\u0639 +\\u064a\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1436,\n 'f': \"1436\",\n },\n\"\\u0645\\u0646\\u0643\\u0648 \\u0644+ \\u0627\\u0644\\u0644\\u0647 \\u0646\\u062d\\u0646 \\u0644\\u0627\\u0642\\u064a +\\u064a\\u0646 \\u062d\\u0642 \\u0627\\u0644+ \\u062e\\u0628\\u0632 \\u0644+ \\u062d\\u062a\\u0649 \\u062a\\u0631\\u0641\\u0639\\u0648 \\u0627\\u0644+ \\u0628\\u0646\\u0632\\u064a\\u0646 \\u0635\\u0627\\u0631 \\u0627\\u0644+ \\u0648\\u0627\\u062d\\u062f \\u064a\\u062d\\u0628 \\u064a\\u062e\\u0644\\u0635 \\u062f\\u0631\\u0627\\u0633 +\\u0647 \\u0639\\u0634\\u0627\\u0646 \\u0645\\u0627 \\u064a\\u0636\\u0644 \\u0628\\u0644\\u0627\\u0631\\u062f\\u0646 \\u0644\\u0627\\u0646\\u0648 \\u0645\\u0627 \\u0641\\u064a +\\u0647\\u0627 \\u0627\\u0634\\u064a \\u0644\\u0627 \\u0631\\u0648\\u0627\\u062a\\u0628 \\u0644\\u0627 \\u0627\\u0634\\u064a \\u062c\\u062f \\u0628\\u0644\\u062f \\u0645\\u0634 \\u0641\\u0642\\u064a\\u0631 \\u0628\\u0633 \\u0643+ \\u0644\\u0648 \\u0628+ \\u0648\\u0643\\u0644 \\u0643\\u0644\\u0648\\u0627\\u0644\\u0644\\u0647 \\u0645\\u0627 \\u0628+ \\u0646\\u0644\\u0648\\u0645 \\u0627\\u0644+ \\u062d\\u0631\\u0627\\u0645\\u064a\\u0647 \\u0647\\u064a \\u0643+ \\u0628\\u0644\\u062f\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1547,\n 'f': \"1547\",\n },\n\"\\u0647\\u064a \\u0643+ \\u0628\\u062f +\\u0647\\u0645 \\u0627\\u0644+ \\u062e\\u0648\\u0646\\u0647 \\u0627\\u062a\\u0628\\u0627\\u0639 \\u0625\\u064a\\u0631\\u0627\\u0646 \\u0627\\u0644+ \\u0627\\u062e\\u0648\\u0627\\u0646 \\u0627\\u0644+ \\u0645\\u0641\\u0633\\u062f +\\u0648\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1759,\n 'f': \"1759\",\n },\n\"\\u064a\\u0627\\u064a \\u0645\\u0627 \\u0627\\u0632\\u0643\\u0649 \\u0647\\u0630\\u0627 \\u0627\\u0644+ \\u0623\\u0643\\u0644\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 351,\n 'f': \"351\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0633\\u062a\\u0631\\u0646\\u0627 \\u0648+ \\u062c\\u0645\\u064a\\u0639 \\u0628\\u0646 +\\u0627\\u062a \\u0627\\u0644+ \\u0645\\u0633\\u0644\\u0645 +\\u064a\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 67,\n 'f': \"67\",\n },\n\"\\u0623\\u0633\\u0639\\u0627\\u0631 \\u0627\\u0644+ \\u0628\\u0646\\u0632\\u064a\\u0646 \\u0645\\u0631\\u062a\\u0641\\u0639 +\\u0647 \\u0641\\u064a \\u0627\\u0644+ \\u0645\\u0645\\u0644\\u0643\\u0647 \\u0627\\u0644+ \\u0627\\u0631\\u062f\\u0646\\u064a\\u0647 \\u0627\\u0644\\u0647\\u0627\\u0634\\u0645\\u064a +\\u0647 \\u0648+ \\u0627\\u0644+ \\u0634\\u0639\\u0628 \\u0627\\u063a\\u0644\\u0628 +\\u0647 \\u0641\\u0642\\u064a\\u0631 \\u0648+ \\u0645\\u0627\\u0634\\u064a +\\u0647 \\u0627\\u0644+ \\u062d\\u064a\\u0627\\u0647 \\u0628+ \\u062f\\u0648\\u0646 \\u0627\\u064a \\u0645\\u0634\\u0627\\u0643\\u0644 \\u0644\\u0643\\u0646 \\u0627\\u0644\\u0644\\u064a \\u064a\\u0642\\u0647\\u0631\\u0643 +\\u0627\\u0646 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0644\\u0627 \\u062a\\u0646\\u062a\\u062c \\u0627\\u0644+ \\u0628\\u0646\\u0632\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1080,\n 'f': \"1080\",\n },\n\"\\u0641\\u0639\\u0644 +\\u0627 \\u0645\\u0647\\u0632\\u0644 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1611,\n 'f': \"1611\",\n },\n\"\\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0646\\u062d\\u0646 \\u0645\\u0648 \\u0646\\u0627\\u0642\\u0635 +\\u0646\\u0627 \\u0648\\u062c\\u0639 \\u0642\\u0644\\u0628 \\u0628\\u0633 \\u0636\\u0627\\u064a\\u0644 \\u0639\\u0644\\u064a +\\u0646\\u0627 \\u0627\\u0644+ \\u0646\\u0648\\u0648\\u064a \\u0648+ \\u0635\\u062d +\\u0647 \\u0627\\u0644+ \\u0628\\u0634\\u0631 \\u0645\\u0634 \\u0628+ \\u0631\\u0636\\u0648 \\u062e\\u0637\\u064a +\\u0647 \\u0627\\u0644+ \\u0645\\u0633\\u0624\\u0648\\u0644 +\\u064a\\u0646 ? \\u062e\\u0644\\u0635 \\u0645\\u0627 \\u0639\\u0627\\u062f \\u0641\\u064a \\u0634\\u064a \\u0641\\u0627\\u0631\\u0642 \\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0639\\u062d\\u0628\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 745,\n 'f': \"745\",\n },\n\"\\u062e\\u0633\\u0626\\u0648 \\u0648+ \\u062e\\u0633\\u0626 \\u0623\\u0645\\u062b\\u0627\\u0644 +\\u0647\\u0645 \\u0648+ \\u0645\\u0646 \\u0637\\u0627\\u0648\\u0639 +\\u0647\\u0645\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1268,\n 'f': \"1268\",\n },\n\"\\u0644+ \\u0644\\u0647\\u0645 \\u062e\\u0630 +\\u0647\\u0645 \\u0627\\u062e\\u062f \\u0639\\u0632\\u064a\\u0632 \\u0645\\u0642\\u062a\\u062f\\u0631 \\u0641+ \\u0625\\u0646 +\\u0647\\u0645 \\u0644\\u0627 \\u064a\\u0631\\u062d\\u0645 +\\u0648\\u0627 \\u0627\\u0644+ \\u0636\\u0639\\u0641\\u0627\\u0621 \\u0627\\u0644\\u0644\\u0647\\u0645 \\u0633\\u0644\\u0637 \\u0639\\u0644\\u064a +\\u0647\\u0645 \\u0639\\u0630\\u0627\\u0628 \\u0643+ \\u0641+ \\u0625\\u0646 +\\u0647\\u0645 \\u0627\\u0631\\u0648\\u0646 +\\u0627 \\u0627\\u0644+ \\u0648\\u064a\\u0644 +\\u0627\\u062a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1735,\n 'f': \"1735\",\n },\n\"\\u064a\\u0627\\u0631\\u0628 \\u0627\\u0639\\u0646 +\\u0627 \\u0639\\u0644\\u064a \\u062a\\u0631\\u0643 \\u0627\\u0644+ \\u0645\\u0639\\u0627\\u0635\\u064a \\u0645\\u0627\\u062d\\u064a +\\u064a +\\u0646\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 394,\n 'f': \"394\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0647\\u062f +\\u0646\\u0627 \\u062b\\u0645 \\u062b\\u0628\\u062a +\\u0646\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 733,\n 'f': \"733\",\n },\n\"\\u062d\\u0644\\u0648 +\\u0647 \\u0642\\u0648\\u064a \\u064a\\u0627 \\u0639\\u0645\\u0631\\u0648 \\u0644\\u0648 \\u0643\\u0644 \\u0648\\u0627\\u062d\\u062f \\u062a\\u064a\\u0642\\u0646 \\u0645\\u0646 \\u0647\\u0630\\u0647 \\u0627\\u0644\\u0642\\u0635 +\\u0647 \\u0644\\u0646 \\u064a\\u0648\\u062c\\u062f \\u062d\\u0627\\u0633\\u062f \\u0644\\u0627 \\u0638\\u0627\\u0644\\u0645 \\u0644\\u0627 \\u0645\\u062a\\u0648\\u0627\\u0643\\u0644 \\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0631\\u0632\\u0642\\u0646\\u0627 \\u0631\\u0632\\u0642 +\\u0627 \\u062d\\u0644\\u0627\\u0644 \\u0637\\u064a\\u0628 +\\u0627 \\u0627\\u0644\\u0644\\u0647\\u0645 \\u0623\\u0645\\u064a\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 813,\n 'f': \"813\",\n },\n\"\\u0631\\u0643\\u0632 \\u0641\\u064a \\u0627\\u0644+ \\u0627\\u062c\\u0627\\u0628\\u0647 \\u0648+ \\u0642\\u0648\\u0644 \\u064a\\u0627\\u0631\\u0628 \\u0648+ \\u062e\\u062f \\u0642\\u0631\\u0627\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1350,\n 'f': \"1350\",\n },\n\"\\u0645\\u0627\\u0643\\u0644 \\u0631\\u0648\\u062d \\u0627\\u0644+ \\u062e\\u0644\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 303,\n 'f': \"303\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u064a\\u0644\\u0639\\u0646 \\u0627\\u0645\\u0643 \\u0648\\u0634 +\\u0647\\u0627 \\u0627\\u0644+ \\u0642\\u0631\\u0641\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 593,\n 'f': \"593\",\n },\n\"\\u0628+ \\u062a\\u0645\\u0646\\u0649 \\u0644\\u0648 +\\u0627\\u0646 \\u062a\\u0642\\u0648\\u0645 \\u0628\\u0639\\u062b +\\u0647 \\u0644+ \\u0627\\u0644+ \\u062f\\u0639\\u0627\\u0647 \\u0645\\u0646 \\u0645\\u0635\\u0631 \\u062a\\u0632\\u0648\\u0631 \\u062c\\u0645\\u064a\\u0639 \\u0627\\u0644+ \\u0628\\u0644\\u0627\\u062f \\u062a\\u0639\\u0631\\u0641 +\\u0647\\u0645 \\u062a\\u0634\\u0631\\u062d \\u0645\\u0627 \\u0647\\u0648 \\u0627\\u0644+ \\u062f\\u064a\\u0646 \\u0627\\u0644+ \\u0625\\u0633\\u0644\\u0627\\u0645\\u064a \\u062a\\u0646\\u0634\\u0631 \\u0628+ \\u062d\\u0642 \\u0641\\u064a \\u0643\\u0644 \\u0645\\u0643\\u0627\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1379,\n 'f': \"1379\",\n },\n\"\\u0645\\u0634 \\u0628\\u0627\\u064a\\u0646 \\u0645\\u0646\\u064a\\u062d \\u0644+ \\u064a\\u0634 \\u0639\\u0645 \\u062a\\u0643\\u0630\\u0628\\u0648\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1424,\n 'f': \"1424\",\n },\n\"\\u0645\\u0646 \\u062c\\u062f \\u0648\\u062c\\u062f \\u0648+ \\u0645\\u0646 \\u0633\\u0627\\u0631 \\u0639\\u0644\\u0649 \\u0627\\u0644+ \\u062f\\u0631\\u0628 \\u062d\\u0635\\u062f\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1497,\n 'f': \"1497\",\n },\n\"\\u0647\\u0627\\u0636 \\u0628\\u0639\\u0631\\u0641\\u0648 \\u0628\\u0633 \\u0645\\u0642\\u0631\\u0641\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 316,\n 'f': \"316\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u062c\\u0639\\u0644 \\u0644+ +\\u0646\\u0627 \\u0625\\u064a\\u0645\\u0627\\u0646 +\\u0627 \\u0635\\u0627\\u062f\\u0642 +\\u0627 \\u0642\\u0644\\u0628 +\\u0627 \\u062e\\u0627\\u0634\\u0639 +\\u0627 \\u0639\\u0644\\u0645 +\\u0627 \\u0646\\u0627\\u0641\\u0639 +\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1531,\n 'f': \"1531\",\n },\n\"\\u0647\\u0644 \\u0627\\u0644+ \\u062b\\u0642 +\\u0629 \\u0628+ \\u0627\\u0644+ \\u0645\\u0634\\u062a\\u0631\\u0643 +\\u064a\\u0646 \\u0627\\u0644+ \\u0632\\u064a\\u0627\\u062f\\u0647 \\u0644+ \\u062f\\u0631\\u062c +\\u0647 \\u0627\\u0644+ \\u0639\\u0645\\u0649 \\u0623\\u0648 +\\u0627\\u0646 \\u0645\\u062d\\u064a\\u0637 +\\u0647\\u0645 \\u064a\\u062c\\u0627\\u0645\\u0644 +\\u0647\\u0645 \\u0628+ \\u062c\\u0645\\u0627\\u0644 \\u0635\\u0648\\u062a +\\u0647\\u0645\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 754,\n 'f': \"754\",\n },\n\"\\u062f\\u062e\\u064a\\u0644 \\u0639\\u064a\\u0646 \\u0643+ \\u064a\\u0627\\u062f\\u0643\\u062a\\u0648\\u0631 \\u0643\\u0644\\u0627\\u0645 \\u0643+ \\u0630\\u0647\\u0628\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 643,\n 'f': \"643\",\n },\n\"\\u062a\\u0627\\u0641\\u0647 +\\u064a\\u0646 \\u062c\\u062f +\\u0627\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 534,\n 'f': \"534\",\n },\n\"\\u0623\\u0646\\u062a \\u064a\\u0627 \\u062f\\u0643\\u062a\\u0648\\u0631 \\u062e\\u064a\\u0631 \\u0623\\u062e \\u0631\\u0628 +\\u0646\\u0627 \\u064a\\u0632\\u0648\\u0631 \\u0639\\u0644\\u064a \\u0643+\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 755,\n 'f': \"755\",\n },\n\"\\u062f\\u0631\\u0628\\u064a \\u0632\\u062f\\u0646\\u064a \\u062b\\u0642\\u062a\\u0627 \\u0628\\u0643 \\u0641+ \\u0625\\u0646 +\\u0647 \\u0644\\u0627\\u064a\\u062e\\u064a\\u0628 \\u0645\\u0646 \\u0648\\u062b\\u0642 \\u0628\\u0643\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 261,\n 'f': \"261\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u0644\\u0627 \\u064a\\u062d\\u0631\\u0645 \\u062d\\u062f +\\u0627 \\u0645\\u0646 \\u0627\\u0644+ \\u0639\\u0627\\u0626\\u0644\\u0647 \\u0627\\u0644+ \\u062f\\u0627\\u0641\\u064a\\u0647 \\u0648+ \\u0627\\u0644+ \\u0630\\u0631\\u064a\\u0647 \\u0627\\u0644+ \\u0635\\u0627\\u0644\\u062d\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1084,\n 'f': \"1084\",\n },\n\"\\u0641+ \\u0645\\u0627 \\u0623\\u062c\\u0645\\u0644 \\u0647\\u0630\\u0627 \\u0627\\u0644+ \\u062f\\u064a\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 240,\n 'f': \"240\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u0623\\u0643\\u0628\\u0631 \\u0634\\u0648 \\u0647\\u064a\\u062f\\u0627 \\u0623\\u0643\\u0644 \\u0627\\u0644+ \\u0631\\u062c\\u0627\\u0644\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 670,\n 'f': \"670\",\n },\n\"\\u062a\\u0645 \\u062a\\u0646\\u0641\\u064a\\u0630 \\u0627\\u0644+ \\u062d\\u0643\\u0645 \\u0627\\u0644\\u064a \\u0641\\u064a \\u0627\\u0644+ \\u0631\\u062f \\u0627\\u0644+ \\u0623\\u0648\\u0644 \\u0648+ \\u062a\\u0645 \\u0625\\u0639\\u062f\\u0627\\u0645 \\u0623\\u0648\\u0644 \\u0631\\u0623\\u0633 \\u0648+ \\u0627\\u0644+ \\u0628\\u0627\\u0642\\u064a \\u0628+ \\u0627\\u0644+ \\u0637\\u0631\\u064a\\u0642\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 298,\n 'f': \"298\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u064a\\u0643\\u062a\\u0631 \\u0645\\u0646 \\u0627\\u0645\\u062b\\u0627\\u0644 \\u0643+ \\u064a\\u0627\\u0631\\u0628\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1110,\n 'f': \"1110\",\n },\n\"\\u0642\\u0635 +\\u0647 \\u0641\\u064a \\u063a\\u0627\\u064a +\\u0647 \\u0627\\u0644+ \\u0631\\u0648\\u0639\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 966,\n 'f': \"966\",\n },\n\"\\u0635\\u062d\\u064a\\u062d \\u0643\\u0644 \\u0647\\u0627\\u0644\\u0634\\u063a\\u0644\\u0647 \\u0628\\u0633 \\u0642\\u0631\\u0627\\u0631 \\u0648+ \\u0628+ \\u0638\\u0646 \\u0643\\u0644 +\\u0646\\u0627 \\u0642\\u0627\\u062f\\u0631 +\\u064a\\u0646 \\u0646\\u0627\\u062e\\u062f +\\u0647 \\u0627\\u0630 +\\u0627 \\u0627\\u0633\\u062a\\u0639\\u0646 +\\u0627 \\u0648+ \\u062a\\u0648\\u0643\\u0644 +\\u0646\\u0627 \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 846,\n 'f': \"846\",\n },\n\"\\u0633\\u062e\\u0627\\u0641 +\\u0647 \\u0645\\u0627\\u0644 +\\u0647\\u0627 \\u062d\\u062f\\u0648\\u062f\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 432,\n 'f': \"432\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u064a\\u0627 \\u0645\\u062c\\u064a\\u0628 \\u0645\\u0646 \\u062f\\u0639\\u0627 \\u0643+ \\u0627\\u0639\\u0646 +\\u0627 \\u0639\\u0644\\u0649 \\u062a\\u0642\\u0648\\u0627 \\u0643+ \\u0628+ \\u062a\\u0642\\u0648\\u0627 \\u0643+ \\u0648+ \\u0627\\u0631\\u0632\\u0642 +\\u0646\\u0627 \\u062d\\u0633\\u0646 \\u0637\\u0627\\u0639 +\\u062a \\u0643+ \\u0648+ \\u062a\\u0645\\u0627\\u0645 \\u0631\\u0636\\u0627 \\u0643+ \\u0648\\u0627\\u063a\\u0641\\u0631\\u0644\\u0646\\u0627 \\u0648+ \\u0644+ \\u0648\\u0627\\u0644\\u062f\\u064a +\\u0646\\u0627 \\u0648+ \\u0644+ \\u0643\\u0644 \\u0645\\u0646 \\u0644+ +\\u0647 \\u062d\\u0642 \\u0639\\u0644\\u064a +\\u0646\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 71,\n 'f': \"71\",\n },\n\"\\u0627\\u0633\\u0648\\u0621 \\u0634\\u064a\\u0621 +\\u0627\\u0646 \\u062a\\u0643\\u0630\\u0628 \\u0644\\u0623\\u0646 \\u0643+ \\u0633+ \\u062a\\u0628\\u062f\\u0627 \\u0633\\u0644\\u0633\\u0644 +\\u0647 \\u0644\\u0627 \\u0646\\u0647\\u0627\\u064a +\\u0647 \\u0644+ +\\u0647\\u0627 \\u0645\\u0646 \\u0627\\u0644+ \\u0623\\u0643\\u0627\\u0630\\u064a\\u0628 \\u0641\\u064a \\u0627\\u0644+ \\u0646\\u0647\\u0627\\u064a\\u0647 \\u0633+ \\u062a\\u0643\\u0634\\u0641\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 381,\n 'f': \"381\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0646\\u0632\\u0639 \\u0645\\u0646 \\u0642\\u0644\\u0628\\u0649 \\u062d\\u0628 \\u0643\\u0644 \\u0634\\u064a\\u0621 \\u0644\\u0627 \\u062a\\u062d\\u0628 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 259,\n 'f': \"259\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u0639\\u0644\\u064a \\u0643+ \\u064a\\u0627 \\u0634\\u064a\\u062e \\u062a\\u062d\\u0641 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 51,\n 'f': \"51\",\n },\n\"\\u0627\\u0631\\u062d\\u0645\\u0648\\u0646\\u0627 \\u0635\\u0631 +\\u0646\\u0627 \\u0646\\u0635\\u0641 \\u0627\\u0644+ \\u0633\\u064a\\u0627\\u0631\\u0647 \\u0646\\u0637\\u0644\\u0639 \\u0628+ \\u0627\\u0644+ \\u0628\\u0627\\u0635 \\u062d\\u0631\\u0627\\u0645 \\u0639\\u0644\\u064a +\\u0643\\u0645\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 374,\n 'f': \"374\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 +\\u0627\\u0646 \\u0643\\u0627\\u0646 \\u0631\\u0632\\u0642 +\\u064a \\u0628\\u0639\\u064a\\u062f +\\u0627 \\u0641+ \\u0642\\u0631\\u0628 +\\u0647 \\u0644\\u064a +\\u0627\\u0646 \\u0643\\u0627\\u0646 \\u0642\\u0631\\u064a\\u0628 +\\u0627 \\u0641+ \\u064a\\u0633\\u0631 +\\u0647 \\u0644\\u064a \\u0648\\u0627\\u0646 \\u0643\\u0627\\u0646 \\u0643\\u062b\\u064a\\u0631 +\\u0627 \\u0641+ \\u0628\\u0627\\u0631\\u0643 \\u0644\\u064a \\u0641\\u064a +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 339,\n 'f': \"339\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0631\\u0632\\u0642\\u0646\\u0627 \\u0631\\u0632\\u0642 +\\u0627 \\u062d\\u0644\\u0627\\u0644 +\\u0627 \\u062a\\u063a\\u0646 +\\u0646\\u0627 \\u0628+ +\\u0647 \\u0639\\u0646 \\u062d\\u0631\\u0627\\u0645 \\u0643+\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 532,\n 'f': \"532\",\n },\n\"\\u0623\\u0646\\u062a \\u0648\\u0627\\u062d\\u062f \\u0639\\u0646\\u062c\\u062f \\u0642\\u0644\\u064a\\u0644 \\u0623\\u062f\\u0628 \\u0627\\u0644\\u0644\\u0647 \\u064a\\u0645\\u0648\\u062a \\u0627\\u0644\\u064a \\u0627\\u0645\\u062b\\u0627\\u0644 \\u0643+\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1221,\n 'f': \"1221\",\n },\n\"\\u0644\\u0627 \\u0646\\u0648\\u0648\\u064a \\u0648+ \\u0644\\u0627 \\u0635\\u0648\\u0628 +\\u0647 \\u0628+ \\u0648\\u0627\\u0631\\u064a \\u0643+ \\u0627\\u0644+ \\u0639\\u0627\\u062f\\u0647 \\u0646\\u0635\\u0628 +\\u0647 \\u062c\\u062f\\u064a\\u062f +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1314,\n 'f': \"1314\",\n },\n\"\\u0645\\u0627 \\u0627\\u0632\\u0646\\u062e \\u0645\\u0646 \\u0643+ \\u0627\\u0644\\u0649 +\\u0647\\u0627 +\\u064a \\u0627\\u0644+ \\u0644\\u064a\\u0646\\u0643 +\\u0627\\u062a \\u0627\\u0644\\u0644\\u064a \\u0628+ \\u062a\\u0633\\u0645 \\u0627\\u0644+ \\u0628\\u062f\\u0646 \\u0628+ \\u062a\\u062a\\u0639\\u0628 \\u064a\\u0639\\u0646\\u064a \\u0644+ \\u0645\\u0627 \\u062a\\u0648\\u062e\\u062f \\u0627\\u0644+ \\u0635\\u0648\\u0631\\u0647 \\u0648+ \\u062a\\u0646\\u0632\\u0644 +\\u0647\\u0627 \\u062a\\u0646\\u0632\\u064a\\u0644 \\u0639\\u0627\\u062f\\u064a\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1063,\n 'f': \"1063\",\n },\n\"\\u0641\\u0634\\u0631 +\\u062a \\u0639\\u064a\\u0646 \\u0627\\u0644+ \\u0634\\u064a\\u0639\\u0647 \\u0648+ \\u0627\\u0644\\u0644\\u0647 \\u0628+ \\u0646\\u062d\\u0631\\u0642 +\\u0647\\u0645 \\u062d\\u0631\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1737,\n 'f': \"1737\",\n },\n\"\\u064a\\u0627\\u0631\\u0628 \\u0627\\u063a\\u0641\\u0631 \\u0644\\u064a \\u0630\\u0646\\u0628\\u064a \\u0648+ \\u0627\\u0631\\u0632\\u0642\\u0646\\u064a \\u062d\\u0628\\u0643 \\u0647\\u0648 \\u0631\\u0628 +\\u0646\\u0627 \\u0645\\u0645\\u0643\\u0646 \\u064a\\u0643\\u0631\\u0647 \\u062d\\u062f \\u0644\\u0648 \\u0641\\u0636\\u0644 \\u064a\\u0643\\u0631\\u0631 \\u0630\\u0646\\u0628 +\\u0647 \\u0628\\u0639\\u062f \\u0627\\u0644+ \\u0627\\u0633\\u062a\\u063a\\u0641\\u0627\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1742,\n 'f': \"1742\",\n },\n\"\\u064a\\u0627\\u0631\\u0628 \\u062a\\u0648\\u0628 \\u0639\\u0644\\u064a +\\u0646\\u0627 \\u0648+ \\u0633\\u0627\\u0639\\u062f +\\u0646\\u0627 \\u0646\\u062a\\u0648\\u0628 \\u0648+ \\u0628\\u0635\\u0631 +\\u0646\\u0627 \\u0628+ \\u0639\\u064a\\u0648\\u0628 +\\u0646\\u0627 \\u0644\\u0627\\u0646 \\u0633\\u0627\\u0639 +\\u0627\\u062a \\u0643\\u062a\\u064a\\u0631 \\u0628+ \\u0646\\u0646\\u0633 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1055,\n 'f': \"1055\",\n },\n\"\\u0641+ \\u0627\\u0638\\u0641\\u0631 \\u0628+ \\u0630\\u0627\\u062a \\u0627\\u0644+ \\u062f\\u064a\\u0646 \\u062a\\u0631\\u0628 +\\u062a \\u064a\\u062f\\u0627\\u0643\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1230,\n 'f': \"1230\",\n },\n\"\\u0644\\u0627 \\u064a\\u0639\\u0646\\u064a \\u0627\\u0644+ \\u063a\\u0628\\u064a \\u064a\\u062f\\u0631\\u064a +\\u0627\\u0646 +\\u0647 \\u0643\\u0627\\u062a\\u0628 \\u0627\\u0633\\u0645 +\\u0647\\u0627 \\u0628+ \\u0627\\u0644+ \\u0648\\u0631\\u0642\\u0647 \\u0645\\u0627\\u064a\\u0628\\u064a\\u0644\\u0647\\u0627 \\u0630\\u0643\\u0627\\u0621 \\u062a\\u0631\\u0649\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 938,\n 'f': \"938\",\n },\n\"\\u0635\\u0628\\u0627\\u062d +\\u0627\\u062a \\u0627\\u0644+ \\u0627\\u0646\\u0648\\u0627\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1491,\n 'f': \"1491\",\n },\n\"\\u0646\\u0647\\u0627\\u064a +\\u0647 \\u0645\\u0648\\u0627\\u0637\\u0646 \\u0637\\u0641\\u0631\\u0627\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 425,\n 'f': \"425\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0645\\u0627 \\u0623\\u0635\\u0628\\u062d \\u0628\\u064a \\u0645\\u0646 \\u0646\\u0639\\u0645 +\\u0647 \\u0623\\u0648 \\u0628+ \\u0627\\u062d\\u062f \\u0645\\u0646 \\u062e\\u0644\\u0642 \\u0643+ \\u0641+ \\u0645\\u0646\\u0643 \\u0648\\u062d\\u062f \\u0643+ \\u0644\\u0627 \\u0634\\u0631\\u064a\\u0643 \\u0641\\u0644\\u0643 \\u0627\\u0644+ \\u062d\\u0645\\u062f \\u0644+ \\u0643+ \\u0627\\u0644+ \\u0634\\u0643\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 462,\n 'f': \"462\",\n },\n\"\\u0627\\u0644\\u0649 \\u0627\\u0628\\u0646 \\u0628\\u0634\\u0627\\u0631 \\u0627\\u0644+ \\u0623\\u0633\\u062f \\u0643\\u0633 \\u0623\\u062e\\u062a \\u0627\\u0628\\u0648 \\u0643+\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 494,\n 'f': \"494\",\n },\n\"\\u0623\\u0646\\u0627 \\u0627\\u062e\\u062f\\u062a \\u0642\\u0631\\u0627\\u0631 \\u0648+ \\u0628\\u0639\\u062f +\\u062a \\u0639\\u0646 \\u0645\\u0639\\u0635\\u064a +\\u0647 \\u0644+ \\u0627\\u0644\\u0644\\u0647 \\u0648+ \\u0642\\u062f\\u0631 +\\u062a \\u0648+ \\u0631\\u0628\\u064a \\u0648+ \\u0641\\u0642\\u0646\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 843,\n 'f': \"843\",\n },\n\"\\u0633\\u062e\\u0627\\u0641 +\\u0627\\u062a \\u0648+ \\u062a\\u062e\\u0644\\u0641 \\u0634\\u0628\\u0627\\u0628 \\u0648+ \\u0635\\u0628\\u0627\\u064a\\u0627 \\u0647\\u0644 \\u0627\\u0644+ \\u0623\\u064a\\u0627\\u0645\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1539,\n 'f': \"1539\",\n },\n\"\\u0647\\u0648 \\u0628\\u0646 \\u0648\\u0633\\u062e +\\u0647 \\u0625\\u062f\\u0645\\u0627\\u0646 \\u0648+ \\u0628+ \\u0627\\u0644+ \\u0630\\u0627\\u062a \\u0644\\u0648 \\u0645\\u062a\\u0627\\u0628\\u0639 \\u0627\\u062e\\u0628\\u0627\\u0631 \\u0648+ \\u062d\\u0627\\u062c +\\u0627\\u062a \\u064a\\u0648\\u0645\\u064a +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 526,\n 'f': \"526\",\n },\n\"\\u0623\\u0646\\u0627 \\u0645\\u0639 \\u0643+ \\u0628\\u0627\\u0646 \\u062f\\u064a\\u0646 \\u0627\\u0644+ \\u0625\\u0633\\u0644\\u0627\\u0645 \\u0644+ \\u0643\\u0644 \\u0627\\u0644+ \\u0646\\u0627\\u0633 \\u0648+ \\u0641\\u064a \\u0643\\u0644 \\u0632\\u0645\\u0627\\u0646 \\u0648+ \\u0645\\u0643\\u0627\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 141,\n 'f': \"141\",\n },\n\"\\u0627\\u0644+ \\u0628\\u0627\\u0642\\u064a +\\u064a\\u0646 \\u0633\\u062e\\u0627\\u0641 +\\u0647 \\u0633\\u0645\\u0627\\u062c +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1476,\n 'f': \"1476\",\n },\n\"\\u0646\\u0639\\u0645 \\u0627\\u0644+ \\u0623\\u062e \\u0648+ \\u0645\\u0627 \\u0623\\u0637\\u064a\\u0628 \\u0642\\u0644\\u0628 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 617,\n 'f': \"617\",\n },\n\"\\u0628\\u0637\\u0646\\u064a \\u0648+ \\u062c\\u0639\\u062a\\u0646\\u064a \\u0645\\u0646 \\u0627\\u0644+ \\u0636\\u062d\\u0643\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1681,\n 'f': \"1681\",\n },\n\"\\u064a\\u0627 \\u0623\\u062e +\\u064a \\u0627\\u0637\\u0644\\u0639 \\u0641\\u064a \\u0635\\u0648\\u0631 +\\u062a \\u0643+ \\u0628+ \\u0627\\u0644+ \\u0645\\u0631\\u0627\\u064a\\u0647 \\u0648+ \\u0634\\u0648\\u0641 \\u0627\\u062f\\u0627\\u0626\\u0643 \\u0647\\u0648 +\\u0647 \\u0623\\u062f\\u0627\\u0621 \\u0641\\u0646\\u064a \\u0635\\u0648\\u062a \\u0645\\u0646\\u0627\\u0633\\u0628 \\u0642\\u0628\\u0644 \\u0644\\u0627 \\u062a\\u0641\\u0636\\u062d \\u062d\\u0627\\u0644 \\u0643+ \\u0641\\u064a \\u0647\\u064a \\u0643+ \\u0628\\u0631\\u0627\\u0645\\u062c \\u062a\\u0627\\u0641\\u0647 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 857,\n 'f': \"857\",\n },\n\"\\u0633\\u0645\\u0627\\u062c +\\u0647 \\u0633\\u0645\\u0627\\u062c +\\u0647 \\u0648+ \\u0648\\u0627\\u0644\\u0644 +\\u0647 \\u0627\\u0644+ \\u0628\\u0646\\u0627\\u0646\\u064a +\\u064a\\u0646 \\u062f\\u0645 +\\u0647\\u0645 \\u062b\\u0642\\u064a\\u0644 \\u0645\\u0631 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 433,\n 'f': \"433\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u064a\\u0627 \\u0645\\u062d\\u0648\\u0644 \\u0627\\u0644+ \\u0623\\u062d\\u0648\\u0627\\u0644 \\u062d\\u0648\\u0644 \\u062d\\u0627\\u0644\\u0649 +\\u0627\\u0646 \\u0623\\u062d\\u0633\\u0646 \\u062d\\u0627\\u0644\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 998,\n 'f': \"998\",\n },\n\"\\u0637\\u064a\\u0628 \\u0644\\u064a +\\u0647 \\u0627\\u0644+ \\u0633\\u062e\\u0631\\u064a\\u0647 \\u062f\\u0649 \\u0645\\u0627\\u0643\\u0646 +\\u0627 \\u0643\\u0648\\u064a\\u0633 +\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 271,\n 'f': \"271\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u064a\\u0627\\u0631\\u064a\\u062a \\u064a\\u0628\\u0642\\u0649 \\u0641\\u064a \\u0627\\u062e\\u0644\\u0627\\u0642 \\u0643\\u062f +\\u0647 \\u0641\\u064a \\u0627\\u0644+ \\u0648\\u0642\\u062a \\u062f\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 184,\n 'f': \"184\",\n },\n\"\\u0627\\u0644+ \\u062d\\u0645\\u062f\\u0644\\u0644\\u0647 \\u0627\\u0644\\u0630\\u064a \\u0647\\u062f\\u0627 +\\u0646\\u0627 \\u0644+ \\u0647\\u0630\\u0627 \\u0648+ \\u0645\\u0627 +\\u0643\\u0646 +\\u0646\\u0627 \\u0644+ \\u0646\\u0647\\u062a\\u062f\\u064a \\u0644\\u0648\\u0644\\u0627 +\\u0627\\u0646 \\u0647\\u062f\\u0627 +\\u0646\\u0627 \\u0627\\u0644\\u0644\\u0647 . \\u0644\\u0627 \\u0627\\u0644\\u0647 \\u0627\\u0644\\u0627 \\u0627\\u0644\\u0644\\u0647 \\u0645\\u062d\\u0645\\u062f \\u0631\\u0633\\u0648\\u0644 \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 772,\n 'f': \"772\",\n },\n\"\\u0631\\u0628 +\\u0646\\u0627 \\u0627\\u062c\\u0639\\u0644 +\\u0646\\u0627 \\u0645\\u0646 \\u0627\\u0644+ \\u0635\\u0627\\u0644\\u062d +\\u064a\\u0646 \\u0627\\u0647\\u062f +\\u0646\\u0627 \\u0627\\u0644\\u064a \\u0627\\u0644+ \\u0631\\u064a\\u0642 \\u0627\\u0644+ \\u0645\\u0633\\u062a\\u0642\\u064a\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 244,\n 'f': \"244\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u0623\\u0643\\u0628\\u0631 \\u0648+ \\u0644\\u0627\\u0644 +\\u0647 \\u0627\\u0644+ \\u062d\\u0645\\u062f \\u0645\\u0635\\u0631 \\u0628+ \\u062e\\u064a\\u0631 \\u0641\\u064a +\\u0647\\u0627 \\u0646\\u0627\\u0633 \\u0643\\u062a\\u064a\\u0631 \\u0637\\u064a\\u0628 +\\u064a\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1463,\n 'f': \"1463\",\n },\n\"\\u0646\\u062d\\u0646 \\u0646\\u062d\\u0628 \\u0643+ \\u0641\\u064a \\u0627\\u0644\\u0644\\u0647 \\u0646\\u062f\\u0639\\u0648 \\u0644+ \\u0643+ \\u0628+ \\u0638\\u0647\\u0631 \\u0627\\u0644+ \\u063a\\u064a\\u0628\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1068,\n 'f': \"1068\",\n },\n\"\\u0641\\u0639\\u0644 +\\u0627 \\u0627\\u062d\\u0633 \\u0641\\u064a \\u0646\\u0641\\u0633 +\\u064a \\u062f\\u0644\\u0644 \\u0643+\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1460,\n 'f': \"1460\",\n },\n\"\\u0646\\u062d\\u0646 \\u0641\\u064a \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0646\\u0634\\u0627\\u0637\\u0631 \\u0625\\u062e\\u0648\\u0627\\u0646 +\\u0646\\u0627 \\u0641\\u064a \\u0627\\u0644\\u0633\\u0639\\u0648\\u062f\\u064a\\u0647 \\u0627\\u062d\\u0632\\u0627\\u0646 +\\u0647\\u0645 \\u0628+ \\u0648\\u0641\\u0627 +\\u0647 \\u0627\\u0644+ \\u0627\\u0645\\u064a\\u0631 \\u0633\\u0639\\u0648\\u062f \\u0627\\u0644+ \\u0641\\u064a\\u0635\\u0644 \\u0648\\u0632\\u064a\\u0631 \\u0627\\u0644+ \\u062e\\u0627\\u0631\\u062c\\u064a\\u0647 \\u0627\\u0644+ \\u0633\\u0639\\u0648\\u062f\\u064a \\u0627\\u0644+ \\u0633\\u0627\\u0628\\u0642 \\u0623\\u0646\\u0627 \\u0644+ \\u0627\\u0644\\u0644\\u0647 \\u0648+ \\u0623\\u0646\\u0627 \\u0625\\u0644\\u064a +\\u0647 \\u0631\\u0627\\u062c\\u0639 +\\u0648\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1399,\n 'f': \"1399\",\n },\n\"\\u0645\\u0639\\u0644\\u0645 \\u0641\\u064a \\u062d\\u0642\\u064a\\u0642 +\\u0647 \\u0639\\u0645\\u0644 +\\u0647 \\u0647\\u0648 \\u0645\\u062f\\u0631\\u0628 \\u064a\\u062f\\u0631\\u0628 \\u0637\\u0644\\u0627\\u0628 \\u0639\\u0644\\u0649 \\u0627\\u0643\\u062a\\u0633\\u0627\\u0628 \\u0627\\u0644+ \\u0645\\u0639\\u0631\\u0641\\u0647 \\u0644\\u0627 \\u0645\\u062c\\u0631\\u062f \\u062a\\u0644\\u0642\\u064a +\\u0647\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1487,\n 'f': \"1487\",\n },\n\"\\u0646\\u0641\\u0639 \\u0627\\u0644\\u0644\\u0647 \\u0628\\u0643 \\u064a\\u0627 \\u062f\\u0643\\u062a\\u0648\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1481,\n 'f': \"1481\",\n },\n\"\\u0646\\u0639\\u0645 \\u0644+ \\u0646\\u062c\\u0639\\u0644 \\u062d\\u0628 \\u0627\\u0644\\u0644\\u0647 \\u0647\\u0648 \\u0627\\u0644\\u063a\\u0627 +\\u064a +\\u0647 \\u0648+ \\u0631\\u0628 +\\u0646\\u0627 \\u064a\\u0633\\u0627\\u0645\\u062d \\u0643\\u0644 \\u062a\\u0627\\u0626\\u0628\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 907,\n 'f': \"907\",\n },\n\"\\u0635\\u0628\\u0627\\u062d \\u0627\\u0644+ \\u0627\\u0645\\u0627\\u0646\\u064a \\u0627\\u0644+ \\u0645\\u062d\\u0642\\u0642\\u0647 \\u0628+ \\u0625\\u0630\\u0646 \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 602,\n 'f': \"602\",\n },\n\"\\u0628\\u0631\\u0644\\u0645\\u0627\\u0646 \\u0627\\u0644\\u0645\\u0627\\u0646\\u064a +\\u0627 \\u064a\\u0642\\u0631 \\u0628+ \\u0627\\u063a\\u0644\\u0628\\u064a +\\u0647 \\u0643\\u0628\\u064a\\u0631 +\\u0647 \\u0627\\u0644+ \\u062a\\u062e\\u0644\\u064a \\u0639\\u0646 \\u0627\\u0644+ \\u0637\\u0627\\u0642\\u0647 \\u0627\\u0644\\u0646\\u0648\\u0648\\u064a +\\u0647 \\u062d\\u062a\\u0649 2022 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u064a\\u0637\\u0631\\u062d \\u0639\\u0637\\u0627\\u0621\\u0644\\u0627\\u0646\\u0634\\u0627\\u0621 \\u0645\\u062d\\u0637 +\\u0647 \\u0637\\u0627\\u0642 +\\u0647 \\u0646\\u0648\\u0648\\u064a +\\u0647 \\u0627\\u0644\\u0644\\u0647 \\u0644\\u0627 \\u064a\\u0637\\u0639\\u0645 +\\u0646\\u0627 \\u0627\\u0644+ \\u062d\\u062c \\u0648+ \\u0627\\u0644+ \\u0646\\u0627\\u0633 \\u0645\\u0631\\u0648\\u062d +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1766,\n 'f': \"1766\",\n },\n\"\\u064a\\u062c\\u064a\\u0632 \\u0627\\u0631\\u0636\\u0627\\u0639 \\u0634\\u0631\\u0642 \\u0627\\u0633\\u064a\\u0627 \\u0643\\u0644 +\\u0647\\u0627 \\u0644\\u0643\\u0646 \\u0642\\u064a\\u0627\\u062f +\\u0647 \\u0627\\u0644+ \\u0645\\u0631\\u0627\\u0647 \\u0644+ \\u0627\\u0644+ \\u0633\\u064a\\u0627\\u0631\\u0647 \\u0641\\u0633\\u0642 \\u0648+ \\u0641\\u062c\\u0648\\u0631\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1308,\n 'f': \"1308\",\n },\n\"\\u0645\\u0627 \\u0627\\u062d\\u0633\\u0646 +\\u0647\\u0645 \\u0627\\u0644\\u0644\\u0647 \\u064a\\u0643\\u0648\\u0646 \\u0645\\u0639 +\\u0647\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 250,\n 'f': \"250\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644+ \\u0645\\u0633\\u062a\\u0639\\u0627\\u0646 \\u0639\\u0644\\u0649 \\u0643\\u0644 \\u0638\\u0627\\u0644\\u0645 \\u0641+ \\u0644\\u064a\\u0633 \\u0628+ \\u0627\\u0644+ \\u064a\\u062f \\u062d\\u064a\\u0644 +\\u0647 \\u063a\\u064a\\u0631 +\\u0627\\u0646 \\u0646\\u0642\\u0648\\u0644 \\u0644\\u0627 \\u062d\\u0648\\u0644 \\u0648+ \\u0644\\u0627 \\u0642\\u0648\\u0647 \\u0627\\u0644\\u0627 \\u0628+ \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 497,\n 'f': \"497\",\n },\n\"\\u0623\\u0646\\u0627 \\u0623\\u0642\\u062f\\u0631 \\u0627\\u0644+ \\u0627\\u062e\\u0644\\u0627\\u0635 \\u0627\\u0644+ \\u0648\\u0641\\u0627\\u0621 \\u0628+ \\u0634\\u0643\\u0644 \\u0643\\u0628\\u064a\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1177,\n 'f': \"1177\",\n },\n\"\\u0643\\u0644 +\\u0647\\u0645 \\u0641\\u0627\\u062c\\u0631 +\\u064a\\u0646\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1290,\n 'f': \"1290\",\n },\n\"\\u0644\\u064a\\u062a \\u0643\\u0644 \\u0623\\u064a\\u0627\\u0645 \\u0627\\u0644\\u0633\\u0646 +\\u0647 \\u0631\\u0645\\u0636\\u0627\\u0646\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1376,\n 'f': \"1376\",\n },\n\"\\u0645\\u0633\\u062e\\u0631 +\\u0647 \\u0648+ \\u0627\\u0644\\u0644\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 354,\n 'f': \"354\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0635\\u0644\\u062d \\u062d\\u0627\\u0644 +\\u0646\\u0627 \\u0648+ \\u0634\\u0627\\u0646 +\\u0646\\u0627 \\u0643\\u0644 +\\u0647 \\u0648+ \\u0623\\u062c\\u0645\\u0639 \\u0644+ +\\u0646\\u0627 \\u062e\\u064a\\u0631 \\u0627\\u0644+ \\u0623\\u0645\\u0648\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1053,\n 'f': \"1053\",\n },\n\"\\u0641\\u0627\\u0634\\u0644 +\\u064a\\u0646 \\u0627\\u0644\\u0649 \\u0645\\u0627 \\u0644\\u0627 \\u0646\\u0647\\u0627\\u064a +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 618,\n 'f': \"618\",\n },\n\"\\u0628\\u0639\\u062f \\u0639\\u0642\\u0648\\u062f \\u0645\\u0631\\u0636 \\u0627\\u0644+ \\u0643\\u0644\\u0628 \\u0648+ \\u0627\\u0633\\u062a\\u0628\\u0634\\u0631 +\\u0646\\u0627 \\u0646\\u062d\\u0646 \\u0627\\u0644+ \\u0634\\u0639\\u0628 \\u0623\\u062e\\u064a\\u0631 +\\u0627 \\u0645\\u0627\\u062a \\u0627\\u0644+ \\u0643\\u0644\\u0628 \\u0648+ \\u0623\\u0635\\u0628\\u062d \\u0627\\u0628\\u0646 \\u0627\\u0644+ \\u0643\\u0644\\u0628 \\u0631\\u0626\\u064a\\u0633 +\\u0627 \\u0628+ \\u0627\\u0644+ \\u0625\\u062c\\u0645\\u0627\\u0639\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 628,\n 'f': \"628\",\n },\n\"\\u0628+ \\u0642\\u0631\\u0641 \\u0632\\u064a\\u0643\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1026,\n 'f': \"1026\",\n },\n\"\\u0639\\u0645\\u0644 \\u0627\\u0644+ \\u0633\\u0631\\u064a\\u0631\\u0647 \\u0647\\u0648 \\u0627\\u0644+ \\u0639\\u0645\\u0644 \\u0627\\u0644+ \\u062e\\u0627\\u0644\\u0635 \\u0644+ \\u0627\\u0644\\u0644\\u0647 \\u0627\\u0644\\u0644\\u0647\\u0645 \\u0627\\u0631\\u0632\\u0642\\u0646\\u0627 \\u0639\\u0645\\u0644 \\u0627\\u0644+ \\u0633\\u0631\\u064a\\u0631\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1303,\n 'f': \"1303\",\n },\n\"\\u0645\\u0627 \\u0623\\u062c\\u0645\\u0644 \\u0627\\u0644+ \\u0635\\u0628\\u0631 \\u0627\\u0644+ \\u0625\\u0635\\u0631\\u0627\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 415,\n 'f': \"415\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 +\\u0643\\u0645\\u0627 \\u062d\\u0633\\u0646 +\\u062a \\u062e\\u0644\\u0642 +\\u0646\\u0627 \\u062d\\u0633\\u0646 \\u0627\\u062e\\u0644\\u0627\\u0642 +\\u0646\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 997,\n 'f': \"997\",\n },\n\"\\u0637\\u064a\\u0628 \\u0623\\u0646\\u0627 \\u0639\\u0627\\u064a\\u0632 +\\u0647 \\u0627\\u0634\\u0648\\u0641 \\u0627\\u0644+ \\u0642\\u0635\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 170,\n 'f': \"170\",\n },\n\"\\u0627\\u0644+ \\u062d\\u0645\\u062f \\u0644+ \\u0627\\u0644\\u0644\\u0647 \\u0623\\u0635\\u0628\\u062d \\u0639\\u0644\\u0649 \\u0648\\u062c\\u0647 \\u0643+ \\u0627\\u0644+ \\u0645\\u0634\\u0631\\u0642 \\u0643\\u0644 \\u064a\\u0648\\u0645\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1566,\n 'f': \"1566\",\n },\n\"\\u0648+ \\u0627\\u0639\\u0638\\u0645 +\\u0647\\u0627 \\u0623\\u0645 +\\u0647 \\u0633\\u064a\\u062f +\\u0646\\u0627 \\u0645\\u062d\\u0645\\u062f\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 413,\n 'f': \"413\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0642\\u0648 \\u0625\\u064a\\u0645\\u0627\\u0646 +\\u0646\\u0627 \\u0644+ \\u0646\\u0643\\u0648\\u0646 \\u0623\\u0635\\u062d\\u0627\\u0628 \\u0639\\u0632\\u064a\\u0645 +\\u0647 \\u0642\\u0631\\u0627\\u0631\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1421,\n 'f': \"1421\",\n },\n\"\\u0645\\u0646 \\u062a\\u0648\\u0643\\u0644 \\u0639\\u0644\\u0649 \\u0627\\u0644\\u0644\\u0647 \\u064a\\u0639\\u0627\\u0646\\u0642 \\u0642\\u0644\\u0628 +\\u0647 \\u0627\\u0644+ \\u0646\\u0648\\u0631 \\u0627\\u0644+ \\u0635\\u0641\\u0627\\u0621\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 300,\n 'f': \"300\",\n },\n\"\\u0627\\u0644\\u0644\\u0647 \\u064a\\u0643\\u0648\\u0646 \\u0641\\u064a \\u0639\\u0648\\u0646 \\u0627\\u0644+ \\u0641\\u0642\\u064a\\u0631 \\u0627\\u0644+ \\u0637\\u0628\\u0642\\u0647 \\u0627\\u0644+ \\u0645\\u062a\\u0648\\u0633\\u0637 \\u0633\\u0648\\u0641 \\u062a\\u0646\\u062d\\u062f\\u0631 \\u0623\\u0643\\u062b\\u0631 \\u0623\\u0643\\u062b\\u0631\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1781,\n 'f': \"1781\",\n },\n\"\\u064a\\u0639\\u0646\\u064a \\u062f\\u0648\\u0644 +\\u0647 \\u0627\\u0644\\u0644\\u064a \\u0645\\u0646 \\u0648\\u064a\\u0646 \\u062c\\u0627\\u064a \\u0643\\u064a\\u0641 \\u0648\\u0635\\u0644 \\u0639\\u0634\\u0627\\u0646 \\u062a\\u0634\\u0648\\u0641 +\\u0647 \\u0644+ \\u062c\\u0646 +\\u0647 \\u0627\\u0644+ \\u062a\\u062d\\u0643\\u064a\\u0645 \\u0645\\u0628\\u064a\\u0646 \\u0639\\u0644\\u064a +\\u0647 \\u0645\\u062c\\u0646\\u0648\\u0646 \\u0645\\u0634 \\u0634\\u0627\\u064a\\u0641 \\u0627\\u0634\\u064a \\u0642\\u062f\\u0627\\u0645 +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 411,\n 'f': \"411\",\n },\n\"\\u0627\\u0644\\u0644\\u0647\\u0645 \\u0642\\u0646\\u064a \\u0634\\u0631 \\u0646\\u0641\\u0633 +\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 765,\n 'f': \"765\",\n },\n\"\\u0631\\u0627\\u0626\\u0639 \\u0648+ \\u0644+ \\u0627\\u062c\\u0645\\u0644 ? \\u062d\\u0628 \\u0631\\u0628 +\\u0646\\u0627\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1465,\n 'f': \"1465\",\n },\n\"\\u0646\\u0631\\u062c\\u0648 \\u0645\\u0646 \\u0627\\u0644\\u0644\\u0647 +\\u0627\\u0646 \\u064a\\u062a\\u0642\\u0628\\u0644 \\u0635\\u0644\\u0627\\u062a +\\u0646\\u0627 \\u0631\\u063a\\u0645 \\u0645\\u0627 \\u062a\\u0645\\u0631 \\u0628+ +\\u0647 \\u0628\\u0644\\u062f +\\u0646\\u0627 \\u0645\\u0646 \\u0627\\u0632\\u0645 +\\u0647 \\u0635\\u0627\\u0631 \\u0627\\u0644+ \\u0648\\u0627\\u062d\\u062f \\u062e\\u0627\\u064a\\u0641 \\u0639\\u0644\\u0649 \\u0646\\u0641\\u0633 +\\u0647 \\u0645\\u0633\\u062a\\u0639\\u062c\\u0644 \\u0628\\u0635\\u0644 +\\u0627\\u062a +\\u0647 \\u0623\\u0646\\u0627 \\u0643\\u0644\\u0645\\u0627 \\u0635\\u0644\\u064a +\\u062a \\u0627\\u0639\\u062a\\u0628\\u0631 +\\u0647\\u0627 \\u0635\\u0644\\u0627 +\\u0647 \\u0645\\u0648\\u062f\\u0639 \\u0641\\u064a\\u062e\\u0634\\u0639 \\u0642\\u0644\\u0628 +\\u064a \\u062a\\u062f\\u0645\\u0639 \\u0639\\u064a\\u0646 +\\u0627 +\\u064a\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1734,\n 'f': \"1734\",\n },\n\"\\u064a\\u0627\\u0631\\u0628 \\u0627\\u0631\\u0632\\u0642 \\u0627\\u0644+ \\u0639\\u0632\\u064a\\u0645\\u0647 \\u0644+ \\u0627\\u062a\\u062e\\u0627\\u0630 \\u0627\\u0644+ \\u0642\\u0631\\u0627\\u0631 \\u0648+ \\u064a\\u0627 \\u0631\\u0628 \\u0627\\u062e\\u0644\\u0641 +\\u0646\\u0627 \\u062e\\u064a\\u0631 +\\u0627 \\u0645\\u0646 +\\u0647\",\n{\n 'v': 1,\n 'f': \"1\",\n }],\n [{\n 'v': 1269,\n 'f': \"1269\",\n },\n\"\\u0644+ \\u0644\\u064a \\u0645\\u0641\\u0643\\u0631 +\\u064a\\u0646 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0631\\u0627\\u062d \\u064a\\u0637\\u0648\\u0631 +\\u0647\\u0645 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0631\\u0627\\u062d \\u064a\\u062f\\u0645\\u0631 \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0627\\u0644+ \\u0645\\u0646\\u0637\\u0642\\u0647 \\u0627\\u0644\\u0644\\u064a \\u062d\\u0648\\u0644 +\\u0647\\u0627 \\u0644\\u0627\\u0646 \\u0627\\u0644+ \\u0641\\u0633\\u0627\\u062f \\u0627\\u0644+ \\u0645\\u0648\\u062c\\u0648\\u062f \\u0628+ \\u0627\\u0644+ \\u0627\\u0631\\u062f\\u0646 \\u0645\\u0634 \\u0645\\u0648\\u062c\\u0648\\u062f \\u0628+ \\u062f\\u0648\\u0644 +\\u0647 \\u0623\\u062e\\u0631\\u0649 \\u0647\\u0630\\u0627 \\u064a\\u0639\\u0646\\u064a +\\u0627\\u0646 \\u0627\\u0644+ \\u0641\\u0627\\u0633\\u062f +\\u064a\\u0646 \\u0631\\u0627\\u064a\\u062d +\\u064a\\u0646 \\u064a\\u0633\\u0645\\u0633\\u0631\\u0648\\u0627 \\u064a\\u0644\\u0647\\u0641 +\\u0648\\u0627 \\u0644+ \\u0645\\u0627 \\u064a\\u0648\\u0635\\u0644 +\\u0648\\u0627 \\u0627\\u0634\\u0643\\u0644 \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0644+ \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0646\\u0627\\u0633 +\\u064a\\u0646 +\\u0627\\u0646 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u064a\\u062d\\u062a\\u0627\\u062c \\u0627\\u0644\\u0649 \\u0628\\u062d\\u0631 \\u0645\\u0627\\u0621 \\u0644+ \\u0627\\u0644+ \\u062a\\u0628\\u0631\\u064a\\u062f \\u0646\\u062d\\u0646 \\u0644\\u0627\\u0646\\u0645\\u0644\\u0643 \\u0645\\u0627\\u0621 \\u0644+ \\u0627\\u0644+ \\u0634\\u0631\\u0628 \\u0646\\u0627\\u0633 +\\u064a\\u0646 +\\u0627\\u0646 \\u0627\\u0644+ \\u062a\\u0637\\u0648\\u0631 \\u064a\\u0643\\u0648\\u0646 \\u0628+ \\u0645\\u0634\\u0627\\u0631\\u0643 +\\u0647 \\u0627\\u0644+ \\u062c\\u0645\\u064a\\u0639 \\u0644\\u064a\\u0633 \\u0628+ \\u0642\\u0631\\u0627\\u0631 \\u0641\\u0631\\u062f\\u064a \\u0646\\u0627\\u0633 +\\u064a\\u0646 +\\u0627\\u0646 \\u0627\\u0644\\u0630\\u064a \\u0623\\u0642\\u0631 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0647\\u0648 \\u0627\\u0644+ \\u0645\\u062d\\u062a\\u0643\\u0631 \\u0627\\u0644+ \\u0623\\u0648\\u0644 \\u0647\\u064a\\u0626 +\\u0647 \\u0627\\u0644+ \\u0637\\u0627\\u0642\\u0647 +\\u0627\\u0646 \\u0634\\u0627\\u063a\\u0631 +\\u0647\\u0627 \\u0628\\u0642\\u064a \\u0645\\u0639\\u0644\\u0642 \\u0623\\u062b\\u0646\\u0627\\u0621 \\u0641\\u062a\\u0631 +\\u0647 \\u062a\\u0633\\u0644\\u0645 \\u0637\\u0648\\u0642\\u0627\\u0646 \\u0648+ \\u0632\\u0627\\u0631 +\\u0647 \\u0627\\u0644+ \\u062a\\u0631\\u0628\\u064a\\u0647 \\u0648+ \\u0627\\u0644+ \\u062a\\u0639\\u0644\\u064a\\u0645 \\u0644+ \\u062f\\u0648\\u0644 \\u0627\\u0644+ \\u0645\\u062a\\u0642\\u062f\\u0645\\u0647 \\u0628\\u062f\\u0623 +\\u062a \\u062a\\u0628\\u062d\\u062b \\u0639\\u0646 \\u0628\\u062f\\u0627\\u0626\\u0644 \\u0644+ \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 +\\u0627\\u062a \\u0646\\u062d\\u0646 \\u0628+ \\u0646\\u0634\\u062a\\u0631\\u064a \\u0627\\u0644+ \\u062e\\u0631\\u0628\\u0627\\u0646 \\u0645\\u0646 +\\u0647\\u0645 \\u0645\\u0634 +\\u0627\\u0646 \\u0627\\u0644+ \\u062a\\u0642\\u062f\\u0645 \\u0628\\u0644\\u062f +\\u0646\\u0627 \\u0628+ \\u0641\\u0636\\u0644 \\u0627\\u0644\\u0644\\u0647 \\u0644\\u062f\\u064a +\\u0647\\u0627 \\u0637\\u0627\\u0642 +\\u0647 \\u0627\\u0644+ \\u0631\\u064a\\u0627\\u062d \\u0637\\u0627\\u0642 +\\u0647 \\u0627\\u0644+ \\u0634\\u0645\\u0633 \\u0644\\u0645\\u0627\\u0630\\u0627 \\u0644\\u0627 \\u064a\\u062a\\u0645 \\u0627\\u0633\\u062a\\u063a\\u0644\\u0627\\u0644 +\\u0647\\u0627 \\u0628\\u062f\\u0644 \\u0627\\u0644+ \\u0645\\u0641\\u0627\\u0639\\u0644 \\u0627\\u0644+ \\u0646\\u0648\\u0648\\u064a \\u0637\\u0627\\u0644\\u0645\\u0627 \\u0627\\u0643\\u0644 +\\u0646\\u0627 \\u0645\\u0639\\u0638\\u0645 +\\u0647 \\u0641\\u0627\\u0633\\u062f \\u063a\\u064a\\u0631 \\u0635\\u0627\\u0644\\u062d \\u0628+ \\u0633\\u0628\\u0628 \\u0627\\u0644+ \\u062c\\u0634\\u0639 \\u0627\\u0644+ \\u0637\\u0645\\u0639 \\u0627\\u0644+ \\u0641\\u0633\\u0627\\u062f\",\n{\n 'v': 0,\n 'f': \"0\",\n }],\n [{\n 'v': 1274,\n 'f': \"1274\",\n },\n\"\\u0644+ \\u0646\\u0641\\u062a\\u0631\\u0636 \\u062c\\u062f\\u0644 +\\u0627 +\\u0627\\u0646 \\u0644\\u0627 \\u0623\\u0636\\u0631\\u0627\\u0631 \\u0635\\u062d\\u064a +\\u0647 \\u0628\\u064a\\u0626\\u064a +\\u0647 \\u0633+ \\u064a\\u0646\\u062a\\u062c \\u0639\\u0646 \\u0628\\u0646\\u0627\\u0621 \\u0645\\u0641\\u0627\\u0639\\u0644 +\\u0627\\u062a \\u0646\\u0648\\u0648\\u064a +\\u0647 \\u0633\\u0644\\u0645\\u064a +\\u0647 \\u062f\\u0639\\u0648 +\\u0646\\u0627 \\u0646\\u0641\\u0643\\u0631 \\u0641\\u064a \\u0627\\u0644+ \\u0643\\u0644\\u0641\\u0647 \\u0645\\u0646 \\u062d\\u064a\\u062b \\u0623\\u0648\\u0644 +\\u0627 : \\u0643\\u0644\\u0641 +\\u0647 \\u0628\\u0646\\u0627\\u0621 \\u0639\\u0627\\u0644\\u064a\\u0647 \\u062c\\u062f +\\u0627 \\u0644+ \\u0639\\u062f\\u0645 \\u0627\\u0645\\u062a\\u0644\\u0627\\u0643 +\\u0646\\u0627 \\u0644+ \\u0647\\u0630\\u0647 \\u0627\\u0644+ \\u062a\\u0643\\u0646\\u0648\\u0644\\u0648\\u062c\\u064a\\u0627 \\u0639\\u0644\\u0649 \\u0634\\u0643\\u0644 \\u062f\\u064a\\u0648\\u0646 \\u062a\\u062b\\u0641\\u0644 \\u0643\\u0627\\u0647\\u0644 \\u0627\\u0644+ \\u0639\\u0634\\u0631 \\u0623\\u062c\\u064a\\u0627\\u0644 \\u0627\\u0644\\u0642\\u0627\\u062f\\u0645 +\\u0647 \\u062b\\u0627\\u0646\\u064a +\\u0627 : \\u0644+ \\u0646\\u0641\\u0633 \\u0627\\u0644+ \\u0633\\u0628\\u0628 \\u0633+ \\u0646\\u0633\\u062a\\u0648\\u0631\\u062f \\u062e\\u0628\\u0631\\u0627\\u0621 \\u0644+ \\u0627\\u0644+ \\u062a\\u0634\\u063a\\u064a\\u0644 \\u0644+ \\u0633\\u0646\\u0648 +\\u0627\\u062a \\u0637\\u0648\\u064a\\u0644 +\\u0647 \\u0645\\u0645\\u0627 \\u064a\\u0632\\u064a\\u062f \\u0643\\u0644\\u0641 +\\u0647 \\u0627\\u0644+ \\u0637\\u0627\\u0642\\u0647 \\u0644\\u064a\\u0633 \\u0627\\u0644+ \\u0639\\u0643\\u0633 \\u0646\\u0627\\u0647\\u064a\\u0643 \\u0639\\u0646 \\u062d\\u0635\\u0648\\u0644 \\u0627\\u064a \\u0623\\u062e\\u0637\\u0627\\u0621 \\u0645\\u0641\\u062a\\u0631\\u0636 +\\u0647 \\u0645\\u0633\\u062a\\u0642\\u0628\\u0644 +\\u0627 \\u062b\\u0627\\u0644\\u062b +\\u0627 : \\u0623\\u064a\\u0646 \\u0647\\u0648 \\u0627\\u0644+ \\u0645\\u0643\\u0627\\u0646 \\u0627\\u0644+ \\u0628\\u0639\\u064a\\u062f \\u0639\\u0646 \\u0627\\u0644+ \\u0645\\u062f\\u0646 \\u0641\\u064a \\u0627\\u0644+ \\u0623\\u0631\\u062f\\u0646 \\u0648\\u0627\\u064a\\u0646 \\u0645\\u0635\\u062f\\u0631 \\u0627\\u0644+ \\u0645\\u064a\\u0627\\u0647 \\u0627\\u0644+ \\u0643\\u0627\\u0641\\u064a\\u0647 \\u0644+ \\u0627\\u0644+ \\u062a\\u0628\\u0631\\u064a\\u062f \\u0631\\u0627\\u0628\\u0639 +\\u0627 : \\u0645\\u0646 \\u062d\\u0642 \\u0627\\u0644+ \\u0645\\u0648\\u0627\\u0637\\u0646 +\\u064a\\u0646 \\u0623\\u0635\\u062d\\u0627\\u0628 \\u0627\\u0644+ \\u0642\\u0631\\u0627\\u0631 \\u0627\\u0644+ \\u062d\\u0635\\u0648\\u0644 \\u0639\\u0644\\u0649 \\u062a\\u0642\\u0631\\u064a\\u0631 \\u0645\\u0646\\u0634\\u0648\\u0631 \\u0644+ \\u0627\\u0644+ \\u0627\\u062b\\u0631 \\u0627\\u0644+ \\u0628\\u064a\\u0626\\u064a \\u0645\\u0633\\u0628\\u0642 +\\u0627 \\u0628+ \\u0646\\u0641\\u0633 \\u0627\\u0644+ \\u0648\\u0642\\u062a \\u0646\\u0633\\u062a\\u0637\\u064a\\u0639 \\u0627\\u0644+ \\u062d\\u0635\\u0648\\u0644 \\u0639\\u0644\\u0649 \\u0646\\u0641\\u0633 \\u0643\\u0645\\u064a +\\u0647 \\u0627\\u0644+ \\u0637\\u0627\\u0642\\u0647 \\u0645\\u0646 \\u0627\\u0644+ \\u0635\\u062e\\u0631 \\u0627\\u0644+ \\u0632\\u064a\\u062a\\u064a \\u0627\\u0644\\u0630\\u064a \\u0646\\u0645\\u062a\\u0644\\u0643 \\u0645\\u0646 +\\u0647 \\u0627\\u062d\\u062a\\u064a\\u0627\\u0637\\u064a \\u0647\\u0627\\u0626\\u0644 \\u0645\\u0646 \\u0627\\u0644+ \\u063a\\u0627\\u0632 \\u0627\\u0644+ \\u0637\\u0628\\u064a\\u0639\\u064a \\u0627\\u0644+ \\u0645\\u0624\\u0645\\u0644 \\u0645\\u0633\\u062a\\u0642\\u0628\\u0644 +\\u0627 \\u0645\\u0646 \\u0627\\u0644+ \\u0637\\u0627\\u0642\\u0647 \\u0627\\u0644+ \\u0634\\u0645\\u0633\\u064a\\u0647 \\u0645\\u0646 \\u0637\\u0627\\u0642 +\\u0647 \\u0627\\u0644+ \\u0631\\u064a\\u0627\\u062d \\u0628+ \\u0643\\u0644\\u0641 \\u0646\\u0633\\u0628\\u064a +\\u0627 \\u0623\\u0642\\u0644 \\u0628+ \\u0643\\u062b\\u064a\\u0631 \\u0645\\u0646 \\u0627\\u0644+ \\u0646\\u0648\\u0648\\u064a \\u062f\\u0648\\u0646 \\u0623\\u0639\\u0628\\u0627\\u0621 \\u062f\\u064a\\u0648\\u0646 \\u0627\\u0636\\u0627\\u0641\\u064a +\\u0647\",\n{\n 'v': 0,\n 'f': \"0\",\n }]],\n columns: [[\"number\", \"index\"], [\"string\", \"text\"], [\"number\", \"label\"]],\n columnOptions: [{\"width\": \"1px\", \"className\": \"index_column\"}],\n rowsPerPage: 25,\n helpUrl: \"https://colab.research.google.com/notebooks/data_table.ipynb\",\n suppressOutputScrolling: true,\n minimumWidth: undefined,\n });\n ", + "text/html": [ + "
\n", + "\n", + "\n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + "
textlabel
1591و+ الله حرام و+ الله موتو +ه ل+ شعب ال+ أردني ...0
943صباح ك+ سعيد1
869شخصي +ه تافه0
162ال+ حق مش على ل+ جن +ه ال+ تحكيم ال+ حق على ال...0
1271ل+ ما تكثر عليا ال+ التزام +ات يصير كل اللي نف...0
.........
765رائع و+ ل+ اجمل ? حب رب +نا1
1465نرجو من الله +ان يتقبل صلات +نا رغم ما تمر ب+ ...1
1734يارب ارزق ال+ عزيمه ل+ اتخاذ ال+ قرار و+ يا رب...1
1269ل+ لي مفكر +ين ال+ مفاعل راح يطور +هم ال+ مفاع...0
1274ل+ نفترض جدل +ا +ان لا أضرار صحي +ه بيئي +ه س+...0
\n", + "

360 rows × 2 columns

\n", + "
" + ], + "text/plain": [ + " text label\n", + "1591 و+ الله حرام و+ الله موتو +ه ل+ شعب ال+ أردني ... 0\n", + "943 صباح ك+ سعيد 1\n", + "869 شخصي +ه تافه 0\n", + "162 ال+ حق مش على ل+ جن +ه ال+ تحكيم ال+ حق على ال... 0\n", + "1271 ل+ ما تكثر عليا ال+ التزام +ات يصير كل اللي نف... 0\n", + "... ... ...\n", + "765 رائع و+ ل+ اجمل ? حب رب +نا 1\n", + "1465 نرجو من الله +ان يتقبل صلات +نا رغم ما تمر ب+ ... 1\n", + "1734 يارب ارزق ال+ عزيمه ل+ اتخاذ ال+ قرار و+ يا رب... 1\n", + "1269 ل+ لي مفكر +ين ال+ مفاعل راح يطور +هم ال+ مفاع... 0\n", + "1274 ل+ نفترض جدل +ا +ان لا أضرار صحي +ه بيئي +ه س+... 0\n", + "\n", + "[360 rows x 2 columns]" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 7 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "xG6QJkCtn6nB", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 299 + }, + "outputId": "82aa552f-d5a4-478c-99d5-560f607a2fe6" + }, + "source": [ + "train_sentence_length = [ len(text.split()) for text in train_AJGT['text']]\n", + "test_sentence_length = [ len(text.split()) for text in test_AJGT['text']]\n", + "\n", + "print(\"Max of train len: \",np.max(train_sentence_length))\n", + "print(\"Max of test len: \",np.max(test_sentence_length))\n", + "import matplotlib.pyplot as plt\n", + "\n", + "plt.hist(train_sentence_length,bins= range(200),density=True)\n", + "plt.hist(test_sentence_length,bins= range(200),density=True)\n", + "plt.show()" + ], + "execution_count": 70, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Max of train len: 249\n", + "Max of test len: 197\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "image/png": "iVBORw0KGgoAAAANSUhEUgAAAXoAAAD4CAYAAADiry33AAAABHNCSVQICAgIfAhkiAAAAAlwSFlzAAALEgAACxIB0t1+/AAAADh0RVh0U29mdHdhcmUAbWF0cGxvdGxpYiB2ZXJzaW9uMy4yLjEsIGh0dHA6Ly9tYXRwbG90bGliLm9yZy+j8jraAAAREklEQVR4nO3df4xlZX3H8fenu7JYtEuFrVF+dJaCJmtsKt2gf6htpFqwldUKLWAqTWm2Jm5SY40dY0I2xD+KbSVpSmpooKWoBUtrOsmuxSpNTYxSFuTXgqsDrmUp8jtY2iIufvvHPQuX25mdO7tz75197vuVTOac5zwz93ufe+dznzn33HNSVUiS2vUTky5AkjRaBr0kNc6gl6TGGfSS1DiDXpIat3bSBQw6/vjja2ZmZtJlSNIR5dZbb32sqjYstG3VBf3MzAy7du2adBmSdERJ8r3FtrnrRpIaZ9BLUuMMeklqnEEvSY0z6CWpcQa9JDXOoJekxhn0ktQ4g16SGje9Qb99fe9Lkho3vUEvSVPCoJekxhn0ktQ4g16SGmfQS1LjDHpJapxBL0mNM+glqXEGvSQ1zqCXpMYZ9JLUOINekhpn0EtS4wx6SWqcQS9JjTPoJalxBr0kNc6gl6TGGfSS1DiDXpIaZ9BLUuMMeklq3FBBn+SsJHuSzCeZXWD7uiTXd9tvTjLTtb8kyTVJ7kpyb5KPrWz5kqSlLBn0SdYAVwBnA5uAC5JsGuh2MfBkVZ0KXA5c1rWfB6yrqtcDvwj8/oEXAUnSeAwzoz8DmK+q+6vqWeA6YMtAny3ANd3yDcCZSQIUcEyStcBLgWeBH6xI5aOwff2kK5CkFTdM0J8APNC3vq9rW7BPVe0HngKOoxf6/w08BPwH8KdV9cTgDSTZmmRXkl2PPvrosu+EJGlxo34z9gzgOeDVwEbgD5OcMtipqq6sqs1VtXnDhg0jLkmSpsswQf8gcFLf+old24J9ut0064HHgQuBf66qH1XVI8DXgM2HW7QkaXjDBP0twGlJNiY5CjgfmBvoMwdc1C2fC9xUVUVvd83bAJIcA7wJ+NZKFC5JGs6SQd/tc98G3AjcC3y+qnYnuTTJOV23q4DjkswDHwYOHIJ5BfCyJLvpvWD8dVXdudJ3QpK0uLXDdKqqncDOgbZL+pafoXco5eDPPb1QuyRpfPxkrCQ1zqCXpMYZ9JLUOINekho3lUE/M7tj0iVI0thMZdBL0jQx6CWpcQa9JDXOoJekxhn0ktQ4g16SGmfQS1LjDHpJapxBL0mNM+glqXFTH/SeDkFS66Y+6CWpdQa9JDVueoJ++/pJVyBJEzE9QS9JU8qgl6TGGfSS1DiDXpIaZ9BLUuMMeklqnEEvSY0z6CWpcQa9JDXOoJekxhn0ktS4qQz6vUdfOOkSJGlspjLoJWmaGPSS1DiDXpIaZ9BLUuMMeklq3FBBn+SsJHuSzCeZXWD7uiTXd9tvTjLTt+3nk3w9ye4kdyU5euXKlyQtZcmgT7IGuAI4G9gEXJBk00C3i4Enq+pU4HLgsu5n1wKfAT5QVa8Dfhn40YpVL0la0jAz+jOA+aq6v6qeBa4Dtgz02QJc0y3fAJyZJMA7gDur6g6Aqnq8qp5bmdIlScMYJuhPAB7oW9/XtS3Yp6r2A08BxwGvASrJjUluS/LRhW4gydYku5LsevTRR5d7HyRJBzHqN2PXAm8G3td9f0+SMwc7VdWVVbW5qjZv2LBhxCVJ0nRZO0SfB4GT+tZP7NoW6rOv2y+/Hnic3uz/q1X1GECSncDpwFcOs+5DMjO7A4C9vh0saYoMM6O/BTgtycYkRwHnA3MDfeaAi7rlc4GbqqqAG4HXJ/nJ7gXgl4B7VqZ0SdIwlpzRV9X+JNvohfYa4Oqq2p3kUmBXVc0BVwHXJpkHnqD3YkBVPZnkU/ReLArYWVU7RnRfDt329ZOuQJJGZphdN1TVTmDnQNslfcvPAOct8rOfoXeIpSRpAvxkrCQ1zqCXpMYZ9JLUOINekhpn0EtS4wx6SWqcQS9JjTPoJalxBr0kNc6gl6TGGfSS1LipD/q9R1846RIkaaSmPuglqXUGvSQ1zqCXpMYZ9JLUOINekhpn0C/GywtKaoRBL0mNM+glqXFDXRx8mszM7gBg79ETLkSSVogzeklqnEEvSY2bql03ntdG0jRyRi9JjTPoJalxBr0kNc6gl6TGGfSS1DiDXpIaZ9BLUuMMeklqnEF/EDOzO54/940kHakMeklqnEEvSY0z6CWpcUMFfZKzkuxJMp9kdoHt65Jc322/OcnMwPaTkzyd5CMrU7YkaVhLBn2SNcAVwNnAJuCCJJsGul0MPFlVpwKXA5cNbP8U8MXDL1eStFzDzOjPAOar6v6qeha4Dtgy0GcLcE23fANwZpIAJHk38F1g98qULElajmHOR38C8EDf+j7gjYv1qar9SZ4CjkvyDPBHwNuBRXfbJNkKbAU4+eSThy5+GF4aUNK0G/WbsduBy6vq6YN1qqorq2pzVW3esGHDiEuSpOkyzIz+QeCkvvUTu7aF+uxLshZYDzxOb+Z/bpJPAscCP07yTFX9xWFXLkkayjBBfwtwWpKN9AL9fGDwmnxzwEXA14FzgZuqqoC3HOiQZDvw9JEU8i9cevCpidYhSYdjyaDv9rlvA24E1gBXV9XuJJcCu6pqDrgKuDbJPPAEvRcDSdIqMNTFwatqJ7BzoO2SvuVngPOW+B3bD6E+SdJh8pOxktQ4g16SGmfQS1LjDHpJapxBL0mNM+glqXEGvSQ1zqCXpMYZ9JLUuKE+GTtNXji/zQhsX99999w5ksbHGb0kNc6gH8KBi5ccWO5fl6TVzqCXpMYZ9JLUON+MHZK7ayQdqZzRS1Ljmp/Rj+pwyZnZHS/8bg+XlLSKOaOXpMYZ9JLUOINekhpn0EtS4wx6SWqcQS9JjTPoJalxBr0kNc6gl6TGGfSS1DiDXpIa1/y5blZC//lyZp753AQrkaTlc0YvSY0z6CWpcQa9JDXOoJekxhn0ktQ4g16SGmfQL9Peoy8c2eUJJWkUhgr6JGcl2ZNkPsnsAtvXJbm+235zkpmu/e1Jbk1yV/f9bStb/sHNzO4Y622N8/YkaVhLBn2SNcAVwNnAJuCCJJsGul0MPFlVpwKXA5d17Y8B76qq1wMXAdeuVOGSpOEMM6M/A5ivqvur6lngOmDLQJ8twDXd8g3AmUlSVd+sqv/s2ncDL02ybiUKlyQNZ5igPwF4oG99X9e2YJ+q2g88BRw30Oe9wG1V9cNDK1WSdCjGcq6bJK+jtzvnHYts3wpsBTj55JPHUZIkTY1hZvQPAif1rZ/YtS3YJ8laYD3weLd+IvAF4P1Vdd9CN1BVV1bV5qravGHDhuXdgwlZ9Mib7evHW4gkLWGYoL8FOC3JxiRHAecDcwN95ui92QpwLnBTVVWSY4EdwGxVfW2lipYkDW/JoO/2uW8DbgTuBT5fVbuTXJrknK7bVcBxSeaBDwMHDsHcBpwKXJLk9u7rZ1b8XkiSFjXUPvqq2gnsHGi7pG/5GeC8BX7uE8AnDrNGSdJh8JOxktQ4g34E+j8l6ydmJU2aQS9JjTPoJalxBr0kNc6gl6TGGfSS1DiDXpIaN5aTmjVv+3rgc8+vvnAenKcW7D4zu+OFPtsX7nPw2zqEn5M0tZzRS1LjDHpJapxBL0mNM+hHyFMfSFoNDHpJapxBL0mNa/rwykUv9zem23px2yKHQ/ZfetBDLSWNgDN6SWqcQS9JjTPoJalxBv0q5ZWpJK0Ug16SGmfQT8CiRwP1H4HT33bgS5IOgUEvSY0z6CWpcQa9JDXOoJekxhn0ktQ4g35cPGpG0oQY9JLUOIP+COInZSUdiqZPU3wkMswlrTRn9JLUOGf0Dej/L2DvH//aBCuRtBo5o5ekxjmjX2UOdvnDxbYNXrLwwAz/Re3DXG5wmi9NuH39+O73YuM8zeN/pFqJx2wMzz1n9Pp/fENYaotBL0mNGyrok5yVZE+S+SSzC2xfl+T6bvvNSWb6tn2sa9+T5FdXrvTpttise9jZuFewkqbHkvvok6wBrgDeDuwDbkkyV1X39HW7GHiyqk5Ncj5wGfBbSTYB5wOvA14NfDnJa6rquZW+I/1e2Ec9yls5sszM7nj+iJz+gH/RETsjHK/nH5NVcFTQaqpFo9X/vJ9mw8zozwDmq+r+qnoWuA7YMtBnC3BNt3wDcGaSdO3XVdUPq+q7wHz3+yRJY5KqOniH5FzgrKr6vW79t4E3VtW2vj53d332dev3AW8EtgPfqKrPdO1XAV+sqhsGbmMrsLVbfS2w5zDu0/HAY4fx86NiXctjXcu3WmuzruU51Lp+tqo2LLRhVRxeWVVXAleuxO9KsquqNq/E71pJ1rU81rV8q7U261qeUdQ1zK6bB4GT+tZP7NoW7JNkLbAeeHzIn5UkjdAwQX8LcFqSjUmOovfm6txAnzngom75XOCm6u0TmgPO747K2QicBvz7ypQuSRrGkrtuqmp/km3AjcAa4Oqq2p3kUmBXVc0BVwHXJpkHnqD3YkDX7/PAPcB+4IOjPuKGFdoFNALWtTzWtXyrtTbrWp4Vr2vJN2MlSUc2PxkrSY0z6CWpcc0E/VKnaRhjHScl+dck9yTZneQPuvbtSR5Mcnv39c4J1bc3yV1dDbu6tlck+Zck3+m+//SYa3pt37jcnuQHST40iTFLcnWSR7rPhhxoW3B80vPn3XPuziSnj7muP0nyre62v5Dk2K59Jsn/9o3bp0dV10FqW/SxG9dpURap6/q+mvYmub1rH9uYHSQjRvc8q6oj/ovem8T3AacARwF3AJsmVMurgNO75ZcD3wY20fvw2EdWwVjtBY4faPskMNstzwKXTfix/D7ws5MYM+CtwOnA3UuND/BO4ItAgDcBN4+5rncAa7vly/rqmunvN6ExW/Cx6/4W7gDWARu7v9s146prYPufAZeMe8wOkhEje561MqMf5jQNY1FVD1XVbd3yfwH3AidMopZl6D+FxTXAuydYy5nAfVX1vUnceFV9ld6RY/0WG58twN9WzzeAY5O8alx1VdWXqmp/t/oNep9TGbtFxmwxYzstysHqShLgN4G/G8VtH8xBMmJkz7NWgv4E4IG+9X2sgnBN7yyebwBu7pq2df96XT3u3SN9CvhSklvTO/UEwCur6qFu+fvAKydTGtA7NLf/j281jNli47Oanne/S2/Wd8DGJN9M8m9J3jKhmhZ67FbLmL0FeLiqvtPXNvYxG8iIkT3PWgn6VSfJy4B/AD5UVT8A/hL4OeAXgIfo/ds4CW+uqtOBs4EPJnlr/8bq/a84kWNu0/tA3jnA33dNq2XMnjfJ8VlMko/T+5zKZ7umh4CTq+oNwIeBzyX5qTGXteoeuwEX8OIJxdjHbIGMeN5KP89aCfpVdaqFJC+h9wB+tqr+EaCqHq6q56rqx8BfMaGzeFbVg933R4AvdHU8fOBfwe77I5Oojd6Lz21V9XBX46oYMxYfn4k/75L8DvDrwPu6cKDbLfJ4t3wrvf3grxlnXQd57FbDmK0FfgO4/kDbuMdsoYxghM+zVoJ+mNM0jEW37+8q4N6q+lRfe/8+tfcAdw/+7BhqOybJyw8s03sz725efAqLi4B/GndtnRfNslbDmHUWG5854P3dURFvAp7q+9d75JKcBXwUOKeq/qevfUN615EgySn0Tj1y/7jq6m53scduNZwW5VeAb1V3tl0Y75gtlhGM8nk2jneZx/FF753pb9N7Jf74BOt4M71/ue4Ebu++3glcC9zVtc8Br5pAbafQO+LhDmD3gXECjgO+AnwH+DLwignUdgy9E+Gt72sb+5jRe6F5CPgRvX2hFy82PvSOgriie87dBWwec13z9PbdHniefbrr+97u8b0duA141wTGbNHHDvh4N2Z7gLPHWVfX/jfABwb6jm3MDpIRI3ueeQoESWpcK7tuJEmLMOglqXEGvSQ1zqCXpMYZ9JLUOINekhpn0EtS4/4Poc/8NKpqvT8AAAAASUVORK5CYII=\n", + "text/plain": [ + "
" + ] + }, + "metadata": { + "tags": [], + "needs_background": "light" + } + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "C9_qeVxmA7vD", + "colab_type": "code", + "colab": {} + }, + "source": [ + "train_df = pd.DataFrame({\n", + " 'id':range(len(train_AJGT)),\n", + " 'label':train_AJGT[\"label\"],\n", + " 'alpha':['a']*train_AJGT.shape[0],\n", + " 'text': train_AJGT[\"text\"].replace(r'\\n', ' ', regex=True)\n", + "})\n", + "\n", + "dev_df = pd.DataFrame({\n", + " 'id':range(len(test_AJGT)),\n", + " 'label':test_AJGT[\"label\"],\n", + " 'alpha':['a']*test_AJGT.shape[0],\n", + " 'text': test_AJGT[\"text\"].replace(r'\\n', ' ', regex=True)\n", + "})\n", + "\n", + "!mkdir data\n", + "train_df.to_csv(\"data/train.tsv\",index=False,columns=train_df.columns,sep='\\t',header=False)\n", + "dev_df.to_csv(\"data/dev.tsv\",index=False,columns=dev_df.columns,sep='\\t',header=False)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "byPl2DkkEnK6", + "colab_type": "text" + }, + "source": [ + "#Model" + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "4j7yxoBv7FAT", + "colab_type": "text" + }, + "source": [ + "That's it!! Now let's build our model" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "RhaUIEEHFIok", + "colab_type": "code", + "colab": {} + }, + "source": [ + "model_name = 'aubmindlab/bert-base-arabert' \n", + "num_labels = 2\n", + "task_name = 'classification'\n", + "max_length = 128" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "PuwYN-T9EyDS", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000 + }, + "outputId": "de47f20e-0131-4e26-a8bf-3dc78e83e8bb" + }, + "source": [ + "config = AutoConfig.from_pretrained(model_name,num_labels=num_labels, output_attentions=True) ##needed for the visualizations\n", + "tokenizer = AutoTokenizer.from_pretrained(model_name, do_lower_case=False, do_basic_tokenize=True, never_split=never_split_tokens)\n", + "model = BertForSequenceClassification.from_pretrained(model_name,config=config)" + ], + "execution_count": 58, + "outputs": [ + { + "output_type": "stream", + "text": [ + "INFO:transformers.configuration_utils:loading configuration file https://s3.amazonaws.com/models.huggingface.co/bert/aubmindlab/bert-base-arabert/config.json from cache at /root/.cache/torch/transformers/91c3e98e149f6e88215bffd705e4ef9bd8a355f4c317973e4f3868c6f93fa24a.228454ce933b8b08d739250487427020de1c65c818f519e96bddebb93778b82f\n", + "INFO:transformers.configuration_utils:Model config BertConfig {\n", + " \"attention_probs_dropout_prob\": 0.1,\n", + " \"directionality\": \"bidi\",\n", + " \"hidden_act\": \"gelu\",\n", + " \"hidden_dropout_prob\": 0.1,\n", + " \"hidden_size\": 768,\n", + " \"initializer_range\": 0.02,\n", + " \"intermediate_size\": 3072,\n", + " \"layer_norm_eps\": 1e-12,\n", + " \"max_position_embeddings\": 512,\n", + " \"model_type\": \"bert\",\n", + " \"num_attention_heads\": 12,\n", + " \"num_hidden_layers\": 12,\n", + " \"output_attentions\": true,\n", + " \"pad_token_id\": 29757,\n", + " \"pooler_fc_size\": 768,\n", + " \"pooler_num_attention_heads\": 12,\n", + " \"pooler_num_fc_layers\": 3,\n", + " \"pooler_size_per_head\": 128,\n", + " \"pooler_type\": \"first_token_transform\",\n", + " \"type_vocab_size\": 2,\n", + " \"vocab_size\": 64000\n", + "}\n", + "\n", + "INFO:transformers.configuration_utils:loading configuration file https://s3.amazonaws.com/models.huggingface.co/bert/aubmindlab/bert-base-arabert/config.json from cache at /root/.cache/torch/transformers/91c3e98e149f6e88215bffd705e4ef9bd8a355f4c317973e4f3868c6f93fa24a.228454ce933b8b08d739250487427020de1c65c818f519e96bddebb93778b82f\n", + "INFO:transformers.configuration_utils:Model config BertConfig {\n", + " \"attention_probs_dropout_prob\": 0.1,\n", + " \"directionality\": \"bidi\",\n", + " \"hidden_act\": \"gelu\",\n", + " \"hidden_dropout_prob\": 0.1,\n", + " \"hidden_size\": 768,\n", + " \"initializer_range\": 0.02,\n", + " \"intermediate_size\": 3072,\n", + " \"layer_norm_eps\": 1e-12,\n", + " \"max_position_embeddings\": 512,\n", + " \"model_type\": \"bert\",\n", + " \"num_attention_heads\": 12,\n", + " \"num_hidden_layers\": 12,\n", + " \"pad_token_id\": 29757,\n", + " \"pooler_fc_size\": 768,\n", + " \"pooler_num_attention_heads\": 12,\n", + " \"pooler_num_fc_layers\": 3,\n", + " \"pooler_size_per_head\": 128,\n", + " \"pooler_type\": \"first_token_transform\",\n", + " \"type_vocab_size\": 2,\n", + " \"vocab_size\": 64000\n", + "}\n", + "\n", + "INFO:transformers.tokenization_utils:Model name 'aubmindlab/bert-base-arabert' not found in model shortcut name list (bert-base-uncased, bert-large-uncased, bert-base-cased, bert-large-cased, bert-base-multilingual-uncased, bert-base-multilingual-cased, bert-base-chinese, bert-base-german-cased, bert-large-uncased-whole-word-masking, bert-large-cased-whole-word-masking, bert-large-uncased-whole-word-masking-finetuned-squad, bert-large-cased-whole-word-masking-finetuned-squad, bert-base-cased-finetuned-mrpc, bert-base-german-dbmdz-cased, bert-base-german-dbmdz-uncased, TurkuNLP/bert-base-finnish-cased-v1, TurkuNLP/bert-base-finnish-uncased-v1, wietsedv/bert-base-dutch-cased). Assuming 'aubmindlab/bert-base-arabert' is a path, a model identifier, or url to a directory containing tokenizer files.\n", + "INFO:transformers.tokenization_utils:loading file https://s3.amazonaws.com/models.huggingface.co/bert/aubmindlab/bert-base-arabert/vocab.txt from cache at /root/.cache/torch/transformers/e00d70bd70387a7cefb7b3f960c2b4bff22c254c680dabca3c09336b98c42396.a17ce51bb78b7fa46a5b28baee670bca2f9bf6bc93608fc37438db58382e5bc0\n", + "INFO:transformers.tokenization_utils:loading file https://s3.amazonaws.com/models.huggingface.co/bert/aubmindlab/bert-base-arabert/added_tokens.json from cache at None\n", + "INFO:transformers.tokenization_utils:loading file https://s3.amazonaws.com/models.huggingface.co/bert/aubmindlab/bert-base-arabert/special_tokens_map.json from cache at None\n", + "INFO:transformers.tokenization_utils:loading file https://s3.amazonaws.com/models.huggingface.co/bert/aubmindlab/bert-base-arabert/tokenizer_config.json from cache at None\n", + "INFO:transformers.modeling_utils:loading weights file https://cdn.huggingface.co/aubmindlab/bert-base-arabert/pytorch_model.bin from cache at /root/.cache/torch/transformers/26f8720a79d80f7ae70d448d93e09fed364a6b0393c95a026519402dbd1313b2.8867d4172d26dd413ba8029e13bbe7eb5b9ae301b62c259f8be84ee78c0beb0c\n", + "INFO:transformers.modeling_utils:Weights of BertForSequenceClassification not initialized from pretrained model: ['classifier.weight', 'classifier.bias']\n", + "INFO:transformers.modeling_utils:Weights from pretrained model not used in BertForSequenceClassification: ['cls.predictions.bias', 'cls.predictions.transform.dense.weight', 'cls.predictions.transform.dense.bias', 'cls.predictions.transform.LayerNorm.weight', 'cls.predictions.transform.LayerNorm.bias', 'cls.predictions.decoder.weight', 'cls.seq_relationship.weight', 'cls.seq_relationship.bias']\n" + ], + "name": "stderr" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "gWPzXRY2GWXO", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000 + }, + "outputId": "b7643b38-680c-4f7a-ce7b-d2f61d5ddda3" + }, + "source": [ + "print(config)\n", + "print(model)" + ], + "execution_count": 15, + "outputs": [ + { + "output_type": "stream", + "text": [ + "BertConfig {\n", + " \"attention_probs_dropout_prob\": 0.1,\n", + " \"directionality\": \"bidi\",\n", + " \"hidden_act\": \"gelu\",\n", + " \"hidden_dropout_prob\": 0.1,\n", + " \"hidden_size\": 768,\n", + " \"initializer_range\": 0.02,\n", + " \"intermediate_size\": 3072,\n", + " \"layer_norm_eps\": 1e-12,\n", + " \"max_position_embeddings\": 512,\n", + " \"model_type\": \"bert\",\n", + " \"num_attention_heads\": 12,\n", + " \"num_hidden_layers\": 12,\n", + " \"output_attentions\": true,\n", + " \"pad_token_id\": 29757,\n", + " \"pooler_fc_size\": 768,\n", + " \"pooler_num_attention_heads\": 12,\n", + " \"pooler_num_fc_layers\": 3,\n", + " \"pooler_size_per_head\": 128,\n", + " \"pooler_type\": \"first_token_transform\",\n", + " \"type_vocab_size\": 2,\n", + " \"vocab_size\": 64000\n", + "}\n", + "\n", + "BertForSequenceClassification(\n", + " (bert): BertModel(\n", + " (embeddings): BertEmbeddings(\n", + " (word_embeddings): Embedding(64000, 768, padding_idx=29757)\n", + " (position_embeddings): Embedding(512, 768)\n", + " (token_type_embeddings): Embedding(2, 768)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (encoder): BertEncoder(\n", + " (layer): ModuleList(\n", + " (0): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (1): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (2): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (3): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (4): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (5): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (6): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (7): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (8): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (9): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (10): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (11): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " )\n", + " )\n", + " (pooler): BertPooler(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (activation): Tanh()\n", + " )\n", + " )\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " (classifier): Linear(in_features=768, out_features=2, bias=True)\n", + ")\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "8lbrX0qPfYUq", + "colab_type": "text" + }, + "source": [ + "Now we need to convert the examples in the dataset to features that the model can understand" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "4kxxG-B8a8n-", + "colab_type": "code", + "colab": {} + }, + "source": [ + "train_dataset = SingleSentenceClassificationProcessor(mode='classification')\n", + "test_dataset = SingleSentenceClassificationProcessor(mode='classification')" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "Dc07ttYGbmyw", + "colab_type": "code", + "outputId": "a77301c4-0010-435f-eea9-b04c19b46936", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 34 + } + }, + "source": [ + "train_dataset.add_examples(texts_or_text_and_labels=train_df['text'],labels=train_df['label'],overwrite_examples = True)\n", + "test_dataset.add_examples(texts_or_text_and_labels=dev_df['text'],labels=dev_df['label'],overwrite_examples = True)\n", + "\n", + "print(train_dataset.examples[0])" + ], + "execution_count": 60, + "outputs": [ + { + "output_type": "stream", + "text": [ + "InputExample(guid=None, text_a='سبحان الله ب+ حمد +ه عدد خلق +ه رضى نفس +ه زن +ه عرش +ه مداد كلم +ات +ه', text_b=None, label=1)\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "dFWmQnlgfLUu", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 85 + }, + "outputId": "5c7afddb-3a51-4c85-a59c-1f51046cb2a3" + }, + "source": [ + "train_features = train_dataset.get_features(tokenizer = tokenizer, max_length = max_length)\n", + "test_features = test_dataset.get_features(tokenizer = tokenizer, max_length = max_length)" + ], + "execution_count": 61, + "outputs": [ + { + "output_type": "stream", + "text": [ + "INFO:transformers.data.processors.utils:Tokenizing example 0\n", + "INFO:transformers.data.processors.utils:Writing example 0/1440\n", + "INFO:transformers.data.processors.utils:Tokenizing example 0\n", + "INFO:transformers.data.processors.utils:Writing example 0/360\n" + ], + "name": "stderr" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "fwUlC3guwyGn", + "colab_type": "code", + "outputId": "539150c4-441f-4cd1-9a37-d547f9244420", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 54 + } + }, + "source": [ + "print(train_features[0])" + ], + "execution_count": 62, + "outputs": [ + { + "output_type": "stream", + "text": [ + "InputFeatures(input_ids=[29756, 36006, 12695, 448, 3945, 129, 5367, 4095, 129, 4444, 6746, 129, 630, 129, 5383, 129, 21336, 6025, 1012, 129, 29758, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], attention_mask=[1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], token_type_ids=None, label=1)\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "dhFziHZOnRQV", + "colab_type": "code", + "outputId": "1a25b03a-0e52-4dd6-a0cf-147d45c8de44", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 51 + } + }, + "source": [ + "print(len(train_features))\n", + "print(len(test_features))" + ], + "execution_count": 63, + "outputs": [ + { + "output_type": "stream", + "text": [ + "1440\n", + "360\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "BESxX5r7yx-k", + "colab_type": "code", + "outputId": "47bced69-4e83-43f9-9ca2-5d2886ab2493", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 51 + } + }, + "source": [ + "pos_train_labels = np.sum([feature.label for feature in train_features])\n", + "pos_test_labels = np.sum([feature.label for feature in test_features])\n", + "\n", + "print(pos_train_labels)\n", + "print(pos_test_labels)" + ], + "execution_count": 64, + "outputs": [ + { + "output_type": "stream", + "text": [ + "707\n", + "193\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "60gbtvIoIRoy", + "colab_type": "code", + "colab": {} + }, + "source": [ + "training_args = TrainingArguments(\"./train\")" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "GjZqMq0CWuZV", + "colab_type": "code", + "colab": {} + }, + "source": [ + "training_args.do_train = True\n", + "training_args.evaluate_during_training = True\n", + "training_args.adam_epsilon = 1e-8\n", + "training_args.learning_rate = 2e-5\n", + "training_args.warmup_steps = 0\n", + "training_args.per_gpu_train_batch_size = 16\n", + "training_args.per_gpu_eval_batch_size = 16\n", + "training_args.num_train_epochs= 5\n", + "training_args.logging_steps = (len(train_features) - 1) // training_args.per_gpu_train_batch_size + 1\n", + "training_args.save_steps = training_args.logging_steps \n", + "training_args.seed = 42\n", + "#training_args.logging_dir = \"gs://\" from torch.utils.tensorboard import SummaryWriter supports google cloud storage" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "NaHDLjzdn2cQ", + "colab_type": "code", + "outputId": "4541d1a4-7b7e-4b78-b3a0-800b268c6f1e", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 34 + } + }, + "source": [ + "print(training_args.logging_steps)" + ], + "execution_count": 74, + "outputs": [ + { + "output_type": "stream", + "text": [ + "90\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "tO1XiM7OosnH", + "colab_type": "code", + "colab": {} + }, + "source": [ + "#https://github.com/huggingface/transformers/blob/master/src/transformers/trainer_utils.py\n", + "def compute_metrics(p): #p should be of type EvalPrediction\n", + " preds = np.argmax(p.predictions, axis=1)\n", + " assert len(preds) == len(p.label_ids)\n", + " print(classification_report(p.label_ids,preds))\n", + " print(confusion_matrix(p.label_ids,preds))\n", + "\n", + " f1_Positive = f1_score(p.label_ids,preds,pos_label=1,average='binary')\n", + " f1_Negative = f1_score(p.label_ids,preds,pos_label=0,average='binary')\n", + " macro_f1 = f1_score(p.label_ids,preds,average='macro')\n", + " macro_precision = precision_score(p.label_ids,preds,average='macro')\n", + " macro_recall = recall_score(p.label_ids,preds,average='macro')\n", + " acc = accuracy_score(p.label_ids,preds)\n", + " return {\n", + " 'f1_pos': f1_Positive,\n", + " 'f1_neg': f1_Negative,\n", + " 'macro_f1' : macro_f1, \n", + " 'macro_precision': macro_precision,\n", + " 'macro_recall': macro_recall,\n", + " 'accuracy': acc\n", + " }" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "MGBV2EGPWIuC", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 51 + }, + "outputId": "84420385-95d8-45ac-c54b-7e38a0913fe3" + }, + "source": [ + "trainer = Trainer(model=model,\n", + " args = training_args,\n", + " train_dataset = train_features,\n", + " eval_dataset = test_features,\n", + " compute_metrics = compute_metrics)" + ], + "execution_count": 76, + "outputs": [ + { + "output_type": "stream", + "text": [ + "INFO:transformers.training_args:PyTorch: setting up devices\n", + "INFO:transformers.trainer:You are instantiating a Trainer but W&B is not installed. To use wandb logging, run `pip install wandb; wandb login` see https://docs.wandb.com/huggingface.\n" + ], + "name": "stderr" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "aSjM8uovXyTC", + "colab_type": "code", + "outputId": "2c8d44b2-c821-4d1c-fb82-a2e2eeb48934", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000, + "referenced_widgets": [ + "17813b948bcf4e969c836380f05006ef", + "38982754d77944e4b7efc4eca8bd969c", + "2be6e5c534f34a71b16340fd8fecfddd", + "8cb309473b4f497ab02f7979181cdb2d", + "653c8cc6609e4bf097f3573e04851c60", + "e2c89e8246b349a9bdd6de29c8127a64", + "afb60ef656214893b07027cee9d9cca9", + "d255651515ef444582b106ed3919f229", + "fd23578f00dc4abc9642095c330611ed", + "a65723c9197646b0848b2bae2481dff6", + "70aa50492e664cb3b8f08ecb48bb4145", + "21681fb94406488d967b16f6322675c8", + "8b92965e88be46b4b8498f8cc8f97f6a", + "03ecb7ada6044d3f95f0845bf6d66cc4", + "e8e3af5f4f574fdfb9c9ba4a40c5c649", + "ecdbaa12cf6b4c90bdf416901cc358e8", + "37d95fb1806b4c64b7ba1b01b8191562", + "484308fd15af4f03a10ca30e72049c6e", + "81a0dbea95944c5a9128a383674607af", + "65fedd1acbc94fb3bf9e3b61474dda60", + "7636e76415f24d40bf3e3a6dbb2e0c1d", + "aab3095589464c37a59d2aaa48063b00", + "df57fce3ef14489fb5ee686d14c5f1cb", + "e7e24d1ea65649e090783985598e5195", + "194636aaccc14fdfad8311f8c8374c99", + "402b92e099314328a8163a90d41c197e", + "c9c56a03cc404a76b489d4eb2b245d0b", + "adf33486ee924f4e93c92b04adf8b9e9", + "349e928a7c2547e4b196fd05ed521b7b", + "5785c38b06174a8c8420fbc7c8709412", + "e674e00fc7be4a118d128f61878c99ca", + "dcfa6e6d328144cabbe02874abd03e6a", + "7d66a7e8846d4c65beffd08bb700d218", + "ef9a3e78cd514de4a75d4604f5211dc9", + "7899682189f74835a81f5812a0e77d12", + "5f3739789a4746ffa2614ea9dd3ac3b7", + "e42218a701db454a8c3e390c72718486", + "1a8ba84566c34458b2181ca3e056880a", + "b3ca12fec190483ca683a99476d3d150", + "3a29e069bbce416bad055484cde0cf45", + "dce2b22327e148eeb9dd956120c4e32e", + "127b26d898fa4693a98dcc69fb9249b2", + "0cb1cb77d2f4499e93e5bd3aaab2251a", + "9573c3877ee94cf6bf8ab84af22e8328", + "e7e87e458ade41afae719a00e886edc3", + "59f3029377fb409c968043ef3233d68f", + "16e4163d1acd4d35a6904b8546aa3522", + "ac1120ed8dca4f569164959b107aaad5", + "2c73bbb701224bbcae31c8dff3f1bfc6", + "7d2705003ebc40e09334baf989bdd34d", + "5a01ed1eb8e845ceaf0bbf4afbfc84dc", + "213ea689fb3049c1b86c62f768729f58", + "2b297c9489dd45639b8ce6f867d8ecde", + "7551764c8d1e4c23a85cd1480771d29b", + "58ddaa2efb0c4a249d753f3c009ec34c", + "70496505a3354479871dad4bfea1ae1c", + "1def79d196bc40e0b5f22ccd1e6127f8", + "fd5c0c072da74e0c9dc1099f90074c92", + "26bf09cab5884e929bc7783c98329ce6", + "df0e1e7410f4490c913f76836e119d5a", + "9ca7af35c4064d399f4c8c1bad6b4cd0", + "e816e89ae61446778644b700b414495a", + "37a196f4a10748208af126f78d840074", + "0972a0192f584347927608325d5f4546", + "ca6e184fd64041d8afa797b04fb98007", + "b0fe9a318a3248da8ec43f29227472fb", + "38fbfae7364f4ddcb3941f2b5bf47816", + "660b2c0a32f94850ba25576dd0fc745e", + "a06249d499974f1ea6497e03c42bda98", + "80624de7b0c64b0fb2f50c4f7d308e21", + "040234f721a84629b08ef8c30f99ff04", + "e639ebfd62bc49e6a2a5561962e02bc2", + "cc41a24584d44adabc2b4fa04fdf31e9", + "c05748435d374016b3756e38b49b43d8", + "90ac82918d994fc4b45fcf7d540c0067", + "7cb99d2aaa504f93b829a700fd3ca087", + "1cf94b0c795d44daa77f2fd02059f2a2", + "ef7043b4aaf14dd4beeb832587cd77e5", + "c4aa279f78b941bbab1ff37348647b39", + "c402ccf10d61409398956fa9b4a2322b", + "e205b470c6e044e694fc997d011b0927", + "e4f9b9f4c3774fd195c4118c1d39d8de", + "5ee4fc0330fb4ec7b41b195565996bc0", + "10e97e1a515e496583ba5234988eb0e4", + "4cdc398913364462a4ca840520e81f5b", + "25cc6e40b1714c3b80fef4a48328dffd", + "2f44bf008f4449ff82a44c90148f825e", + "091df1f6989a44b882c9747b124d236b" + ] + } + }, + "source": [ + "trainer.train()" + ], + "execution_count": 77, + "outputs": [ + { + "output_type": "stream", + "text": [ + "WARNING:transformers.training_args:Using deprecated `--per_gpu_train_batch_size` argument which will be removed in a future version. Using `--per_device_train_batch_size` is preferred.\n", + "WARNING:transformers.training_args:Using deprecated `--per_gpu_train_batch_size` argument which will be removed in a future version. Using `--per_device_train_batch_size` is preferred.\n", + "INFO:transformers.trainer:***** Running training *****\n", + "INFO:transformers.trainer: Num examples = 1440\n", + "INFO:transformers.trainer: Num Epochs = 5\n", + "INFO:transformers.trainer: Instantaneous batch size per device = 8\n", + "INFO:transformers.trainer: Total train batch size (w. parallel, distributed & accumulation) = 16\n", + "INFO:transformers.trainer: Gradient Accumulation steps = 1\n", + "INFO:transformers.trainer: Total optimization steps = 450\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "17813b948bcf4e969c836380f05006ef", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Epoch', max=5.0, style=ProgressStyle(description_width='i…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "fd23578f00dc4abc9642095c330611ed", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Iteration', max=90.0, style=ProgressStyle(description_wid…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "WARNING:transformers.training_args:Using deprecated `--per_gpu_eval_batch_size` argument which will be removed in a future version. Using `--per_device_eval_batch_size` is preferred.\n", + "INFO:transformers.trainer:***** Running Evaluation *****\n", + "INFO:transformers.trainer: Num examples = 360\n", + "INFO:transformers.trainer: Batch size = 16\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "{\"loss\": 0.3570140757908424, \"learning_rate\": 1.6000000000000003e-05, \"epoch\": 1.0, \"step\": 90}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "37d95fb1806b4c64b7ba1b01b8191562", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Evaluation', max=23.0, style=ProgressStyle(description_wi…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.trainer:Saving model checkpoint to ./train/checkpoint-90\n", + "INFO:transformers.configuration_utils:Configuration saved in ./train/checkpoint-90/config.json\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " 0 0.89 0.95 0.92 167\n", + " 1 0.95 0.90 0.92 193\n", + "\n", + " accuracy 0.92 360\n", + " macro avg 0.92 0.92 0.92 360\n", + "weighted avg 0.92 0.92 0.92 360\n", + "\n", + "[[158 9]\n", + " [ 20 173]]\n", + "{\"eval_loss\": 0.23239801791699036, \"eval_f1_pos\": 0.9226666666666666, \"eval_f1_neg\": 0.9159420289855073, \"eval_macro_f1\": 0.9193043478260869, \"eval_macro_precision\": 0.9190949499938263, \"eval_macro_recall\": 0.9212404207129782, \"eval_accuracy\": 0.9194444444444444, \"epoch\": 1.0, \"step\": 90}\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.modeling_utils:Model weights saved in ./train/checkpoint-90/pytorch_model.bin\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/torch/optim/lr_scheduler.py:200: UserWarning: Please also save or load the state of the optimzer when saving or loading the scheduler.\n", + " warnings.warn(SAVE_STATE_WARNING, UserWarning)\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "194636aaccc14fdfad8311f8c8374c99", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Iteration', max=90.0, style=ProgressStyle(description_wid…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "WARNING:transformers.training_args:Using deprecated `--per_gpu_eval_batch_size` argument which will be removed in a future version. Using `--per_device_eval_batch_size` is preferred.\n", + "INFO:transformers.trainer:***** Running Evaluation *****\n", + "INFO:transformers.trainer: Num examples = 360\n", + "INFO:transformers.trainer: Batch size = 16\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "{\"loss\": 0.15852821198188596, \"learning_rate\": 1.2e-05, \"epoch\": 2.0, \"step\": 180}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "7d66a7e8846d4c65beffd08bb700d218", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Evaluation', max=23.0, style=ProgressStyle(description_wi…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.trainer:Saving model checkpoint to ./train/checkpoint-180\n", + "INFO:transformers.configuration_utils:Configuration saved in ./train/checkpoint-180/config.json\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " 0 0.87 0.95 0.91 167\n", + " 1 0.96 0.88 0.92 193\n", + "\n", + " accuracy 0.91 360\n", + " macro avg 0.91 0.92 0.91 360\n", + "weighted avg 0.92 0.91 0.91 360\n", + "\n", + "[[159 8]\n", + " [ 23 170]]\n", + "{\"eval_loss\": 0.27613088439988054, \"eval_f1_pos\": 0.9164420485175203, \"eval_f1_neg\": 0.9111747851002864, \"eval_macro_f1\": 0.9138084168089033, \"eval_macro_precision\": 0.9143412767008272, \"eval_macro_recall\": 0.9164624119636375, \"eval_accuracy\": 0.9138888888888889, \"epoch\": 2.0, \"step\": 180}\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.modeling_utils:Model weights saved in ./train/checkpoint-180/pytorch_model.bin\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "dce2b22327e148eeb9dd956120c4e32e", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Iteration', max=90.0, style=ProgressStyle(description_wid…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "WARNING:transformers.training_args:Using deprecated `--per_gpu_eval_batch_size` argument which will be removed in a future version. Using `--per_device_eval_batch_size` is preferred.\n", + "INFO:transformers.trainer:***** Running Evaluation *****\n", + "INFO:transformers.trainer: Num examples = 360\n", + "INFO:transformers.trainer: Batch size = 16\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "{\"loss\": 0.07192943679789703, \"learning_rate\": 8.000000000000001e-06, \"epoch\": 3.0, \"step\": 270}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "2c73bbb701224bbcae31c8dff3f1bfc6", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Evaluation', max=23.0, style=ProgressStyle(description_wi…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.trainer:Saving model checkpoint to ./train/checkpoint-270\n", + "INFO:transformers.configuration_utils:Configuration saved in ./train/checkpoint-270/config.json\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " 0 0.90 0.92 0.91 167\n", + " 1 0.93 0.91 0.92 193\n", + "\n", + " accuracy 0.91 360\n", + " macro avg 0.91 0.91 0.91 360\n", + "weighted avg 0.91 0.91 0.91 360\n", + "\n", + "[[154 13]\n", + " [ 18 175]]\n", + "{\"eval_loss\": 0.3215774331727754, \"eval_f1_pos\": 0.9186351706036746, \"eval_f1_neg\": 0.9085545722713864, \"eval_macro_f1\": 0.9135948714375305, \"eval_macro_precision\": 0.9130999505195447, \"eval_macro_recall\": 0.9144457199590457, \"eval_accuracy\": 0.9138888888888889, \"epoch\": 3.0, \"step\": 270}\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.modeling_utils:Model weights saved in ./train/checkpoint-270/pytorch_model.bin\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "1def79d196bc40e0b5f22ccd1e6127f8", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Iteration', max=90.0, style=ProgressStyle(description_wid…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "WARNING:transformers.training_args:Using deprecated `--per_gpu_eval_batch_size` argument which will be removed in a future version. Using `--per_device_eval_batch_size` is preferred.\n", + "INFO:transformers.trainer:***** Running Evaluation *****\n", + "INFO:transformers.trainer: Num examples = 360\n", + "INFO:transformers.trainer: Batch size = 16\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "{\"loss\": 0.042770601871112986, \"learning_rate\": 4.000000000000001e-06, \"epoch\": 4.0, \"step\": 360}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "ca6e184fd64041d8afa797b04fb98007", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Evaluation', max=23.0, style=ProgressStyle(description_wi…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.trainer:Saving model checkpoint to ./train/checkpoint-360\n", + "INFO:transformers.configuration_utils:Configuration saved in ./train/checkpoint-360/config.json\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " 0 0.92 0.91 0.92 167\n", + " 1 0.92 0.93 0.93 193\n", + "\n", + " accuracy 0.92 360\n", + " macro avg 0.92 0.92 0.92 360\n", + "weighted avg 0.92 0.92 0.92 360\n", + "\n", + "[[152 15]\n", + " [ 13 180]]\n", + "{\"eval_loss\": 0.3710199777522813, \"eval_f1_pos\": 0.9278350515463918, \"eval_f1_neg\": 0.9156626506024097, \"eval_macro_f1\": 0.9217488510744007, \"eval_macro_precision\": 0.9221445221445221, \"eval_macro_recall\": 0.9214110638825974, \"eval_accuracy\": 0.9222222222222223, \"epoch\": 4.0, \"step\": 360}\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.modeling_utils:Model weights saved in ./train/checkpoint-360/pytorch_model.bin\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "cc41a24584d44adabc2b4fa04fdf31e9", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Iteration', max=90.0, style=ProgressStyle(description_wid…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "WARNING:transformers.training_args:Using deprecated `--per_gpu_eval_batch_size` argument which will be removed in a future version. Using `--per_device_eval_batch_size` is preferred.\n", + "INFO:transformers.trainer:***** Running Evaluation *****\n", + "INFO:transformers.trainer: Num examples = 360\n", + "INFO:transformers.trainer: Batch size = 16\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "{\"loss\": 0.020281719416379927, \"learning_rate\": 0.0, \"epoch\": 5.0, \"step\": 450}\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "e205b470c6e044e694fc997d011b0927", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Evaluation', max=23.0, style=ProgressStyle(description_wi…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.trainer:Saving model checkpoint to ./train/checkpoint-450\n", + "INFO:transformers.configuration_utils:Configuration saved in ./train/checkpoint-450/config.json\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n", + " precision recall f1-score support\n", + "\n", + " 0 0.93 0.90 0.92 167\n", + " 1 0.92 0.94 0.93 193\n", + "\n", + " accuracy 0.92 360\n", + " macro avg 0.92 0.92 0.92 360\n", + "weighted avg 0.92 0.92 0.92 360\n", + "\n", + "[[151 16]\n", + " [ 12 181]]\n", + "{\"eval_loss\": 0.38095345477695053, \"eval_f1_pos\": 0.9282051282051282, \"eval_f1_neg\": 0.9151515151515152, \"eval_macro_f1\": 0.9216783216783218, \"eval_macro_precision\": 0.9225810469932422, \"eval_macro_recall\": 0.9210077254816791, \"eval_accuracy\": 0.9222222222222223, \"epoch\": 5.0, \"step\": 450}\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.modeling_utils:Model weights saved in ./train/checkpoint-450/pytorch_model.bin\n", + "INFO:transformers.trainer:\n", + "\n", + "Training completed. Do not forget to share your model on huggingface.co/models =)\n", + "\n", + "\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n", + "\n" + ], + "name": "stdout" + }, + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "TrainOutput(global_step=450, training_loss=0.13010480917162365)" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 77 + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "SOd4YUV71AfG", + "colab_type": "text" + }, + "source": [ + "## Check that our training was successful using TensorBoard" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "zPtKu_BpZVPh", + "colab_type": "code", + "colab": {} + }, + "source": [ + "# Load the TensorBoard notebook extension\n", + "%load_ext tensorboard" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "D_FAPHBh1CKU", + "colab_type": "code", + "colab": {} + }, + "source": [ + "%tensorboard --logdir runs" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "xbMaI8TK5ezX", + "colab_type": "text" + }, + "source": [ + "#BERT Visualization" + ] + }, + { + "cell_type": "code", + "metadata": { + "colab_type": "code", + "id": "Yx4G9t6P7JWg", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 119 + }, + "outputId": "a863ba72-e2cd-48f8-f21b-07ca218aedd4" + }, + "source": [ + "import sys\n", + "!test -d bertviz_repo && echo \"FYI: bertviz_repo directory already exists, to pull latest version uncomment this line: !rm -r bertviz_repo\"\n", + "# !rm -r bertviz_repo # Uncomment if you need a clean pull from repo\n", + "!test -d bertviz_repo || git clone https://github.com/jessevig/bertviz bertviz_repo\n", + "if not 'bertviz_repo' in sys.path:\n", + " sys.path += ['bertviz_repo']\n", + "!pip install regex" + ], + "execution_count": 45, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Cloning into 'bertviz_repo'...\n", + "remote: Enumerating objects: 1074, done.\u001b[K\n", + "remote: Total 1074 (delta 0), reused 0 (delta 0), pack-reused 1074\u001b[K\n", + "Receiving objects: 100% (1074/1074), 99.41 MiB | 22.01 MiB/s, done.\n", + "Resolving deltas: 100% (687/687), done.\n", + "Requirement already satisfied: regex in /usr/local/lib/python3.6/dist-packages (2019.12.20)\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "4wGdokh55iTT", + "colab_type": "code", + "colab": {} + }, + "source": [ + "from bertviz import head_view, model_view" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "05oNwqks5me4", + "colab_type": "code", + "colab": {} + }, + "source": [ + "def call_html():\n", + " import IPython\n", + " display(IPython.core.display.HTML('''\n", + " \n", + " \n", + " '''))" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "JY3gU97h5oHG", + "colab_type": "code", + "colab": {} + }, + "source": [ + "def call_html2():\n", + " import IPython\n", + " display(IPython.core.display.HTML('''\n", + " \n", + " \n", + " '''))" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "x--4Ykvo5qnI", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000 + }, + "outputId": "13c70705-73e5-414f-debd-85e24411c4f1" + }, + "source": [ + "model.cpu()" + ], + "execution_count": 81, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "BertForSequenceClassification(\n", + " (bert): BertModel(\n", + " (embeddings): BertEmbeddings(\n", + " (word_embeddings): Embedding(64000, 768, padding_idx=29757)\n", + " (position_embeddings): Embedding(512, 768)\n", + " (token_type_embeddings): Embedding(2, 768)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (encoder): BertEncoder(\n", + " (layer): ModuleList(\n", + " (0): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (1): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (2): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (3): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (4): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (5): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (6): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (7): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (8): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (9): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (10): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (11): BertLayer(\n", + " (attention): BertAttention(\n", + " (self): BertSelfAttention(\n", + " (query): Linear(in_features=768, out_features=768, bias=True)\n", + " (key): Linear(in_features=768, out_features=768, bias=True)\n", + " (value): Linear(in_features=768, out_features=768, bias=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " (output): BertSelfOutput(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " (intermediate): BertIntermediate(\n", + " (dense): Linear(in_features=768, out_features=3072, bias=True)\n", + " )\n", + " (output): BertOutput(\n", + " (dense): Linear(in_features=3072, out_features=768, bias=True)\n", + " (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True)\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " )\n", + " )\n", + " )\n", + " )\n", + " (pooler): BertPooler(\n", + " (dense): Linear(in_features=768, out_features=768, bias=True)\n", + " (activation): Tanh()\n", + " )\n", + " )\n", + " (dropout): Dropout(p=0.1, inplace=False)\n", + " (classifier): Linear(in_features=768, out_features=2, bias=True)\n", + ")" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 81 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "D7QC_5IwnCeg", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 34 + }, + "outputId": "92236413-d58e-4550-bb17-c67eb51ee094" + }, + "source": [ + "test_dataset[3].text_a" + ], + "execution_count": 82, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "'ال+ حق مش على ل+ جن +ه ال+ تحكيم ال+ حق على ال+ اغبيه ال+ مشترك +ين'" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 82 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "Ne3KJ3N55t7v", + "colab_type": "code", + "colab": { + "resources": { + "http://localhost:8080/static/components/requirejs/require.js": { + "data": "/** vim: et:ts=4:sw=4:sts=4
 * @license RequireJS 2.1.22 Copyright (c) 2010-2015, The Dojo Foundation All Rights Reserved.
 * Available via the MIT or new BSD license.
 * see: http://github.com/jrburke/requirejs for details
 */
//Not using strict: uneven strict support in browsers, #392, and causes
//problems with requirejs.exec()/transpiler plugins that may not be strict.
/*jslint regexp: true, nomen: true, sloppy: true */
/*global window, navigator, document, importScripts, setTimeout, opera */

var requirejs, require, define;
(function (global) {
    var req, s, head, baseElement, dataMain, src,
        interactiveScript, currentlyAddingScript, mainScript, subPath,
        version = '2.1.22',
        commentRegExp = /(\/\*([\s\S]*?)\*\/|([^:]|^)\/\/(.*)$)/mg,
        cjsRequireRegExp = /[^.]\s*require\s*\(\s*["']([^'"\s]+)["']\s*\)/g,
        jsSuffixRegExp = /\.js$/,
        currDirRegExp = /^\.\//,
        op = Object.prototype,
        ostring = op.toString,
        hasOwn = op.hasOwnProperty,
        ap = Array.prototype,
        isBrowser = !!(typeof window !== 'undefined' && typeof navigator !== 'undefined' && window.document),
        isWebWorker = !isBrowser && typeof importScripts !== 'undefined',
        //PS3 indicates loaded and complete, but need to wait for complete
        //specifically. Sequence is 'loading', 'loaded', execution,
        // then 'complete'. The UA check is unfortunate, but not sure how
        //to feature test w/o causing perf issues.
        readyRegExp = isBrowser && navigator.platform === 'PLAYSTATION 3' ?
                      /^complete$/ : /^(complete|loaded)$/,
        defContextName = '_',
        //Oh the tragedy, detecting opera. See the usage of isOpera for reason.
        isOpera = typeof opera !== 'undefined' && opera.toString() === '[object Opera]',
        contexts = {},
        cfg = {},
        globalDefQueue = [],
        useInteractive = false;

    function isFunction(it) {
        return ostring.call(it) === '[object Function]';
    }

    function isArray(it) {
        return ostring.call(it) === '[object Array]';
    }

    /**
     * Helper function for iterating over an array. If the func returns
     * a true value, it will break out of the loop.
     */
    function each(ary, func) {
        if (ary) {
            var i;
            for (i = 0; i < ary.length; i += 1) {
                if (ary[i] && func(ary[i], i, ary)) {
                    break;
                }
            }
        }
    }

    /**
     * Helper function for iterating over an array backwards. If the func
     * returns a true value, it will break out of the loop.
     */
    function eachReverse(ary, func) {
        if (ary) {
            var i;
            for (i = ary.length - 1; i > -1; i -= 1) {
                if (ary[i] && func(ary[i], i, ary)) {
                    break;
                }
            }
        }
    }

    function hasProp(obj, prop) {
        return hasOwn.call(obj, prop);
    }

    function getOwn(obj, prop) {
        return hasProp(obj, prop) && obj[prop];
    }

    /**
     * Cycles over properties in an object and calls a function for each
     * property value. If the function returns a truthy value, then the
     * iteration is stopped.
     */
    function eachProp(obj, func) {
        var prop;
        for (prop in obj) {
            if (hasProp(obj, prop)) {
                if (func(obj[prop], prop)) {
                    break;
                }
            }
        }
    }

    /**
     * Simple function to mix in properties from source into target,
     * but only if target does not already have a property of the same name.
     */
    function mixin(target, source, force, deepStringMixin) {
        if (source) {
            eachProp(source, function (value, prop) {
                if (force || !hasProp(target, prop)) {
                    if (deepStringMixin && typeof value === 'object' && value &&
                        !isArray(value) && !isFunction(value) &&
                        !(value instanceof RegExp)) {

                        if (!target[prop]) {
                            target[prop] = {};
                        }
                        mixin(target[prop], value, force, deepStringMixin);
                    } else {
                        target[prop] = value;
                    }
                }
            });
        }
        return target;
    }

    //Similar to Function.prototype.bind, but the 'this' object is specified
    //first, since it is easier to read/figure out what 'this' will be.
    function bind(obj, fn) {
        return function () {
            return fn.apply(obj, arguments);
        };
    }

    function scripts() {
        return document.getElementsByTagName('script');
    }

    function defaultOnError(err) {
        throw err;
    }

    //Allow getting a global that is expressed in
    //dot notation, like 'a.b.c'.
    function getGlobal(value) {
        if (!value) {
            return value;
        }
        var g = global;
        each(value.split('.'), function (part) {
            g = g[part];
        });
        return g;
    }

    /**
     * Constructs an error with a pointer to an URL with more information.
     * @param {String} id the error ID that maps to an ID on a web page.
     * @param {String} message human readable error.
     * @param {Error} [err] the original error, if there is one.
     *
     * @returns {Error}
     */
    function makeError(id, msg, err, requireModules) {
        var e = new Error(msg + '\nhttp://requirejs.org/docs/errors.html#' + id);
        e.requireType = id;
        e.requireModules = requireModules;
        if (err) {
            e.originalError = err;
        }
        return e;
    }

    if (typeof define !== 'undefined') {
        //If a define is already in play via another AMD loader,
        //do not overwrite.
        return;
    }

    if (typeof requirejs !== 'undefined') {
        if (isFunction(requirejs)) {
            //Do not overwrite an existing requirejs instance.
            return;
        }
        cfg = requirejs;
        requirejs = undefined;
    }

    //Allow for a require config object
    if (typeof require !== 'undefined' && !isFunction(require)) {
        //assume it is a config object.
        cfg = require;
        require = undefined;
    }

    function newContext(contextName) {
        var inCheckLoaded, Module, context, handlers,
            checkLoadedTimeoutId,
            config = {
                //Defaults. Do not set a default for map
                //config to speed up normalize(), which
                //will run faster if there is no default.
                waitSeconds: 7,
                baseUrl: './',
                paths: {},
                bundles: {},
                pkgs: {},
                shim: {},
                config: {}
            },
            registry = {},
            //registry of just enabled modules, to speed
            //cycle breaking code when lots of modules
            //are registered, but not activated.
            enabledRegistry = {},
            undefEvents = {},
            defQueue = [],
            defined = {},
            urlFetched = {},
            bundlesMap = {},
            requireCounter = 1,
            unnormalizedCounter = 1;

        /**
         * Trims the . and .. from an array of path segments.
         * It will keep a leading path segment if a .. will become
         * the first path segment, to help with module name lookups,
         * which act like paths, but can be remapped. But the end result,
         * all paths that use this function should look normalized.
         * NOTE: this method MODIFIES the input array.
         * @param {Array} ary the array of path segments.
         */
        function trimDots(ary) {
            var i, part;
            for (i = 0; i < ary.length; i++) {
                part = ary[i];
                if (part === '.') {
                    ary.splice(i, 1);
                    i -= 1;
                } else if (part === '..') {
                    // If at the start, or previous value is still ..,
                    // keep them so that when converted to a path it may
                    // still work when converted to a path, even though
                    // as an ID it is less than ideal. In larger point
                    // releases, may be better to just kick out an error.
                    if (i === 0 || (i === 1 && ary[2] === '..') || ary[i - 1] === '..') {
                        continue;
                    } else if (i > 0) {
                        ary.splice(i - 1, 2);
                        i -= 2;
                    }
                }
            }
        }

        /**
         * Given a relative module name, like ./something, normalize it to
         * a real name that can be mapped to a path.
         * @param {String} name the relative name
         * @param {String} baseName a real name that the name arg is relative
         * to.
         * @param {Boolean} applyMap apply the map config to the value. Should
         * only be done if this normalization is for a dependency ID.
         * @returns {String} normalized name
         */
        function normalize(name, baseName, applyMap) {
            var pkgMain, mapValue, nameParts, i, j, nameSegment, lastIndex,
                foundMap, foundI, foundStarMap, starI, normalizedBaseParts,
                baseParts = (baseName && baseName.split('/')),
                map = config.map,
                starMap = map && map['*'];

            //Adjust any relative paths.
            if (name) {
                name = name.split('/');
                lastIndex = name.length - 1;

                // If wanting node ID compatibility, strip .js from end
                // of IDs. Have to do this here, and not in nameToUrl
                // because node allows either .js or non .js to map
                // to same file.
                if (config.nodeIdCompat && jsSuffixRegExp.test(name[lastIndex])) {
                    name[lastIndex] = name[lastIndex].replace(jsSuffixRegExp, '');
                }

                // Starts with a '.' so need the baseName
                if (name[0].charAt(0) === '.' && baseParts) {
                    //Convert baseName to array, and lop off the last part,
                    //so that . matches that 'directory' and not name of the baseName's
                    //module. For instance, baseName of 'one/two/three', maps to
                    //'one/two/three.js', but we want the directory, 'one/two' for
                    //this normalization.
                    normalizedBaseParts = baseParts.slice(0, baseParts.length - 1);
                    name = normalizedBaseParts.concat(name);
                }

                trimDots(name);
                name = name.join('/');
            }

            //Apply map config if available.
            if (applyMap && map && (baseParts || starMap)) {
                nameParts = name.split('/');

                outerLoop: for (i = nameParts.length; i > 0; i -= 1) {
                    nameSegment = nameParts.slice(0, i).join('/');

                    if (baseParts) {
                        //Find the longest baseName segment match in the config.
                        //So, do joins on the biggest to smallest lengths of baseParts.
                        for (j = baseParts.length; j > 0; j -= 1) {
                            mapValue = getOwn(map, baseParts.slice(0, j).join('/'));

                            //baseName segment has config, find if it has one for
                            //this name.
                            if (mapValue) {
                                mapValue = getOwn(mapValue, nameSegment);
                                if (mapValue) {
                                    //Match, update name to the new value.
                                    foundMap = mapValue;
                                    foundI = i;
                                    break outerLoop;
                                }
                            }
                        }
                    }

                    //Check for a star map match, but just hold on to it,
                    //if there is a shorter segment match later in a matching
                    //config, then favor over this star map.
                    if (!foundStarMap && starMap && getOwn(starMap, nameSegment)) {
                        foundStarMap = getOwn(starMap, nameSegment);
                        starI = i;
                    }
                }

                if (!foundMap && foundStarMap) {
                    foundMap = foundStarMap;
                    foundI = starI;
                }

                if (foundMap) {
                    nameParts.splice(0, foundI, foundMap);
                    name = nameParts.join('/');
                }
            }

            // If the name points to a package's name, use
            // the package main instead.
            pkgMain = getOwn(config.pkgs, name);

            return pkgMain ? pkgMain : name;
        }

        function removeScript(name) {
            if (isBrowser) {
                each(scripts(), function (scriptNode) {
                    if (scriptNode.getAttribute('data-requiremodule') === name &&
                            scriptNode.getAttribute('data-requirecontext') === context.contextName) {
                        scriptNode.parentNode.removeChild(scriptNode);
                        return true;
                    }
                });
            }
        }

        function hasPathFallback(id) {
            var pathConfig = getOwn(config.paths, id);
            if (pathConfig && isArray(pathConfig) && pathConfig.length > 1) {
                //Pop off the first array value, since it failed, and
                //retry
                pathConfig.shift();
                context.require.undef(id);

                //Custom require that does not do map translation, since
                //ID is "absolute", already mapped/resolved.
                context.makeRequire(null, {
                    skipMap: true
                })([id]);

                return true;
            }
        }

        //Turns a plugin!resource to [plugin, resource]
        //with the plugin being undefined if the name
        //did not have a plugin prefix.
        function splitPrefix(name) {
            var prefix,
                index = name ? name.indexOf('!') : -1;
            if (index > -1) {
                prefix = name.substring(0, index);
                name = name.substring(index + 1, name.length);
            }
            return [prefix, name];
        }

        /**
         * Creates a module mapping that includes plugin prefix, module
         * name, and path. If parentModuleMap is provided it will
         * also normalize the name via require.normalize()
         *
         * @param {String} name the module name
         * @param {String} [parentModuleMap] parent module map
         * for the module name, used to resolve relative names.
         * @param {Boolean} isNormalized: is the ID already normalized.
         * This is true if this call is done for a define() module ID.
         * @param {Boolean} applyMap: apply the map config to the ID.
         * Should only be true if this map is for a dependency.
         *
         * @returns {Object}
         */
        function makeModuleMap(name, parentModuleMap, isNormalized, applyMap) {
            var url, pluginModule, suffix, nameParts,
                prefix = null,
                parentName = parentModuleMap ? parentModuleMap.name : null,
                originalName = name,
                isDefine = true,
                normalizedName = '';

            //If no name, then it means it is a require call, generate an
            //internal name.
            if (!name) {
                isDefine = false;
                name = '_@r' + (requireCounter += 1);
            }

            nameParts = splitPrefix(name);
            prefix = nameParts[0];
            name = nameParts[1];

            if (prefix) {
                prefix = normalize(prefix, parentName, applyMap);
                pluginModule = getOwn(defined, prefix);
            }

            //Account for relative paths if there is a base name.
            if (name) {
                if (prefix) {
                    if (pluginModule && pluginModule.normalize) {
                        //Plugin is loaded, use its normalize method.
                        normalizedName = pluginModule.normalize(name, function (name) {
                            return normalize(name, parentName, applyMap);
                        });
                    } else {
                        // If nested plugin references, then do not try to
                        // normalize, as it will not normalize correctly. This
                        // places a restriction on resourceIds, and the longer
                        // term solution is not to normalize until plugins are
                        // loaded and all normalizations to allow for async
                        // loading of a loader plugin. But for now, fixes the
                        // common uses. Details in #1131
                        normalizedName = name.indexOf('!') === -1 ?
                                         normalize(name, parentName, applyMap) :
                                         name;
                    }
                } else {
                    //A regular module.
                    normalizedName = normalize(name, parentName, applyMap);

                    //Normalized name may be a plugin ID due to map config
                    //application in normalize. The map config values must
                    //already be normalized, so do not need to redo that part.
                    nameParts = splitPrefix(normalizedName);
                    prefix = nameParts[0];
                    normalizedName = nameParts[1];
                    isNormalized = true;

                    url = context.nameToUrl(normalizedName);
                }
            }

            //If the id is a plugin id that cannot be determined if it needs
            //normalization, stamp it with a unique ID so two matching relative
            //ids that may conflict can be separate.
            suffix = prefix && !pluginModule && !isNormalized ?
                     '_unnormalized' + (unnormalizedCounter += 1) :
                     '';

            return {
                prefix: prefix,
                name: normalizedName,
                parentMap: parentModuleMap,
                unnormalized: !!suffix,
                url: url,
                originalName: originalName,
                isDefine: isDefine,
                id: (prefix ?
                        prefix + '!' + normalizedName :
                        normalizedName) + suffix
            };
        }

        function getModule(depMap) {
            var id = depMap.id,
                mod = getOwn(registry, id);

            if (!mod) {
                mod = registry[id] = new context.Module(depMap);
            }

            return mod;
        }

        function on(depMap, name, fn) {
            var id = depMap.id,
                mod = getOwn(registry, id);

            if (hasProp(defined, id) &&
                    (!mod || mod.defineEmitComplete)) {
                if (name === 'defined') {
                    fn(defined[id]);
                }
            } else {
                mod = getModule(depMap);
                if (mod.error && name === 'error') {
                    fn(mod.error);
                } else {
                    mod.on(name, fn);
                }
            }
        }

        function onError(err, errback) {
            var ids = err.requireModules,
                notified = false;

            if (errback) {
                errback(err);
            } else {
                each(ids, function (id) {
                    var mod = getOwn(registry, id);
                    if (mod) {
                        //Set error on module, so it skips timeout checks.
                        mod.error = err;
                        if (mod.events.error) {
                            notified = true;
                            mod.emit('error', err);
                        }
                    }
                });

                if (!notified) {
                    req.onError(err);
                }
            }
        }

        /**
         * Internal method to transfer globalQueue items to this context's
         * defQueue.
         */
        function takeGlobalQueue() {
            //Push all the globalDefQueue items into the context's defQueue
            if (globalDefQueue.length) {
                each(globalDefQueue, function(queueItem) {
                    var id = queueItem[0];
                    if (typeof id === 'string') {
                        context.defQueueMap[id] = true;
                    }
                    defQueue.push(queueItem);
                });
                globalDefQueue = [];
            }
        }

        handlers = {
            'require': function (mod) {
                if (mod.require) {
                    return mod.require;
                } else {
                    return (mod.require = context.makeRequire(mod.map));
                }
            },
            'exports': function (mod) {
                mod.usingExports = true;
                if (mod.map.isDefine) {
                    if (mod.exports) {
                        return (defined[mod.map.id] = mod.exports);
                    } else {
                        return (mod.exports = defined[mod.map.id] = {});
                    }
                }
            },
            'module': function (mod) {
                if (mod.module) {
                    return mod.module;
                } else {
                    return (mod.module = {
                        id: mod.map.id,
                        uri: mod.map.url,
                        config: function () {
                            return getOwn(config.config, mod.map.id) || {};
                        },
                        exports: mod.exports || (mod.exports = {})
                    });
                }
            }
        };

        function cleanRegistry(id) {
            //Clean up machinery used for waiting modules.
            delete registry[id];
            delete enabledRegistry[id];
        }

        function breakCycle(mod, traced, processed) {
            var id = mod.map.id;

            if (mod.error) {
                mod.emit('error', mod.error);
            } else {
                traced[id] = true;
                each(mod.depMaps, function (depMap, i) {
                    var depId = depMap.id,
                        dep = getOwn(registry, depId);

                    //Only force things that have not completed
                    //being defined, so still in the registry,
                    //and only if it has not been matched up
                    //in the module already.
                    if (dep && !mod.depMatched[i] && !processed[depId]) {
                        if (getOwn(traced, depId)) {
                            mod.defineDep(i, defined[depId]);
                            mod.check(); //pass false?
                        } else {
                            breakCycle(dep, traced, processed);
                        }
                    }
                });
                processed[id] = true;
            }
        }

        function checkLoaded() {
            var err, usingPathFallback,
                waitInterval = config.waitSeconds * 1000,
                //It is possible to disable the wait interval by using waitSeconds of 0.
                expired = waitInterval && (context.startTime + waitInterval) < new Date().getTime(),
                noLoads = [],
                reqCalls = [],
                stillLoading = false,
                needCycleCheck = true;

            //Do not bother if this call was a result of a cycle break.
            if (inCheckLoaded) {
                return;
            }

            inCheckLoaded = true;

            //Figure out the state of all the modules.
            eachProp(enabledRegistry, function (mod) {
                var map = mod.map,
                    modId = map.id;

                //Skip things that are not enabled or in error state.
                if (!mod.enabled) {
                    return;
                }

                if (!map.isDefine) {
                    reqCalls.push(mod);
                }

                if (!mod.error) {
                    //If the module should be executed, and it has not
                    //been inited and time is up, remember it.
                    if (!mod.inited && expired) {
                        if (hasPathFallback(modId)) {
                            usingPathFallback = true;
                            stillLoading = true;
                        } else {
                            noLoads.push(modId);
                            removeScript(modId);
                        }
                    } else if (!mod.inited && mod.fetched && map.isDefine) {
                        stillLoading = true;
                        if (!map.prefix) {
                            //No reason to keep looking for unfinished
                            //loading. If the only stillLoading is a
                            //plugin resource though, keep going,
                            //because it may be that a plugin resource
                            //is waiting on a non-plugin cycle.
                            return (needCycleCheck = false);
                        }
                    }
                }
            });

            if (expired && noLoads.length) {
                //If wait time expired, throw error of unloaded modules.
                err = makeError('timeout', 'Load timeout for modules: ' + noLoads, null, noLoads);
                err.contextName = context.contextName;
                return onError(err);
            }

            //Not expired, check for a cycle.
            if (needCycleCheck) {
                each(reqCalls, function (mod) {
                    breakCycle(mod, {}, {});
                });
            }

            //If still waiting on loads, and the waiting load is something
            //other than a plugin resource, or there are still outstanding
            //scripts, then just try back later.
            if ((!expired || usingPathFallback) && stillLoading) {
                //Something is still waiting to load. Wait for it, but only
                //if a timeout is not already in effect.
                if ((isBrowser || isWebWorker) && !checkLoadedTimeoutId) {
                    checkLoadedTimeoutId = setTimeout(function () {
                        checkLoadedTimeoutId = 0;
                        checkLoaded();
                    }, 50);
                }
            }

            inCheckLoaded = false;
        }

        Module = function (map) {
            this.events = getOwn(undefEvents, map.id) || {};
            this.map = map;
            this.shim = getOwn(config.shim, map.id);
            this.depExports = [];
            this.depMaps = [];
            this.depMatched = [];
            this.pluginMaps = {};
            this.depCount = 0;

            /* this.exports this.factory
               this.depMaps = [],
               this.enabled, this.fetched
            */
        };

        Module.prototype = {
            init: function (depMaps, factory, errback, options) {
                options = options || {};

                //Do not do more inits if already done. Can happen if there
                //are multiple define calls for the same module. That is not
                //a normal, common case, but it is also not unexpected.
                if (this.inited) {
                    return;
                }

                this.factory = factory;

                if (errback) {
                    //Register for errors on this module.
                    this.on('error', errback);
                } else if (this.events.error) {
                    //If no errback already, but there are error listeners
                    //on this module, set up an errback to pass to the deps.
                    errback = bind(this, function (err) {
                        this.emit('error', err);
                    });
                }

                //Do a copy of the dependency array, so that
                //source inputs are not modified. For example
                //"shim" deps are passed in here directly, and
                //doing a direct modification of the depMaps array
                //would affect that config.
                this.depMaps = depMaps && depMaps.slice(0);

                this.errback = errback;

                //Indicate this module has be initialized
                this.inited = true;

                this.ignore = options.ignore;

                //Could have option to init this module in enabled mode,
                //or could have been previously marked as enabled. However,
                //the dependencies are not known until init is called. So
                //if enabled previously, now trigger dependencies as enabled.
                if (options.enabled || this.enabled) {
                    //Enable this module and dependencies.
                    //Will call this.check()
                    this.enable();
                } else {
                    this.check();
                }
            },

            defineDep: function (i, depExports) {
                //Because of cycles, defined callback for a given
                //export can be called more than once.
                if (!this.depMatched[i]) {
                    this.depMatched[i] = true;
                    this.depCount -= 1;
                    this.depExports[i] = depExports;
                }
            },

            fetch: function () {
                if (this.fetched) {
                    return;
                }
                this.fetched = true;

                context.startTime = (new Date()).getTime();

                var map = this.map;

                //If the manager is for a plugin managed resource,
                //ask the plugin to load it now.
                if (this.shim) {
                    context.makeRequire(this.map, {
                        enableBuildCallback: true
                    })(this.shim.deps || [], bind(this, function () {
                        return map.prefix ? this.callPlugin() : this.load();
                    }));
                } else {
                    //Regular dependency.
                    return map.prefix ? this.callPlugin() : this.load();
                }
            },

            load: function () {
                var url = this.map.url;

                //Regular dependency.
                if (!urlFetched[url]) {
                    urlFetched[url] = true;
                    context.load(this.map.id, url);
                }
            },

            /**
             * Checks if the module is ready to define itself, and if so,
             * define it.
             */
            check: function () {
                if (!this.enabled || this.enabling) {
                    return;
                }

                var err, cjsModule,
                    id = this.map.id,
                    depExports = this.depExports,
                    exports = this.exports,
                    factory = this.factory;

                if (!this.inited) {
                    // Only fetch if not already in the defQueue.
                    if (!hasProp(context.defQueueMap, id)) {
                        this.fetch();
                    }
                } else if (this.error) {
                    this.emit('error', this.error);
                } else if (!this.defining) {
                    //The factory could trigger another require call
                    //that would result in checking this module to
                    //define itself again. If already in the process
                    //of doing that, skip this work.
                    this.defining = true;

                    if (this.depCount < 1 && !this.defined) {
                        if (isFunction(factory)) {
                            try {
                                exports = context.execCb(id, factory, depExports, exports);
                            } catch (e) {
                                err = e;
                            }

                            // Favor return value over exports. If node/cjs in play,
                            // then will not have a return value anyway. Favor
                            // module.exports assignment over exports object.
                            if (this.map.isDefine && exports === undefined) {
                                cjsModule = this.module;
                                if (cjsModule) {
                                    exports = cjsModule.exports;
                                } else if (this.usingExports) {
                                    //exports already set the defined value.
                                    exports = this.exports;
                                }
                            }

                            if (err) {
                                // If there is an error listener, favor passing
                                // to that instead of throwing an error. However,
                                // only do it for define()'d  modules. require
                                // errbacks should not be called for failures in
                                // their callbacks (#699). However if a global
                                // onError is set, use that.
                                if ((this.events.error && this.map.isDefine) ||
                                    req.onError !== defaultOnError) {
                                    err.requireMap = this.map;
                                    err.requireModules = this.map.isDefine ? [this.map.id] : null;
                                    err.requireType = this.map.isDefine ? 'define' : 'require';
                                    return onError((this.error = err));
                                } else if (typeof console !== 'undefined' &&
                                           console.error) {
                                    // Log the error for debugging. If promises could be
                                    // used, this would be different, but making do.
                                    console.error(err);
                                } else {
                                    // Do not want to completely lose the error. While this
                                    // will mess up processing and lead to similar results
                                    // as bug 1440, it at least surfaces the error.
                                    req.onError(err);
                                }
                            }
                        } else {
                            //Just a literal value
                            exports = factory;
                        }

                        this.exports = exports;

                        if (this.map.isDefine && !this.ignore) {
                            defined[id] = exports;

                            if (req.onResourceLoad) {
                                var resLoadMaps = [];
                                each(this.depMaps, function (depMap) {
                                    resLoadMaps.push(depMap.normalizedMap || depMap);
                                });
                                req.onResourceLoad(context, this.map, resLoadMaps);
                            }
                        }

                        //Clean up
                        cleanRegistry(id);

                        this.defined = true;
                    }

                    //Finished the define stage. Allow calling check again
                    //to allow define notifications below in the case of a
                    //cycle.
                    this.defining = false;

                    if (this.defined && !this.defineEmitted) {
                        this.defineEmitted = true;
                        this.emit('defined', this.exports);
                        this.defineEmitComplete = true;
                    }

                }
            },

            callPlugin: function () {
                var map = this.map,
                    id = map.id,
                    //Map already normalized the prefix.
                    pluginMap = makeModuleMap(map.prefix);

                //Mark this as a dependency for this plugin, so it
                //can be traced for cycles.
                this.depMaps.push(pluginMap);

                on(pluginMap, 'defined', bind(this, function (plugin) {
                    var load, normalizedMap, normalizedMod,
                        bundleId = getOwn(bundlesMap, this.map.id),
                        name = this.map.name,
                        parentName = this.map.parentMap ? this.map.parentMap.name : null,
                        localRequire = context.makeRequire(map.parentMap, {
                            enableBuildCallback: true
                        });

                    //If current map is not normalized, wait for that
                    //normalized name to load instead of continuing.
                    if (this.map.unnormalized) {
                        //Normalize the ID if the plugin allows it.
                        if (plugin.normalize) {
                            name = plugin.normalize(name, function (name) {
                                return normalize(name, parentName, true);
                            }) || '';
                        }

                        //prefix and name should already be normalized, no need
                        //for applying map config again either.
                        normalizedMap = makeModuleMap(map.prefix + '!' + name,
                                                      this.map.parentMap);
                        on(normalizedMap,
                            'defined', bind(this, function (value) {
                                this.map.normalizedMap = normalizedMap;
                                this.init([], function () { return value; }, null, {
                                    enabled: true,
                                    ignore: true
                                });
                            }));

                        normalizedMod = getOwn(registry, normalizedMap.id);
                        if (normalizedMod) {
                            //Mark this as a dependency for this plugin, so it
                            //can be traced for cycles.
                            this.depMaps.push(normalizedMap);

                            if (this.events.error) {
                                normalizedMod.on('error', bind(this, function (err) {
                                    this.emit('error', err);
                                }));
                            }
                            normalizedMod.enable();
                        }

                        return;
                    }

                    //If a paths config, then just load that file instead to
                    //resolve the plugin, as it is built into that paths layer.
                    if (bundleId) {
                        this.map.url = context.nameToUrl(bundleId);
                        this.load();
                        return;
                    }

                    load = bind(this, function (value) {
                        this.init([], function () { return value; }, null, {
                            enabled: true
                        });
                    });

                    load.error = bind(this, function (err) {
                        this.inited = true;
                        this.error = err;
                        err.requireModules = [id];

                        //Remove temp unnormalized modules for this module,
                        //since they will never be resolved otherwise now.
                        eachProp(registry, function (mod) {
                            if (mod.map.id.indexOf(id + '_unnormalized') === 0) {
                                cleanRegistry(mod.map.id);
                            }
                        });

                        onError(err);
                    });

                    //Allow plugins to load other code without having to know the
                    //context or how to 'complete' the load.
                    load.fromText = bind(this, function (text, textAlt) {
                        /*jslint evil: true */
                        var moduleName = map.name,
                            moduleMap = makeModuleMap(moduleName),
                            hasInteractive = useInteractive;

                        //As of 2.1.0, support just passing the text, to reinforce
                        //fromText only being called once per resource. Still
                        //support old style of passing moduleName but discard
                        //that moduleName in favor of the internal ref.
                        if (textAlt) {
                            text = textAlt;
                        }

                        //Turn off interactive script matching for IE for any define
                        //calls in the text, then turn it back on at the end.
                        if (hasInteractive) {
                            useInteractive = false;
                        }

                        //Prime the system by creating a module instance for
                        //it.
                        getModule(moduleMap);

                        //Transfer any config to this other module.
                        if (hasProp(config.config, id)) {
                            config.config[moduleName] = config.config[id];
                        }

                        try {
                            req.exec(text);
                        } catch (e) {
                            return onError(makeError('fromtexteval',
                                             'fromText eval for ' + id +
                                            ' failed: ' + e,
                                             e,
                                             [id]));
                        }

                        if (hasInteractive) {
                            useInteractive = true;
                        }

                        //Mark this as a dependency for the plugin
                        //resource
                        this.depMaps.push(moduleMap);

                        //Support anonymous modules.
                        context.completeLoad(moduleName);

                        //Bind the value of that module to the value for this
                        //resource ID.
                        localRequire([moduleName], load);
                    });

                    //Use parentName here since the plugin's name is not reliable,
                    //could be some weird string with no path that actually wants to
                    //reference the parentName's path.
                    plugin.load(map.name, localRequire, load, config);
                }));

                context.enable(pluginMap, this);
                this.pluginMaps[pluginMap.id] = pluginMap;
            },

            enable: function () {
                enabledRegistry[this.map.id] = this;
                this.enabled = true;

                //Set flag mentioning that the module is enabling,
                //so that immediate calls to the defined callbacks
                //for dependencies do not trigger inadvertent load
                //with the depCount still being zero.
                this.enabling = true;

                //Enable each dependency
                each(this.depMaps, bind(this, function (depMap, i) {
                    var id, mod, handler;

                    if (typeof depMap === 'string') {
                        //Dependency needs to be converted to a depMap
                        //and wired up to this module.
                        depMap = makeModuleMap(depMap,
                                               (this.map.isDefine ? this.map : this.map.parentMap),
                                               false,
                                               !this.skipMap);
                        this.depMaps[i] = depMap;

                        handler = getOwn(handlers, depMap.id);

                        if (handler) {
                            this.depExports[i] = handler(this);
                            return;
                        }

                        this.depCount += 1;

                        on(depMap, 'defined', bind(this, function (depExports) {
                            if (this.undefed) {
                                return;
                            }
                            this.defineDep(i, depExports);
                            this.check();
                        }));

                        if (this.errback) {
                            on(depMap, 'error', bind(this, this.errback));
                        } else if (this.events.error) {
                            // No direct errback on this module, but something
                            // else is listening for errors, so be sure to
                            // propagate the error correctly.
                            on(depMap, 'error', bind(this, function(err) {
                                this.emit('error', err);
                            }));
                        }
                    }

                    id = depMap.id;
                    mod = registry[id];

                    //Skip special modules like 'require', 'exports', 'module'
                    //Also, don't call enable if it is already enabled,
                    //important in circular dependency cases.
                    if (!hasProp(handlers, id) && mod && !mod.enabled) {
                        context.enable(depMap, this);
                    }
                }));

                //Enable each plugin that is used in
                //a dependency
                eachProp(this.pluginMaps, bind(this, function (pluginMap) {
                    var mod = getOwn(registry, pluginMap.id);
                    if (mod && !mod.enabled) {
                        context.enable(pluginMap, this);
                    }
                }));

                this.enabling = false;

                this.check();
            },

            on: function (name, cb) {
                var cbs = this.events[name];
                if (!cbs) {
                    cbs = this.events[name] = [];
                }
                cbs.push(cb);
            },

            emit: function (name, evt) {
                each(this.events[name], function (cb) {
                    cb(evt);
                });
                if (name === 'error') {
                    //Now that the error handler was triggered, remove
                    //the listeners, since this broken Module instance
                    //can stay around for a while in the registry.
                    delete this.events[name];
                }
            }
        };

        function callGetModule(args) {
            //Skip modules already defined.
            if (!hasProp(defined, args[0])) {
                getModule(makeModuleMap(args[0], null, true)).init(args[1], args[2]);
            }
        }

        function removeListener(node, func, name, ieName) {
            //Favor detachEvent because of IE9
            //issue, see attachEvent/addEventListener comment elsewhere
            //in this file.
            if (node.detachEvent && !isOpera) {
                //Probably IE. If not it will throw an error, which will be
                //useful to know.
                if (ieName) {
                    node.detachEvent(ieName, func);
                }
            } else {
                node.removeEventListener(name, func, false);
            }
        }

        /**
         * Given an event from a script node, get the requirejs info from it,
         * and then removes the event listeners on the node.
         * @param {Event} evt
         * @returns {Object}
         */
        function getScriptData(evt) {
            //Using currentTarget instead of target for Firefox 2.0's sake. Not
            //all old browsers will be supported, but this one was easy enough
            //to support and still makes sense.
            var node = evt.currentTarget || evt.srcElement;

            //Remove the listeners once here.
            removeListener(node, context.onScriptLoad, 'load', 'onreadystatechange');
            removeListener(node, context.onScriptError, 'error');

            return {
                node: node,
                id: node && node.getAttribute('data-requiremodule')
            };
        }

        function intakeDefines() {
            var args;

            //Any defined modules in the global queue, intake them now.
            takeGlobalQueue();

            //Make sure any remaining defQueue items get properly processed.
            while (defQueue.length) {
                args = defQueue.shift();
                if (args[0] === null) {
                    return onError(makeError('mismatch', 'Mismatched anonymous define() module: ' +
                        args[args.length - 1]));
                } else {
                    //args are id, deps, factory. Should be normalized by the
                    //define() function.
                    callGetModule(args);
                }
            }
            context.defQueueMap = {};
        }

        context = {
            config: config,
            contextName: contextName,
            registry: registry,
            defined: defined,
            urlFetched: urlFetched,
            defQueue: defQueue,
            defQueueMap: {},
            Module: Module,
            makeModuleMap: makeModuleMap,
            nextTick: req.nextTick,
            onError: onError,

            /**
             * Set a configuration for the context.
             * @param {Object} cfg config object to integrate.
             */
            configure: function (cfg) {
                //Make sure the baseUrl ends in a slash.
                if (cfg.baseUrl) {
                    if (cfg.baseUrl.charAt(cfg.baseUrl.length - 1) !== '/') {
                        cfg.baseUrl += '/';
                    }
                }

                //Save off the paths since they require special processing,
                //they are additive.
                var shim = config.shim,
                    objs = {
                        paths: true,
                        bundles: true,
                        config: true,
                        map: true
                    };

                eachProp(cfg, function (value, prop) {
                    if (objs[prop]) {
                        if (!config[prop]) {
                            config[prop] = {};
                        }
                        mixin(config[prop], value, true, true);
                    } else {
                        config[prop] = value;
                    }
                });

                //Reverse map the bundles
                if (cfg.bundles) {
                    eachProp(cfg.bundles, function (value, prop) {
                        each(value, function (v) {
                            if (v !== prop) {
                                bundlesMap[v] = prop;
                            }
                        });
                    });
                }

                //Merge shim
                if (cfg.shim) {
                    eachProp(cfg.shim, function (value, id) {
                        //Normalize the structure
                        if (isArray(value)) {
                            value = {
                                deps: value
                            };
                        }
                        if ((value.exports || value.init) && !value.exportsFn) {
                            value.exportsFn = context.makeShimExports(value);
                        }
                        shim[id] = value;
                    });
                    config.shim = shim;
                }

                //Adjust packages if necessary.
                if (cfg.packages) {
                    each(cfg.packages, function (pkgObj) {
                        var location, name;

                        pkgObj = typeof pkgObj === 'string' ? {name: pkgObj} : pkgObj;

                        name = pkgObj.name;
                        location = pkgObj.location;
                        if (location) {
                            config.paths[name] = pkgObj.location;
                        }

                        //Save pointer to main module ID for pkg name.
                        //Remove leading dot in main, so main paths are normalized,
                        //and remove any trailing .js, since different package
                        //envs have different conventions: some use a module name,
                        //some use a file name.
                        config.pkgs[name] = pkgObj.name + '/' + (pkgObj.main || 'main')
                                     .replace(currDirRegExp, '')
                                     .replace(jsSuffixRegExp, '');
                    });
                }

                //If there are any "waiting to execute" modules in the registry,
                //update the maps for them, since their info, like URLs to load,
                //may have changed.
                eachProp(registry, function (mod, id) {
                    //If module already has init called, since it is too
                    //late to modify them, and ignore unnormalized ones
                    //since they are transient.
                    if (!mod.inited && !mod.map.unnormalized) {
                        mod.map = makeModuleMap(id, null, true);
                    }
                });

                //If a deps array or a config callback is specified, then call
                //require with those args. This is useful when require is defined as a
                //config object before require.js is loaded.
                if (cfg.deps || cfg.callback) {
                    context.require(cfg.deps || [], cfg.callback);
                }
            },

            makeShimExports: function (value) {
                function fn() {
                    var ret;
                    if (value.init) {
                        ret = value.init.apply(global, arguments);
                    }
                    return ret || (value.exports && getGlobal(value.exports));
                }
                return fn;
            },

            makeRequire: function (relMap, options) {
                options = options || {};

                function localRequire(deps, callback, errback) {
                    var id, map, requireMod;

                    if (options.enableBuildCallback && callback && isFunction(callback)) {
                        callback.__requireJsBuild = true;
                    }

                    if (typeof deps === 'string') {
                        if (isFunction(callback)) {
                            //Invalid call
                            return onError(makeError('requireargs', 'Invalid require call'), errback);
                        }

                        //If require|exports|module are requested, get the
                        //value for them from the special handlers. Caveat:
                        //this only works while module is being defined.
                        if (relMap && hasProp(handlers, deps)) {
                            return handlers[deps](registry[relMap.id]);
                        }

                        //Synchronous access to one module. If require.get is
                        //available (as in the Node adapter), prefer that.
                        if (req.get) {
                            return req.get(context, deps, relMap, localRequire);
                        }

                        //Normalize module name, if it contains . or ..
                        map = makeModuleMap(deps, relMap, false, true);
                        id = map.id;

                        if (!hasProp(defined, id)) {
                            return onError(makeError('notloaded', 'Module name "' +
                                        id +
                                        '" has not been loaded yet for context: ' +
                                        contextName +
                                        (relMap ? '' : '. Use require([])')));
                        }
                        return defined[id];
                    }

                    //Grab defines waiting in the global queue.
                    intakeDefines();

                    //Mark all the dependencies as needing to be loaded.
                    context.nextTick(function () {
                        //Some defines could have been added since the
                        //require call, collect them.
                        intakeDefines();

                        requireMod = getModule(makeModuleMap(null, relMap));

                        //Store if map config should be applied to this require
                        //call for dependencies.
                        requireMod.skipMap = options.skipMap;

                        requireMod.init(deps, callback, errback, {
                            enabled: true
                        });

                        checkLoaded();
                    });

                    return localRequire;
                }

                mixin(localRequire, {
                    isBrowser: isBrowser,

                    /**
                     * Converts a module name + .extension into an URL path.
                     * *Requires* the use of a module name. It does not support using
                     * plain URLs like nameToUrl.
                     */
                    toUrl: function (moduleNamePlusExt) {
                        var ext,
                            index = moduleNamePlusExt.lastIndexOf('.'),
                            segment = moduleNamePlusExt.split('/')[0],
                            isRelative = segment === '.' || segment === '..';

                        //Have a file extension alias, and it is not the
                        //dots from a relative path.
                        if (index !== -1 && (!isRelative || index > 1)) {
                            ext = moduleNamePlusExt.substring(index, moduleNamePlusExt.length);
                            moduleNamePlusExt = moduleNamePlusExt.substring(0, index);
                        }

                        return context.nameToUrl(normalize(moduleNamePlusExt,
                                                relMap && relMap.id, true), ext,  true);
                    },

                    defined: function (id) {
                        return hasProp(defined, makeModuleMap(id, relMap, false, true).id);
                    },

                    specified: function (id) {
                        id = makeModuleMap(id, relMap, false, true).id;
                        return hasProp(defined, id) || hasProp(registry, id);
                    }
                });

                //Only allow undef on top level require calls
                if (!relMap) {
                    localRequire.undef = function (id) {
                        //Bind any waiting define() calls to this context,
                        //fix for #408
                        takeGlobalQueue();

                        var map = makeModuleMap(id, relMap, true),
                            mod = getOwn(registry, id);

                        mod.undefed = true;
                        removeScript(id);

                        delete defined[id];
                        delete urlFetched[map.url];
                        delete undefEvents[id];

                        //Clean queued defines too. Go backwards
                        //in array so that the splices do not
                        //mess up the iteration.
                        eachReverse(defQueue, function(args, i) {
                            if (args[0] === id) {
                                defQueue.splice(i, 1);
                            }
                        });
                        delete context.defQueueMap[id];

                        if (mod) {
                            //Hold on to listeners in case the
                            //module will be attempted to be reloaded
                            //using a different config.
                            if (mod.events.defined) {
                                undefEvents[id] = mod.events;
                            }

                            cleanRegistry(id);
                        }
                    };
                }

                return localRequire;
            },

            /**
             * Called to enable a module if it is still in the registry
             * awaiting enablement. A second arg, parent, the parent module,
             * is passed in for context, when this method is overridden by
             * the optimizer. Not shown here to keep code compact.
             */
            enable: function (depMap) {
                var mod = getOwn(registry, depMap.id);
                if (mod) {
                    getModule(depMap).enable();
                }
            },

            /**
             * Internal method used by environment adapters to complete a load event.
             * A load event could be a script load or just a load pass from a synchronous
             * load call.
             * @param {String} moduleName the name of the module to potentially complete.
             */
            completeLoad: function (moduleName) {
                var found, args, mod,
                    shim = getOwn(config.shim, moduleName) || {},
                    shExports = shim.exports;

                takeGlobalQueue();

                while (defQueue.length) {
                    args = defQueue.shift();
                    if (args[0] === null) {
                        args[0] = moduleName;
                        //If already found an anonymous module and bound it
                        //to this name, then this is some other anon module
                        //waiting for its completeLoad to fire.
                        if (found) {
                            break;
                        }
                        found = true;
                    } else if (args[0] === moduleName) {
                        //Found matching define call for this script!
                        found = true;
                    }

                    callGetModule(args);
                }
                context.defQueueMap = {};

                //Do this after the cycle of callGetModule in case the result
                //of those calls/init calls changes the registry.
                mod = getOwn(registry, moduleName);

                if (!found && !hasProp(defined, moduleName) && mod && !mod.inited) {
                    if (config.enforceDefine && (!shExports || !getGlobal(shExports))) {
                        if (hasPathFallback(moduleName)) {
                            return;
                        } else {
                            return onError(makeError('nodefine',
                                             'No define call for ' + moduleName,
                                             null,
                                             [moduleName]));
                        }
                    } else {
                        //A script that does not call define(), so just simulate
                        //the call for it.
                        callGetModule([moduleName, (shim.deps || []), shim.exportsFn]);
                    }
                }

                checkLoaded();
            },

            /**
             * Converts a module name to a file path. Supports cases where
             * moduleName may actually be just an URL.
             * Note that it **does not** call normalize on the moduleName,
             * it is assumed to have already been normalized. This is an
             * internal API, not a public one. Use toUrl for the public API.
             */
            nameToUrl: function (moduleName, ext, skipExt) {
                var paths, syms, i, parentModule, url,
                    parentPath, bundleId,
                    pkgMain = getOwn(config.pkgs, moduleName);

                if (pkgMain) {
                    moduleName = pkgMain;
                }

                bundleId = getOwn(bundlesMap, moduleName);

                if (bundleId) {
                    return context.nameToUrl(bundleId, ext, skipExt);
                }

                //If a colon is in the URL, it indicates a protocol is used and it is just
                //an URL to a file, or if it starts with a slash, contains a query arg (i.e. ?)
                //or ends with .js, then assume the user meant to use an url and not a module id.
                //The slash is important for protocol-less URLs as well as full paths.
                if (req.jsExtRegExp.test(moduleName)) {
                    //Just a plain path, not module name lookup, so just return it.
                    //Add extension if it is included. This is a bit wonky, only non-.js things pass
                    //an extension, this method probably needs to be reworked.
                    url = moduleName + (ext || '');
                } else {
                    //A module that needs to be converted to a path.
                    paths = config.paths;

                    syms = moduleName.split('/');
                    //For each module name segment, see if there is a path
                    //registered for it. Start with most specific name
                    //and work up from it.
                    for (i = syms.length; i > 0; i -= 1) {
                        parentModule = syms.slice(0, i).join('/');

                        parentPath = getOwn(paths, parentModule);
                        if (parentPath) {
                            //If an array, it means there are a few choices,
                            //Choose the one that is desired
                            if (isArray(parentPath)) {
                                parentPath = parentPath[0];
                            }
                            syms.splice(0, i, parentPath);
                            break;
                        }
                    }

                    //Join the path parts together, then figure out if baseUrl is needed.
                    url = syms.join('/');
                    url += (ext || (/^data\:|\?/.test(url) || skipExt ? '' : '.js'));
                    url = (url.charAt(0) === '/' || url.match(/^[\w\+\.\-]+:/) ? '' : config.baseUrl) + url;
                }

                return config.urlArgs ? url +
                                        ((url.indexOf('?') === -1 ? '?' : '&') +
                                         config.urlArgs) : url;
            },

            //Delegates to req.load. Broken out as a separate function to
            //allow overriding in the optimizer.
            load: function (id, url) {
                req.load(context, id, url);
            },

            /**
             * Executes a module callback function. Broken out as a separate function
             * solely to allow the build system to sequence the files in the built
             * layer in the right sequence.
             *
             * @private
             */
            execCb: function (name, callback, args, exports) {
                return callback.apply(exports, args);
            },

            /**
             * callback for script loads, used to check status of loading.
             *
             * @param {Event} evt the event from the browser for the script
             * that was loaded.
             */
            onScriptLoad: function (evt) {
                //Using currentTarget instead of target for Firefox 2.0's sake. Not
                //all old browsers will be supported, but this one was easy enough
                //to support and still makes sense.
                if (evt.type === 'load' ||
                        (readyRegExp.test((evt.currentTarget || evt.srcElement).readyState))) {
                    //Reset interactive script so a script node is not held onto for
                    //to long.
                    interactiveScript = null;

                    //Pull out the name of the module and the context.
                    var data = getScriptData(evt);
                    context.completeLoad(data.id);
                }
            },

            /**
             * Callback for script errors.
             */
            onScriptError: function (evt) {
                var data = getScriptData(evt);
                if (!hasPathFallback(data.id)) {
                    var parents = [];
                    eachProp(registry, function(value, key) {
                        if (key.indexOf('_@r') !== 0) {
                            each(value.depMaps, function(depMap) {
                                if (depMap.id === data.id) {
                                    parents.push(key);
                                }
                                return true;
                            });
                        }
                    });
                    return onError(makeError('scripterror', 'Script error for "' + data.id +
                                             (parents.length ?
                                             '", needed by: ' + parents.join(', ') :
                                             '"'), evt, [data.id]));
                }
            }
        };

        context.require = context.makeRequire();
        return context;
    }

    /**
     * Main entry point.
     *
     * If the only argument to require is a string, then the module that
     * is represented by that string is fetched for the appropriate context.
     *
     * If the first argument is an array, then it will be treated as an array
     * of dependency string names to fetch. An optional function callback can
     * be specified to execute when all of those dependencies are available.
     *
     * Make a local req variable to help Caja compliance (it assumes things
     * on a require that are not standardized), and to give a short
     * name for minification/local scope use.
     */
    req = requirejs = function (deps, callback, errback, optional) {

        //Find the right context, use default
        var context, config,
            contextName = defContextName;

        // Determine if have config object in the call.
        if (!isArray(deps) && typeof deps !== 'string') {
            // deps is a config object
            config = deps;
            if (isArray(callback)) {
                // Adjust args if there are dependencies
                deps = callback;
                callback = errback;
                errback = optional;
            } else {
                deps = [];
            }
        }

        if (config && config.context) {
            contextName = config.context;
        }

        context = getOwn(contexts, contextName);
        if (!context) {
            context = contexts[contextName] = req.s.newContext(contextName);
        }

        if (config) {
            context.configure(config);
        }

        return context.require(deps, callback, errback);
    };

    /**
     * Support require.config() to make it easier to cooperate with other
     * AMD loaders on globally agreed names.
     */
    req.config = function (config) {
        return req(config);
    };

    /**
     * Execute something after the current tick
     * of the event loop. Override for other envs
     * that have a better solution than setTimeout.
     * @param  {Function} fn function to execute later.
     */
    req.nextTick = typeof setTimeout !== 'undefined' ? function (fn) {
        setTimeout(fn, 4);
    } : function (fn) { fn(); };

    /**
     * Export require as a global, but only if it does not already exist.
     */
    if (!require) {
        require = req;
    }

    req.version = version;

    //Used to filter out dependencies that are already paths.
    req.jsExtRegExp = /^\/|:|\?|\.js$/;
    req.isBrowser = isBrowser;
    s = req.s = {
        contexts: contexts,
        newContext: newContext
    };

    //Create default context.
    req({});

    //Exports some context-sensitive methods on global require.
    each([
        'toUrl',
        'undef',
        'defined',
        'specified'
    ], function (prop) {
        //Reference from contexts instead of early binding to default context,
        //so that during builds, the latest instance of the default context
        //with its config gets used.
        req[prop] = function () {
            var ctx = contexts[defContextName];
            return ctx.require[prop].apply(ctx, arguments);
        };
    });

    if (isBrowser) {
        head = s.head = document.getElementsByTagName('head')[0];
        //If BASE tag is in play, using appendChild is a problem for IE6.
        //When that browser dies, this can be removed. Details in this jQuery bug:
        //http://dev.jquery.com/ticket/2709
        baseElement = document.getElementsByTagName('base')[0];
        if (baseElement) {
            head = s.head = baseElement.parentNode;
        }
    }

    /**
     * Any errors that require explicitly generates will be passed to this
     * function. Intercept/override it if you want custom error handling.
     * @param {Error} err the error object.
     */
    req.onError = defaultOnError;

    /**
     * Creates the node for the load command. Only used in browser envs.
     */
    req.createNode = function (config, moduleName, url) {
        var node = config.xhtml ?
                document.createElementNS('http://www.w3.org/1999/xhtml', 'html:script') :
                document.createElement('script');
        node.type = config.scriptType || 'text/javascript';
        node.charset = 'utf-8';
        node.async = true;
        return node;
    };

    /**
     * Does the request to load a module for the browser case.
     * Make this a separate function to allow other environments
     * to override it.
     *
     * @param {Object} context the require context to find state.
     * @param {String} moduleName the name of the module.
     * @param {Object} url the URL to the module.
     */
    req.load = function (context, moduleName, url) {
        var config = (context && context.config) || {},
            node;
        if (isBrowser) {
            //In the browser so use a script tag
            node = req.createNode(config, moduleName, url);
            if (config.onNodeCreated) {
                config.onNodeCreated(node, config, moduleName, url);
            }

            node.setAttribute('data-requirecontext', context.contextName);
            node.setAttribute('data-requiremodule', moduleName);

            //Set up load listener. Test attachEvent first because IE9 has
            //a subtle issue in its addEventListener and script onload firings
            //that do not match the behavior of all other browsers with
            //addEventListener support, which fire the onload event for a
            //script right after the script execution. See:
            //https://connect.microsoft.com/IE/feedback/details/648057/script-onload-event-is-not-fired-immediately-after-script-execution
            //UNFORTUNATELY Opera implements attachEvent but does not follow the script
            //script execution mode.
            if (node.attachEvent &&
                    //Check if node.attachEvent is artificially added by custom script or
                    //natively supported by browser
                    //read https://github.com/jrburke/requirejs/issues/187
                    //if we can NOT find [native code] then it must NOT natively supported.
                    //in IE8, node.attachEvent does not have toString()
                    //Note the test for "[native code" with no closing brace, see:
                    //https://github.com/jrburke/requirejs/issues/273
                    !(node.attachEvent.toString && node.attachEvent.toString().indexOf('[native code') < 0) &&
                    !isOpera) {
                //Probably IE. IE (at least 6-8) do not fire
                //script onload right after executing the script, so
                //we cannot tie the anonymous define call to a name.
                //However, IE reports the script as being in 'interactive'
                //readyState at the time of the define call.
                useInteractive = true;

                node.attachEvent('onreadystatechange', context.onScriptLoad);
                //It would be great to add an error handler here to catch
                //404s in IE9+. However, onreadystatechange will fire before
                //the error handler, so that does not help. If addEventListener
                //is used, then IE will fire error before load, but we cannot
                //use that pathway given the connect.microsoft.com issue
                //mentioned above about not doing the 'script execute,
                //then fire the script load event listener before execute
                //next script' that other browsers do.
                //Best hope: IE10 fixes the issues,
                //and then destroys all installs of IE 6-9.
                //node.attachEvent('onerror', context.onScriptError);
            } else {
                node.addEventListener('load', context.onScriptLoad, false);
                node.addEventListener('error', context.onScriptError, false);
            }
            node.src = url;

            //For some cache cases in IE 6-8, the script executes before the end
            //of the appendChild execution, so to tie an anonymous define
            //call to the module name (which is stored on the node), hold on
            //to a reference to this node, but clear after the DOM insertion.
            currentlyAddingScript = node;
            if (baseElement) {
                head.insertBefore(node, baseElement);
            } else {
                head.appendChild(node);
            }
            currentlyAddingScript = null;

            return node;
        } else if (isWebWorker) {
            try {
                //In a web worker, use importScripts. This is not a very
                //efficient use of importScripts, importScripts will block until
                //its script is downloaded and evaluated. However, if web workers
                //are in play, the expectation is that a build has been done so
                //that only one script needs to be loaded anyway. This may need
                //to be reevaluated if other use cases become common.
                importScripts(url);

                //Account for anonymous modules
                context.completeLoad(moduleName);
            } catch (e) {
                context.onError(makeError('importscripts',
                                'importScripts failed for ' +
                                    moduleName + ' at ' + url,
                                e,
                                [moduleName]));
            }
        }
    };

    function getInteractiveScript() {
        if (interactiveScript && interactiveScript.readyState === 'interactive') {
            return interactiveScript;
        }

        eachReverse(scripts(), function (script) {
            if (script.readyState === 'interactive') {
                return (interactiveScript = script);
            }
        });
        return interactiveScript;
    }

    //Look for a data-main script attribute, which could also adjust the baseUrl.
    if (isBrowser && !cfg.skipDataMain) {
        //Figure out baseUrl. Get it from the script tag with require.js in it.
        eachReverse(scripts(), function (script) {
            //Set the 'head' where we can append children by
            //using the script's parent.
            if (!head) {
                head = script.parentNode;
            }

            //Look for a data-main attribute to set main script for the page
            //to load. If it is there, the path to data main becomes the
            //baseUrl, if it is not already set.
            dataMain = script.getAttribute('data-main');
            if (dataMain) {
                //Preserve dataMain in case it is a path (i.e. contains '?')
                mainScript = dataMain;

                //Set final baseUrl if there is not already an explicit one.
                if (!cfg.baseUrl) {
                    //Pull off the directory of data-main for use as the
                    //baseUrl.
                    src = mainScript.split('/');
                    mainScript = src.pop();
                    subPath = src.length ? src.join('/')  + '/' : './';

                    cfg.baseUrl = subPath;
                }

                //Strip off any trailing .js since mainScript is now
                //like a module name.
                mainScript = mainScript.replace(jsSuffixRegExp, '');

                //If mainScript is still a path, fall back to dataMain
                if (req.jsExtRegExp.test(mainScript)) {
                    mainScript = dataMain;
                }

                //Put the data-main script in the files to load.
                cfg.deps = cfg.deps ? cfg.deps.concat(mainScript) : [mainScript];

                return true;
            }
        });
    }

    /**
     * The function that handles definitions of modules. Differs from
     * require() in that a string for the module should be the first argument,
     * and the function to execute after dependencies are loaded should
     * return a value to define the module corresponding to the first argument's
     * name.
     */
    define = function (name, deps, callback) {
        var node, context;

        //Allow for anonymous modules
        if (typeof name !== 'string') {
            //Adjust args appropriately
            callback = deps;
            deps = name;
            name = null;
        }

        //This module may not have dependencies
        if (!isArray(deps)) {
            callback = deps;
            deps = null;
        }

        //If no name, and callback is a function, then figure out if it a
        //CommonJS thing with dependencies.
        if (!deps && isFunction(callback)) {
            deps = [];
            //Remove comments from the callback string,
            //look for require calls, and pull them into the dependencies,
            //but only if there are function args.
            if (callback.length) {
                callback
                    .toString()
                    .replace(commentRegExp, '')
                    .replace(cjsRequireRegExp, function (match, dep) {
                        deps.push(dep);
                    });

                //May be a CommonJS thing even without require calls, but still
                //could use exports, and module. Avoid doing exports and module
                //work though if it just needs require.
                //REQUIRES the function to expect the CommonJS variables in the
                //order listed below.
                deps = (callback.length === 1 ? ['require'] : ['require', 'exports', 'module']).concat(deps);
            }
        }

        //If in IE 6-8 and hit an anonymous define() call, do the interactive
        //work.
        if (useInteractive) {
            node = currentlyAddingScript || getInteractiveScript();
            if (node) {
                if (!name) {
                    name = node.getAttribute('data-requiremodule');
                }
                context = contexts[node.getAttribute('data-requirecontext')];
            }
        }

        //Always save off evaluating the def call until the script onload handler.
        //This allows multiple modules to be in a file without prematurely
        //tracing dependencies, and allows for anonymous module support,
        //where the module name is not known until the script onload event
        //occurs. If no context, use the global queue, and get it processed
        //in the onscript load callback.
        if (context) {
            context.defQueue.push([name, deps, callback]);
            context.defQueueMap[name] = true;
        } else {
            globalDefQueue.push([name, deps, callback]);
        }
    };

    define.amd = {
        jQuery: true
    };

    /**
     * Executes the text. Normally just uses eval, but can be modified
     * to use a better, environment-specific call. Only used for transpiling
     * loader plugins, not for plain JS modules.
     * @param {String} text the text to execute/evaluate.
     */
    req.exec = function (text) {
        /*jslint evil: true */
        return eval(text);
    };

    //Set up with config info.
    req(cfg);
}(this));
", + "ok": true, + "headers": [ + [ + "content-type", + "application/javascript" + ] + ], + "status": 200, + "status_text": "" + } + }, + "base_uri": "https://localhost:8080/", + "height": 543 + }, + "outputId": "0562a589-ae6c-4351-dd1c-79e9fff9eaa1" + }, + "source": [ + "sentence_a = test_dataset[3].text_a\n", + "\n", + "inputs = tokenizer.encode_plus(sentence_a, return_tensors='pt', add_special_tokens=True)\n", + "token_type_ids = inputs['token_type_ids']\n", + "input_ids = inputs['input_ids']\n", + "attention = model(input_ids, token_type_ids=token_type_ids)[-1]\n", + "input_id_list = input_ids[0].tolist() # Batch index 0\n", + "tokens = tokenizer.convert_ids_to_tokens(input_id_list)\n", + "call_html()\n", + "\n", + "head_view(attention, tokens)" + ], + "execution_count": 83, + "outputs": [ + { + "output_type": "display_data", + "data": { + "text/html": [ + "\n", + " \n", + " \n", + " " + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "display_data", + "data": { + "text/html": [ + "\n", + " \n", + " Layer: \n", + " \n", + "
\n", + " " + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "display_data", + "data": { + "application/javascript": [ + "window.params = {\"attention\": {\"all\": {\"attn\": [[[[0.7710992693901062, 0.007431390229612589, 0.012493254616856575, 0.03150608018040657, 0.006556828040629625, 0.005912408698350191, 0.025385472923517227, 0.004400917328894138, 0.005617811344563961, 0.016971692442893982, 0.004981426056474447, 0.011446570977568626, 0.0073576136492192745, 0.005090898368507624, 0.03366187959909439, 0.003787121968343854, 0.006802836898714304, 0.004939413629472256, 0.018731387332081795, 0.0063441842794418335, 0.00948159396648407], [0.0012139129685238004, 0.1564280241727829, 0.011389520019292831, 0.012479482218623161, 0.04800644889473915, 0.043767329305410385, 0.017590714618563652, 0.036482471972703934, 0.11795476824045181, 0.020376799628138542, 0.10907015204429626, 0.010736634954810143, 0.03761713579297066, 0.1030392274260521, 0.01989257149398327, 0.03509576618671417, 0.041787002235651016, 0.1199057325720787, 0.014954467304050922, 0.01778322272002697, 0.02442855015397072], [0.01668146811425686, 0.016828930005431175, 0.050853945314884186, 0.17075413465499878, 0.02921043522655964, 0.01363370195031166, 0.06782571226358414, 0.02735363133251667, 0.013000166974961758, 0.14771515130996704, 0.015088699758052826, 0.05004625394940376, 0.022765060886740685, 0.013667333871126175, 0.09196311235427856, 0.025186866521835327, 0.02629084698855877, 0.013974406756460667, 0.13739819824695587, 0.021551676094532013, 0.02821037359535694], [0.003304755315184593, 0.10646568238735199, 0.05144830793142319, 0.08737780898809433, 0.015567043796181679, 0.01791641302406788, 0.08126281201839447, 0.034073054790496826, 0.06047000363469124, 0.09201665967702866, 0.06973610073328018, 0.038655441254377365, 0.009809881448745728, 0.053860895335674286, 0.08507600426673889, 0.022953027859330177, 0.023996369913220406, 0.0631914734840393, 0.03324568644165993, 0.018782025203108788, 0.030790498480200768], [0.008942798711359501, 0.05590403452515602, 0.05214541405439377, 0.1263810247182846, 0.03160115331411362, 0.03162061423063278, 0.04112548753619194, 0.05095912143588066, 0.03821004182100296, 0.08488624542951584, 0.0397942028939724, 0.04311443120241165, 0.022541094571352005, 0.03443175554275513, 0.04986272007226944, 0.026573332026600838, 0.04616404324769974, 0.038157813251018524, 0.06624161452054977, 0.04368596524000168, 0.06765706837177277], [0.005282411351799965, 0.060246437788009644, 0.049856919795274734, 0.11611097306013107, 0.04714473709464073, 0.04013703018426895, 0.04613618552684784, 0.06549622118473053, 0.042635854333639145, 0.06486262381076813, 0.042563296854496, 0.04474803805351257, 0.034059759229421616, 0.03765532001852989, 0.06655125319957733, 0.02356255240738392, 0.06259743124246597, 0.040488529950380325, 0.03964356333017349, 0.028342831879854202, 0.041878025978803635], [0.06502528488636017, 0.021741041913628578, 0.05553879588842392, 0.2212444543838501, 0.01691899448633194, 0.010959567502140999, 0.044875070452690125, 0.04206671193242073, 0.010631895624101162, 0.10499949753284454, 0.011095017194747925, 0.041366882622241974, 0.010502893477678299, 0.0100562684237957, 0.08510486781597137, 0.01796848326921463, 0.03249363973736763, 0.009033692069351673, 0.14619384706020355, 0.01074589416384697, 0.0314372219145298], [0.0052685183472931385, 0.030319394543766975, 0.030181799083948135, 0.17580287158489227, 0.022102205082774162, 0.026138203218579292, 0.08132302761077881, 0.05139261484146118, 0.019449064508080482, 0.12539902329444885, 0.02128193899989128, 0.02673310972750187, 0.01676972396671772, 0.018538227304816246, 0.07383502274751663, 0.02670859359204769, 0.07965037226676941, 0.021126076579093933, 0.05062708631157875, 0.06831768155097961, 0.02903544344007969], [0.0014025381533429027, 0.16717194020748138, 0.012945303693413734, 0.011327100917696953, 0.04592665657401085, 0.039500314742326736, 0.02120400033891201, 0.0335124135017395, 0.11334041506052017, 0.021439187228679657, 0.10292217135429382, 0.011785093694925308, 0.03705389052629471, 0.09879261255264282, 0.021898891776800156, 0.02760246768593788, 0.04853066802024841, 0.12256569415330887, 0.01646309532225132, 0.018598664551973343, 0.026016853749752045], [0.007480295840650797, 0.010546164587140083, 0.04680078104138374, 0.2054775357246399, 0.017862820997834206, 0.022950636222958565, 0.12217410653829575, 0.011287455447018147, 0.0071371751837432384, 0.14249534904956818, 0.0074410634115338326, 0.035283107310533524, 0.01134631596505642, 0.0059634665958583355, 0.11474574357271194, 0.019684134051203728, 0.01840650662779808, 0.0060194507241249084, 0.15740226209163666, 0.010410171933472157, 0.01908545009791851], [0.0012385270092636347, 0.16484230756759644, 0.012624058872461319, 0.012736182659864426, 0.041364479809999466, 0.03832239657640457, 0.020099131390452385, 0.032488200813531876, 0.11898979544639587, 0.02144039236009121, 0.104303739964962, 0.011380411684513092, 0.03267482668161392, 0.10174189507961273, 0.021809283643960953, 0.027317404747009277, 0.0486263707280159, 0.12489374727010727, 0.01767771691083908, 0.019751014187932014, 0.025678111240267754], [0.016725832596421242, 0.022707872092723846, 0.05062587559223175, 0.18296638131141663, 0.025460228323936462, 0.012230431661009789, 0.07181575149297714, 0.025590699166059494, 0.01681920327246189, 0.12731598317623138, 0.01848885603249073, 0.044583942741155624, 0.01841685362160206, 0.01684907078742981, 0.09453956037759781, 0.022346915677189827, 0.027044055983424187, 0.017495425418019295, 0.13056305050849915, 0.02234126254916191, 0.03507275879383087], [0.009825271554291248, 0.059993546456098557, 0.05078993737697601, 0.09625953435897827, 0.03107452020049095, 0.03106207773089409, 0.04472162574529648, 0.04569205269217491, 0.04645835980772972, 0.07093407213687897, 0.046122267842292786, 0.040722813457250595, 0.021321669220924377, 0.0391588993370533, 0.04278327897191048, 0.025938302278518677, 0.039420660585165024, 0.04374122992157936, 0.06640580296516418, 0.048026829957962036, 0.0995471253991127], [0.0009870065841823816, 0.17301489412784576, 0.011366868391633034, 0.009937834925949574, 0.03694033622741699, 0.03182290866971016, 0.020049087703227997, 0.02856285870075226, 0.12747631967067719, 0.01948125660419464, 0.11514916270971298, 0.010348329320549965, 0.029424017295241356, 0.1061188355088234, 0.018164746463298798, 0.02656256966292858, 0.03942694142460823, 0.13421274721622467, 0.017039461061358452, 0.018701910972595215, 0.025211863219738007], [0.0267613735049963, 0.015477367676794529, 0.09498054534196854, 0.08262697607278824, 0.03312281519174576, 0.02093879133462906, 0.10144864022731781, 0.03835199773311615, 0.015523516573011875, 0.09253976494073868, 0.015956547111272812, 0.08233797550201416, 0.024049121886491776, 0.01400867197662592, 0.10839132964611053, 0.03037670999765396, 0.020721416920423508, 0.014668241143226624, 0.09014896303415298, 0.009900448843836784, 0.06766887754201889], [0.013415745459496975, 0.05843079835176468, 0.026797013357281685, 0.2518993318080902, 0.026761628687381744, 0.01880362629890442, 0.039911672472953796, 0.023272879421710968, 0.03122783452272415, 0.095905601978302, 0.03145259618759155, 0.02078140899538994, 0.018084552139043808, 0.030200911685824394, 0.09627263993024826, 0.022887056693434715, 0.04659752547740936, 0.0281287282705307, 0.052564866840839386, 0.03396647796034813, 0.0326370932161808], [0.010576929897069931, 0.05452755093574524, 0.029663335531949997, 0.15302425622940063, 0.020880738273262978, 0.01698368415236473, 0.05703594163060188, 0.04570254683494568, 0.04240880906581879, 0.08106541633605957, 0.03945891931653023, 0.025087742134928703, 0.014744853600859642, 0.03877488151192665, 0.11094794422388077, 0.037713997066020966, 0.05179043859243393, 0.0366109199821949, 0.05831039324402809, 0.030096743255853653, 0.044593941420316696], [0.0009380686096847057, 0.15624751150608063, 0.01117912121117115, 0.01002613827586174, 0.04094638302922249, 0.03620520234107971, 0.020526446402072906, 0.02709525264799595, 0.12647566199302673, 0.016950909048318863, 0.11137975752353668, 0.010632862336933613, 0.034346722066402435, 0.11090442538261414, 0.018436027690768242, 0.02729887142777443, 0.04118024557828903, 0.13641829788684845, 0.01910947822034359, 0.018497107550501823, 0.025205522775650024], [0.013418570160865784, 0.03126716613769531, 0.049580514430999756, 0.1711718887090683, 0.028903568163514137, 0.021200893446803093, 0.0776311531662941, 0.03226882219314575, 0.025465872138738632, 0.11876435577869415, 0.026056189090013504, 0.042510926723480225, 0.021466195583343506, 0.023871582001447678, 0.06997731328010559, 0.029358256608247757, 0.033525191247463226, 0.024213461205363274, 0.10565865784883499, 0.014873589389026165, 0.038815826177597046], [0.00731737120077014, 0.07387734204530716, 0.02239653468132019, 0.06425481289625168, 0.06414946913719177, 0.05441754311323166, 0.046962205320596695, 0.0447973906993866, 0.06530612707138062, 0.04648547247052193, 0.060921527445316315, 0.020914269611239433, 0.05132607743144035, 0.05784102529287338, 0.05141271650791168, 0.03302067145705223, 0.05140000209212303, 0.06824043393135071, 0.04342734068632126, 0.027723323553800583, 0.043808240443468094], [0.005014785099774599, 0.11664313077926636, 0.03240465372800827, 0.07400638610124588, 0.04937584698200226, 0.03647908568382263, 0.05090635269880295, 0.04229127615690231, 0.04904844984412193, 0.04000137746334076, 0.04498879611492157, 0.02056809514760971, 0.037513598799705505, 0.04357369616627693, 0.05690052732825279, 0.036826543509960175, 0.10325829684734344, 0.05480153486132622, 0.030895128846168518, 0.04111715778708458, 0.03338539972901344]], [[0.06645824015140533, 0.04356861859560013, 0.033409908413887024, 0.035143423825502396, 0.06252430379390717, 0.05725596845149994, 0.013277655467391014, 0.06653550267219543, 0.05860620737075806, 0.04343121126294136, 0.04832492768764496, 0.03027505613863468, 0.07092955708503723, 0.05510738492012024, 0.03117443434894085, 0.042740631848573685, 0.06441423296928406, 0.039992764592170715, 0.026961201801896095, 0.0157491285353899, 0.09411956369876862], [0.05270601436495781, 0.17478379607200623, 0.1910378783941269, 0.17033906280994415, 0.16040247678756714, 0.09154282510280609, 0.02766512520611286, 0.04401986673474312, 0.024077069014310837, 0.00979473814368248, 0.008826316334307194, 0.004783904645591974, 0.009291458874940872, 0.008522825315594673, 0.0028322371654212475, 0.006965301930904388, 0.003864317201077938, 0.0029869573190808296, 0.002284060465171933, 0.002534142229706049, 0.0007395892753265798], [0.0006331161130219698, 0.04393134266138077, 0.013533619232475758, 0.7424533367156982, 0.07756298780441284, 0.05853385478258133, 0.023078206926584244, 0.011682824231684208, 0.007566627115011215, 0.007745410781353712, 0.0029479116201400757, 0.00039550932706333697, 0.0013717119581997395, 0.001325718010775745, 0.0013400947209447622, 0.0034732455387711525, 0.0003824421437457204, 0.00034729557228274643, 0.0011065270518884063, 0.0005111183854751289, 7.712307706242427e-05], [0.016956696286797523, 0.13023847341537476, 0.1294475942850113, 0.08877195417881012, 0.19963254034519196, 0.16931043565273285, 0.17901107668876648, 0.01811131462454796, 0.0208303090184927, 0.018795263022184372, 0.009890852496027946, 0.003497657598927617, 0.0011952283093705773, 0.001710887416265905, 0.0010297656990587711, 0.006765719503164291, 0.0030093647073954344, 0.0004965702537447214, 0.0009489596704952419, 0.00023530636099167168, 0.00011405937402741984], [0.0011118167312815785, 0.07709281146526337, 0.04695460945367813, 0.09434355050325394, 0.019560828804969788, 0.20192115008831024, 0.47004789113998413, 0.027830073609948158, 0.02516886033117771, 0.0038716888520866632, 0.018999114632606506, 0.0069166626781225204, 0.0004142277466598898, 0.0021499497815966606, 0.0003813941730186343, 0.0005640119779855013, 0.001523661077953875, 0.0008520294795744121, 0.00010172359179705381, 0.00011709731916198507, 7.699904381297529e-05], [0.0005670221871696413, 0.02710839733481407, 0.20062817633152008, 0.09149511903524399, 0.11461730301380157, 0.03461649641394615, 0.2819445729255676, 0.12192317843437195, 0.033596958965063095, 0.007028771564364433, 0.015073367394506931, 0.05471489578485489, 0.00993499718606472, 0.003053050022572279, 0.000740886083804071, 0.0007358737639151514, 0.0009494118858128786, 0.0006860484718345106, 0.00040804926538839936, 0.00010535221372265369, 7.208417810034007e-05], [0.002971296664327383, 0.006965056527405977, 0.021454650908708572, 0.27486398816108704, 0.03870389610528946, 0.052797142416238785, 0.03674953803420067, 0.07650092244148254, 0.024848995730280876, 0.42926454544067383, 0.007363686803728342, 0.007880686782300472, 0.0057778810150921345, 0.001989434938877821, 0.0061353230848908424, 0.003330167615786195, 0.0007365976343862712, 0.00023378926562145352, 0.0011054228525608778, 0.000302562810247764, 2.4325901904376224e-05], [0.0009703559917397797, 0.013527508825063705, 0.01783003844320774, 0.2652202546596527, 0.04934653639793396, 0.0883985236287117, 0.19583933055400848, 0.058084599673748016, 0.14176952838897705, 0.08642575144767761, 0.04597662016749382, 0.011375200003385544, 0.009143468923866749, 0.010133558884263039, 0.0026255312841385603, 0.0012354188365861773, 0.0004921479849144816, 0.0006191519787535071, 0.000674620212521404, 0.0002584570029284805, 5.3422892960952595e-05], [0.024127697572112083, 0.008500034920871258, 0.004328678362071514, 0.01716543361544609, 0.05822249874472618, 0.08323479443788528, 0.05936769023537636, 0.1019972562789917, 0.18457898497581482, 0.2145543396472931, 0.12903349101543427, 0.01908443123102188, 0.043487776070833206, 0.024962617084383965, 0.005607427563518286, 0.015005428344011307, 0.0034643332473933697, 0.0016474189469590783, 0.0008354638121090829, 0.00045433713239617646, 0.00033981111482717097], [0.03789334371685982, 0.002668539760634303, 0.007189579773694277, 0.00439505884423852, 0.020260661840438843, 0.017412951216101646, 0.6152043342590332, 0.014496179297566414, 0.037309225648641586, 0.026655422523617744, 0.05518222972750664, 0.09616583585739136, 0.04671429470181465, 0.010136916302144527, 0.0015268753049895167, 0.0037739041727036238, 0.0013672340428456664, 0.0008353171870112419, 0.0006765691796317697, 0.000101241581432987, 3.422083682380617e-05], [0.026764843612909317, 0.006604229100048542, 0.0030597106087952852, 0.004120402969419956, 0.018155071884393692, 0.046206533908843994, 0.032195691019296646, 0.07143056392669678, 0.09280233085155487, 0.11833830922842026, 0.16703470051288605, 0.07618746906518936, 0.18358562886714935, 0.06838785856962204, 0.011085533536970615, 0.04214784875512123, 0.017893105745315552, 0.009453995153307915, 0.0031336378306150436, 0.0009411369683220983, 0.00047139872913248837], [0.0012427059700712562, 0.006664086598902941, 0.0013280336279422045, 0.02878984808921814, 0.008774266578257084, 0.029430745169520378, 0.04390549659729004, 0.04980307072401047, 0.0732993483543396, 0.11554624140262604, 0.11356637626886368, 0.02872476913034916, 0.21198828518390656, 0.10823100060224533, 0.036030322313308716, 0.08983895182609558, 0.014716053381562233, 0.013116106390953064, 0.022760825231671333, 0.002004054142162204, 0.00023947423323988914], [0.0017489275196567178, 0.0064375209622085094, 0.004212767817080021, 0.0036617463920265436, 0.0008590272045694292, 0.010378425940871239, 0.0806489810347557, 0.02445843443274498, 0.09176887571811676, 0.022736310958862305, 0.1694979965686798, 0.12819820642471313, 0.03975552320480347, 0.28149232268333435, 0.027368802577257156, 0.024587484076619148, 0.04990498349070549, 0.025836607441306114, 0.003938250243663788, 0.0019196115899831057, 0.0005892557674087584], [0.03275073319673538, 0.003562056226655841, 0.0014664706541225314, 0.0022939296904951334, 0.00603077095001936, 0.006288258824497461, 0.003986909985542297, 0.012661821208894253, 0.0366191565990448, 0.053170256316661835, 0.07149867713451385, 0.02958936057984829, 0.16142189502716064, 0.17431886494159698, 0.05637402459979057, 0.22822219133377075, 0.062240276485681534, 0.031618230044841766, 0.015049181878566742, 0.007089859340339899, 0.0037470629904419184], [0.20381249487400055, 0.0041480292566120625, 0.0022852118127048016, 0.0020907847210764885, 0.007309781853109598, 0.007229856681078672, 0.006824984680861235, 0.003740539075806737, 0.010172190144658089, 0.01142856478691101, 0.03542162477970123, 0.029561728239059448, 0.10416927933692932, 0.06731099635362625, 0.015198852866888046, 0.28675636649131775, 0.11364684998989105, 0.04065365716814995, 0.030178362503647804, 0.013302859850227833, 0.004756970796734095], [0.0015844089211896062, 0.0023366021923720837, 0.0006466780905611813, 0.0035648727789521217, 0.0010451122652739286, 0.0011013190960511565, 0.006168412510305643, 0.0042455000802874565, 0.005579120013862848, 0.008367981761693954, 0.024487217888236046, 0.014834200963377953, 0.02071600966155529, 0.04929424077272415, 0.22667460143566132, 0.026371119543910027, 0.4618540108203888, 0.08131948858499527, 0.03998948261141777, 0.01621195860207081, 0.003607714781537652], [0.0026148229371756315, 0.0032174636144191027, 0.000490096106659621, 0.008885922841727734, 0.001714165904559195, 0.0015510186785832047, 0.007285951636731625, 0.0025309170596301556, 0.004311425611376762, 0.005347904749214649, 0.01653303951025009, 0.006600937806069851, 0.053787168115377426, 0.06077126786112785, 0.20448100566864014, 0.07711154967546463, 0.1132851392030716, 0.21208688616752625, 0.1406790167093277, 0.06978350132703781, 0.006930922158062458], [0.03476918488740921, 0.0025229300372302532, 0.0012664656387642026, 0.0006524368654936552, 0.001657382003031671, 0.0010533393360674381, 0.000655678566545248, 0.0023412953596562147, 0.002903182525187731, 0.0024443890433758497, 0.005552693735808134, 0.005256436299532652, 0.04274521768093109, 0.0477704219520092, 0.023995336145162582, 0.10765312612056732, 0.15280164778232574, 0.2120603322982788, 0.17044833302497864, 0.1102549210190773, 0.07119529694318771], [0.0004113046161364764, 0.0005192445241846144, 0.0013765711337327957, 0.0006779808318242431, 0.0007581885438412428, 0.0002820454246830195, 0.0022442855406552553, 0.00047638104297220707, 0.0006754880887456238, 0.004517127759754658, 0.0011808115523308516, 0.004978089593350887, 0.00667342497035861, 0.009276962839066982, 0.00800850335508585, 0.12032073736190796, 0.05072326958179474, 0.045029811561107635, 0.027027755975723267, 0.684750497341156, 0.030091390013694763], [0.0035930159501731396, 0.003448824631050229, 0.004062379244714975, 0.011514170095324516, 0.001989545999094844, 0.001369657926261425, 0.002334882505238056, 0.0003216938057448715, 0.0014350074343383312, 0.0015354466158896685, 0.003002278972417116, 0.004106259439140558, 0.002366551198065281, 0.009209267795085907, 0.0066179330460727215, 0.04980211332440376, 0.035649288445711136, 0.10122989863157272, 0.508131742477417, 0.07838761806488037, 0.16989241540431976], [0.05806734412908554, 0.0013449157122522593, 0.00018529796216171235, 0.0006333301425911486, 0.0013144525000825524, 0.0008669663220643997, 0.0003547933592926711, 0.0002754193847067654, 0.0007703971350565553, 0.00054799864301458, 0.0016101598739624023, 0.00042211663094349205, 0.0027824039570987225, 0.004837498534470797, 0.008112349547445774, 0.04068123921751976, 0.04332990571856499, 0.15129055082798004, 0.13650479912757874, 0.2832769751548767, 0.26279112696647644]], [[0.015189903788268566, 0.037412166595458984, 0.04525728151202202, 0.06551890075206757, 0.12555155158042908, 0.08164546638727188, 0.02664700150489807, 0.016032734885811806, 0.03391648828983307, 0.034393515437841415, 0.0387151800096035, 0.054621633142232895, 0.15806661546230316, 0.03793253004550934, 0.020032264292240143, 0.03355374187231064, 0.030270855873823166, 0.04065627604722977, 0.03735535219311714, 0.04865201935172081, 0.018578458577394485], [0.05760381370782852, 0.10174217820167542, 0.014614674262702465, 0.003651662264019251, 0.0012639987980946898, 0.0005312832654453814, 0.0793117880821228, 0.049384020268917084, 0.09626926481723785, 0.014386152848601341, 0.08853210508823395, 0.013121603056788445, 0.0010795887792482972, 0.09312894940376282, 0.010583891533315182, 0.035194043070077896, 0.036794841289520264, 0.059476401656866074, 0.013016976416110992, 0.011440079659223557, 0.21887272596359253], [0.057614490389823914, 0.04347003251314163, 0.04429458826780319, 0.032041996717453, 0.013349784538149834, 0.009446470066905022, 0.22944310307502747, 0.05678049474954605, 0.037986353039741516, 0.05068134143948555, 0.03926879167556763, 0.054095808416604996, 0.01357988454401493, 0.03596668690443039, 0.0324590802192688, 0.04215402528643608, 0.062141142785549164, 0.03166642785072327, 0.05888449400663376, 0.01210169680416584, 0.04257326200604439], [0.07436109334230423, 0.029052581638097763, 0.08086100220680237, 0.01571941189467907, 0.016311118379235268, 0.011112147010862827, 0.09326057881116867, 0.023929262533783913, 0.02473616786301136, 0.10966365039348602, 0.029650144279003143, 0.09776458889245987, 0.02219451032578945, 0.03336818516254425, 0.06840363144874573, 0.024663234129548073, 0.028544949367642403, 0.0324510894715786, 0.05222230777144432, 0.0859917625784874, 0.04573855549097061], [0.17535483837127686, 0.06500668078660965, 0.03758373111486435, 0.029399964958429337, 0.01627814583480358, 0.003685134695842862, 0.13884243369102478, 0.025515401735901833, 0.05634896829724312, 0.02369578368961811, 0.05364241078495979, 0.03293854743242264, 0.015394793823361397, 0.058066967874765396, 0.025712355971336365, 0.02246628701686859, 0.02354620024561882, 0.03824847564101219, 0.03114374727010727, 0.005408293101936579, 0.12172079086303711], [0.07582800835371017, 0.08552233129739761, 0.037782128900289536, 0.02603863552212715, 0.013151424936950207, 0.0032298527657985687, 0.07432235032320023, 0.030466020107269287, 0.0702536329627037, 0.021201184019446373, 0.0719398707151413, 0.03283210098743439, 0.011639313772320747, 0.0718083307147026, 0.020271126180887222, 0.04085787013173103, 0.045728228986263275, 0.04513777047395706, 0.034702401608228683, 0.008571257814764977, 0.17871618270874023], [0.020030682906508446, 0.04601201042532921, 0.06893002986907959, 0.03027796559035778, 0.006152010522782803, 0.011987823992967606, 0.14320969581604004, 0.02993505820631981, 0.03921695798635483, 0.12039151787757874, 0.052331726998090744, 0.08779086917638779, 0.005715291481465101, 0.04728209227323532, 0.10098956525325775, 0.02662801742553711, 0.030600348487496376, 0.04315316677093506, 0.03883543983101845, 0.023737480863928795, 0.02679225616157055], [0.13497883081436157, 0.075834721326828, 0.038603849709033966, 0.04554334282875061, 0.01532346848398447, 0.0022529996931552887, 0.09625931084156036, 0.016145577654242516, 0.05796876549720764, 0.03363163769245148, 0.06470193713903427, 0.034588128328323364, 0.011061008088290691, 0.0703292265534401, 0.03203994408249855, 0.02965848334133625, 0.01645384170114994, 0.04053838551044464, 0.03404613584280014, 0.010649645701050758, 0.13939081132411957], [0.1201765313744545, 0.09443395584821701, 0.012016644701361656, 0.0040981704369187355, 0.0010955968173220754, 0.0003960462927352637, 0.06811347603797913, 0.03930262103676796, 0.0856931135058403, 0.012028143741190434, 0.08209473639726639, 0.010681078769266605, 0.0009582136990502477, 0.09478873759508133, 0.009952953085303307, 0.0295077096670866, 0.0336432121694088, 0.056831832975149155, 0.009959213435649872, 0.00523727759718895, 0.2289908528327942], [0.0074065085500478745, 0.04300158843398094, 0.058808937668800354, 0.018623948097229004, 0.0037668400909751654, 0.008015361614525318, 0.06530176848173141, 0.05626409873366356, 0.04934246838092804, 0.04118123650550842, 0.06086164712905884, 0.0772610604763031, 0.0049209496937692165, 0.05198580399155617, 0.11251816898584366, 0.03544773906469345, 0.0862327367067337, 0.056351739913225174, 0.12461237609386444, 0.021276336163282394, 0.016818681731820107], [0.10365533083677292, 0.1024511530995369, 0.012869538739323616, 0.004098103381693363, 0.0010205773869529366, 0.00044404491200111806, 0.0689031183719635, 0.04273492842912674, 0.09645101428031921, 0.013841419480741024, 0.07777806371450424, 0.00971145462244749, 0.0008321119239553809, 0.09532518684864044, 0.010128095746040344, 0.030118314549326897, 0.03479211404919624, 0.06071128696203232, 0.009681953117251396, 0.005841949954628944, 0.21861013770103455], [0.08528734743595123, 0.04563690721988678, 0.04547164961695671, 0.038178566843271255, 0.011950880289077759, 0.008944807574152946, 0.19311417639255524, 0.04438674822449684, 0.04151555895805359, 0.06554665416479111, 0.036544304341077805, 0.04312937706708908, 0.00991741195321083, 0.036481425166130066, 0.037389714270830154, 0.03949851170182228, 0.04925794526934624, 0.03287334740161896, 0.07061577588319778, 0.01035934966057539, 0.053899601101875305], [0.14263014495372772, 0.05398447811603546, 0.047628894448280334, 0.030197134241461754, 0.02029174380004406, 0.004984264262020588, 0.14030024409294128, 0.02709091641008854, 0.05007324740290642, 0.033744797110557556, 0.04545894265174866, 0.04014318808913231, 0.014289856888353825, 0.04678328335285187, 0.02618805505335331, 0.03262387216091156, 0.023287763819098473, 0.033109650015830994, 0.0409829244017601, 0.008523346856236458, 0.13768331706523895], [0.09094887971878052, 0.09286462515592575, 0.012872728519141674, 0.003941589500755072, 0.0011136035900563002, 0.0004234490916132927, 0.06571308523416519, 0.04031096026301384, 0.08970466256141663, 0.014974960125982761, 0.08438827097415924, 0.011653841473162174, 0.0009596485178917646, 0.08207129687070847, 0.008165039122104645, 0.03034568950533867, 0.038279443979263306, 0.06291014701128006, 0.011593237519264221, 0.0064055584371089935, 0.2503592371940613], [0.074823297560215, 0.013475385494530201, 0.0755755677819252, 0.04389107972383499, 0.01847176067531109, 0.011189387179911137, 0.06107570603489876, 0.02801327407360077, 0.015440165065228939, 0.13247859477996826, 0.018699444830417633, 0.11515407264232635, 0.025647159665822983, 0.01646643504500389, 0.11379031836986542, 0.0308169387280941, 0.03654512017965317, 0.018811248242855072, 0.0695004090666771, 0.03738560155034065, 0.04274909570813179], [0.0901864618062973, 0.057284317910671234, 0.0314268134534359, 0.04552925378084183, 0.016377419233322144, 0.003832784481346607, 0.09403395652770996, 0.03600611910223961, 0.06200148165225983, 0.02476349286735058, 0.06651382148265839, 0.03285782039165497, 0.018076520413160324, 0.0754798874258995, 0.03994525223970413, 0.023577848449349403, 0.02049347199499607, 0.0609731562435627, 0.043633799999952316, 0.02713572233915329, 0.12987057864665985], [0.07943395525217056, 0.02298455871641636, 0.06177275627851486, 0.032262708991765976, 0.019640354439616203, 0.004215285647660494, 0.10028941184282303, 0.021792562678456306, 0.024957800284028053, 0.07414896041154861, 0.026020755991339684, 0.06549307703971863, 0.020217478275299072, 0.036088719964027405, 0.06300924718379974, 0.02375742234289646, 0.014643939211964607, 0.027323001995682716, 0.07170707732439041, 0.064541295170784, 0.14569969475269318], [0.09919241070747375, 0.07509765774011612, 0.012836423702538013, 0.0037454685661941767, 0.0010270181810483336, 0.00041413470171391964, 0.07391640543937683, 0.04841388389468193, 0.07865427434444427, 0.01627684012055397, 0.0725768581032753, 0.01214448269456625, 0.0008976437384262681, 0.08568528294563293, 0.009594770148396492, 0.037789762020111084, 0.038654714822769165, 0.0518546961247921, 0.012414897792041302, 0.007435648236423731, 0.2613767683506012], [0.016697542741894722, 0.013633813709020615, 0.06855906546115875, 0.03163691610097885, 0.013948498293757439, 0.010905752889811993, 0.041038282215595245, 0.08181281387805939, 0.015518740750849247, 0.04229943826794624, 0.016591088846325874, 0.07759507745504379, 0.014848764054477215, 0.016493573784828186, 0.09225989133119583, 0.057510387152433395, 0.06823702156543732, 0.01889694482088089, 0.25045478343963623, 0.019958244636654854, 0.031103286892175674], [0.11037098616361618, 0.06026361882686615, 0.03996696695685387, 0.019826184958219528, 0.009758814238011837, 0.0029142892453819513, 0.0923258513212204, 0.03797517716884613, 0.06872522085905075, 0.04361804202198982, 0.0610555075109005, 0.04135178029537201, 0.010631660930812359, 0.07656572014093399, 0.029608894139528275, 0.03678992763161659, 0.02651924267411232, 0.05775654315948486, 0.053746629506349564, 0.011250996962189674, 0.10897797346115112], [0.054020870476961136, 0.1236966922879219, 0.030248766764998436, 0.009463459253311157, 0.0034493026323616505, 0.000405243830755353, 0.0682789757847786, 0.028041046112775803, 0.077629953622818, 0.07522203028202057, 0.08299647271633148, 0.028279971331357956, 0.0047163707204163074, 0.09563618153333664, 0.016126025468111038, 0.023677559569478035, 0.02862348034977913, 0.10289867967367172, 0.06702003628015518, 0.02805185876786709, 0.05151696875691414]], [[0.08970491588115692, 0.013781948946416378, 0.025197762995958328, 0.06511135399341583, 0.07839496433734894, 0.018154092133045197, 0.10092559456825256, 0.021308500319719315, 0.014302638359367847, 0.08702608197927475, 0.016040174290537834, 0.029767170548439026, 0.08535715937614441, 0.0146657545119524, 0.1960676610469818, 0.04053735360503197, 0.030960990116000175, 0.015074065886437893, 0.02269425056874752, 0.016372311860322952, 0.01855536177754402], [0.002731268061324954, 0.0790499746799469, 0.00858265720307827, 0.003941231872886419, 0.008086315356194973, 0.04847197234630585, 0.011075279675424099, 0.22508318722248077, 0.07517646998167038, 0.006254746578633785, 0.07160837948322296, 0.0072196233086287975, 0.005936851724982262, 0.06683725118637085, 0.0050146011635661125, 0.0189759973436594, 0.04557046666741371, 0.06904909014701843, 0.0073750815354287624, 0.12369940429925919, 0.11026021838188171], [0.11911577731370926, 0.00977415218949318, 0.05968206375837326, 0.1294211596250534, 0.02543225884437561, 0.017778754234313965, 0.04663710668683052, 0.009012223221361637, 0.012069916352629662, 0.08684968948364258, 0.01213475689291954, 0.06503557413816452, 0.02575884945690632, 0.011796392500400543, 0.1871882677078247, 0.03560134768486023, 0.04184296727180481, 0.010110118426382542, 0.056493259966373444, 0.005936042405664921, 0.03232928737998009], [0.01240476407110691, 0.03631821274757385, 0.03625839948654175, 0.04344233125448227, 0.04518718644976616, 0.030158888548612595, 0.11913445591926575, 0.049532920122146606, 0.042180366814136505, 0.06314969062805176, 0.04132504388689995, 0.038577914237976074, 0.0271541066467762, 0.032739464193582535, 0.24257400631904602, 0.015178793109953403, 0.01367484126240015, 0.028005778789520264, 0.04270249232649803, 0.02091383934020996, 0.01938645914196968], [0.03901524841785431, 0.037751808762550354, 0.043654054403305054, 0.04807973653078079, 0.028573965653777122, 0.03131507709622383, 0.05498836562037468, 0.039943426847457886, 0.036958836019039154, 0.03516389802098274, 0.03762445226311684, 0.04310254752635956, 0.025448700413107872, 0.037818945944309235, 0.1766732931137085, 0.03957603871822357, 0.05098960921168327, 0.03593970090150833, 0.07813679426908493, 0.02056206949055195, 0.058683354407548904], [0.04021637141704559, 0.04350670427083969, 0.03065694123506546, 0.025309288874268532, 0.030950356274843216, 0.03974378854036331, 0.027462664991617203, 0.08547361940145493, 0.040923163294792175, 0.020123647525906563, 0.03973303362727165, 0.028047233819961548, 0.026031218469142914, 0.04051285237073898, 0.06326805055141449, 0.036943066865205765, 0.0953550785779953, 0.04187973961234093, 0.03312654793262482, 0.052726782858371735, 0.158009871840477], [0.029253900051116943, 0.019114218652248383, 0.060869548469781876, 0.08208981901407242, 0.021665310487151146, 0.018014997243881226, 0.14738549292087555, 0.012113160453736782, 0.019411461427807808, 0.06389834731817245, 0.020635413005948067, 0.0752173662185669, 0.023824825882911682, 0.021894829347729683, 0.15378537774085999, 0.01996070332825184, 0.02223161607980728, 0.02158304490149021, 0.10958074778318405, 0.01661750301718712, 0.040852367877960205], [0.03201970458030701, 0.05369870737195015, 0.038687270134687424, 0.16690245270729065, 0.02632211335003376, 0.023626849055290222, 0.04627788066864014, 0.01494679506868124, 0.04237576574087143, 0.042242877185344696, 0.045581430196762085, 0.039838895201683044, 0.02336215227842331, 0.042681995779275894, 0.1325521320104599, 0.024004600942134857, 0.02447074092924595, 0.04129921644926071, 0.0975663959980011, 0.00749734602868557, 0.034044597297906876], [0.00249299593269825, 0.06810645014047623, 0.0077432855032384396, 0.00362763530574739, 0.009095127694308758, 0.04880162701010704, 0.009245617315173149, 0.22107426822185516, 0.059133317321538925, 0.005984040908515453, 0.05830679461359978, 0.0065100365318357944, 0.006853837054222822, 0.056571777909994125, 0.003620509058237076, 0.019740857183933258, 0.045111965388059616, 0.06231263279914856, 0.007899776101112366, 0.15247346460819244, 0.1452939510345459], [0.08332259207963943, 0.007589917629957199, 0.019453002139925957, 0.029691843315958977, 0.023138267919421196, 0.021490691229701042, 0.1524498611688614, 0.01240196917206049, 0.007499741390347481, 0.24298040568828583, 0.008943584747612476, 0.020110737532377243, 0.0274346936494112, 0.009136902168393135, 0.13046382367610931, 0.040141962468624115, 0.03617676720023155, 0.008262055926024914, 0.01944870315492153, 0.02411138080060482, 0.07575111836194992], [0.0019620151724666357, 0.06871208548545837, 0.006354471668601036, 0.0033137549180537462, 0.007989097386598587, 0.04648199677467346, 0.008901635184884071, 0.21989168226718903, 0.06162593141198158, 0.005321645177900791, 0.05848350003361702, 0.005341935902833939, 0.006257324479520321, 0.057539939880371094, 0.0033798380754888058, 0.020584508776664734, 0.04788607358932495, 0.06488116085529327, 0.007308632135391235, 0.1654631346464157, 0.13231970369815826], [0.1092357262969017, 0.008269059471786022, 0.061965227127075195, 0.127214714884758, 0.028498662635684013, 0.02019161358475685, 0.04807175323367119, 0.009915603324770927, 0.011324524879455566, 0.0948997214436531, 0.011308806948363781, 0.06829720735549927, 0.030035123229026794, 0.011028127744793892, 0.14437799155712128, 0.042146675288677216, 0.04722769930958748, 0.00975150614976883, 0.06202631816267967, 0.009522434324026108, 0.044691476970911026], [0.04288158565759659, 0.028225500136613846, 0.04340824484825134, 0.04174409806728363, 0.031133832409977913, 0.034140657633543015, 0.051919203251600266, 0.03931457921862602, 0.03281870856881142, 0.04336152598261833, 0.03498271852731705, 0.04940563067793846, 0.029043979942798615, 0.03399982303380966, 0.1452062726020813, 0.04558590054512024, 0.047652143985033035, 0.03331439197063446, 0.0860520750284195, 0.02496889978647232, 0.08084027469158173], [0.002451234729960561, 0.06141199916601181, 0.007733847014605999, 0.0040012141689658165, 0.010700773447751999, 0.052041854709386826, 0.009367278777062893, 0.21472974121570587, 0.05793021246790886, 0.006858283653855324, 0.05725456029176712, 0.006948551628738642, 0.008081098087131977, 0.05346952751278877, 0.004141622222959995, 0.02202831208705902, 0.04836931824684143, 0.06190738081932068, 0.007540443446487188, 0.1599990576505661, 0.1430336833000183], [0.010455857962369919, 0.04741053655743599, 0.04493651166558266, 0.07141698896884918, 0.01621123217046261, 0.03823576122522354, 0.1137089654803276, 0.045542772859334946, 0.03623257949948311, 0.12023193389177322, 0.0369349904358387, 0.043887730687856674, 0.013678510673344135, 0.03307854011654854, 0.0693688839673996, 0.030344216153025627, 0.03940722346305847, 0.038956448435783386, 0.05451587215065956, 0.05983259901404381, 0.035611823201179504], [0.041251879185438156, 0.023210760205984116, 0.014421451836824417, 0.10672435164451599, 0.041156306862831116, 0.016958795487880707, 0.05838499963283539, 0.028108295053243637, 0.023469218984246254, 0.06248052790760994, 0.025911003351211548, 0.016815144568681717, 0.03375888243317604, 0.024295423179864883, 0.25269195437431335, 0.010944916866719723, 0.04514668881893158, 0.026440124958753586, 0.04767858609557152, 0.01852363534271717, 0.0816269963979721], [0.01761498861014843, 0.02933928556740284, 0.020170079544186592, 0.0624835342168808, 0.027481568977236748, 0.017163049429655075, 0.09267046302556992, 0.03857995569705963, 0.0286241564899683, 0.09456874430179596, 0.02912546694278717, 0.023779727518558502, 0.024789193645119667, 0.02973216213285923, 0.21661292016506195, 0.015852171927690506, 0.01693861186504364, 0.03041575849056244, 0.08068370819091797, 0.03680463507771492, 0.06656984239816666], [0.002048252848908305, 0.05251273140311241, 0.006945652887225151, 0.0032769369427114725, 0.009999704547226429, 0.047635532915592194, 0.007755544036626816, 0.20650991797447205, 0.0552377924323082, 0.006181144155561924, 0.05423883721232414, 0.00643459428101778, 0.008218314498662949, 0.05301712825894356, 0.0035198740661144257, 0.023010317236185074, 0.0485808402299881, 0.060320544987916946, 0.008298228494822979, 0.18467313051223755, 0.1515849530696869], [0.04520066827535629, 0.006888509262353182, 0.08572596311569214, 0.06324291974306107, 0.03402147814631462, 0.041944533586502075, 0.1361512839794159, 0.009325696155428886, 0.011461099609732628, 0.16645577549934387, 0.013626721687614918, 0.12305821478366852, 0.0394253209233284, 0.010347303003072739, 0.05385357514023781, 0.045005105435848236, 0.021935973316431046, 0.013969472609460354, 0.028006890788674355, 0.0203457772731781, 0.030007803812623024], [0.013638485223054886, 0.03783899173140526, 0.03940887376666069, 0.08812451362609863, 0.027645690366625786, 0.031931329518556595, 0.037750244140625, 0.0806635394692421, 0.03932853788137436, 0.03322746604681015, 0.03917936235666275, 0.042220696806907654, 0.02430996298789978, 0.04177135229110718, 0.05152454972267151, 0.04524001106619835, 0.0568518191576004, 0.045553579926490784, 0.08412764221429825, 0.05659644678235054, 0.08306684345006943], [0.013642104342579842, 0.0223105289041996, 0.014753867872059345, 0.007441243622452021, 0.02770572155714035, 0.04634677618741989, 0.020139381289482117, 0.14626145362854004, 0.02559460699558258, 0.01631329022347927, 0.026097102090716362, 0.01566266641020775, 0.0274591576308012, 0.02624150924384594, 0.01562618464231491, 0.04597306624054909, 0.06330599635839462, 0.02936498634517193, 0.01805884949862957, 0.21604211628437042, 0.1756593883037567]], [[0.06927703320980072, 0.0021434295922517776, 0.01291055977344513, 0.17847205698490143, 0.01092533953487873, 0.005730856209993362, 0.10962928831577301, 0.009850988164544106, 0.0022221074905246496, 0.11722785234451294, 0.0025870974641293287, 0.013114473782479763, 0.008928125724196434, 0.002470567589625716, 0.29891178011894226, 0.08743345737457275, 0.01780983991920948, 0.002073501003906131, 0.02129260264337063, 0.009767805226147175, 0.017221303656697273], [0.134322389960289, 0.004599311389029026, 0.0411841943860054, 0.0324237234890461, 0.08622871339321136, 0.0929654911160469, 0.028061753138899803, 0.07900646328926086, 0.004501880146563053, 0.026824098080396652, 0.004325679037719965, 0.04767841473221779, 0.09509709477424622, 0.004221868701279163, 0.02535155601799488, 0.023328669369220734, 0.06227608397603035, 0.004359633661806583, 0.024491798132658005, 0.05583144724369049, 0.12291979044675827], [0.06264139711856842, 0.024179238826036453, 0.04096287488937378, 0.04592617228627205, 0.10635189712047577, 0.0653616413474083, 0.041361935436725616, 0.02921247109770775, 0.026525260880589485, 0.09433393180370331, 0.02983519248664379, 0.05459858104586601, 0.10137853771448135, 0.027532631531357765, 0.08844155073165894, 0.022811761125922203, 0.029861031100153923, 0.01918025128543377, 0.03229953721165657, 0.023218227550387383, 0.033985838294029236], [0.26209405064582825, 0.004469613078981638, 0.025467798113822937, 0.07112811505794525, 0.03728426247835159, 0.009471754543483257, 0.06909508258104324, 0.03918926417827606, 0.0054906378500163555, 0.03778868168592453, 0.00653923861682415, 0.02887677401304245, 0.040246300399303436, 0.006065986584872007, 0.04825540632009506, 0.08856601268053055, 0.06067871302366257, 0.004987929482012987, 0.057139962911605835, 0.0704619362950325, 0.026702454313635826], [0.10162415355443954, 0.0063263168558478355, 0.04512898996472359, 0.12603916227817535, 0.06680453568696976, 0.044854290783405304, 0.05357770994305611, 0.029057230800390244, 0.006846803240478039, 0.06613599509000778, 0.006957978010177612, 0.04669245705008507, 0.06633669137954712, 0.006803421303629875, 0.12394441664218903, 0.05477922782301903, 0.03867539390921593, 0.004569776356220245, 0.020169002935290337, 0.03531975299119949, 0.049356721341609955], [0.11126937717199326, 0.005238230340182781, 0.058664869517087936, 0.0425165630877018, 0.10584750026464462, 0.08625837415456772, 0.03320442885160446, 0.047143757343292236, 0.005060148891061544, 0.05212146416306496, 0.005442121997475624, 0.06710657477378845, 0.11603835970163345, 0.005526683293282986, 0.042905427515506744, 0.02342936582863331, 0.04208969697356224, 0.004634222947061062, 0.02619762159883976, 0.045137301087379456, 0.07416796684265137], [0.05276070907711983, 0.018406501039862633, 0.03839964047074318, 0.06213965639472008, 0.09153691679239273, 0.07796548306941986, 0.06294593960046768, 0.015914244577288628, 0.018526716157794, 0.04504375532269478, 0.020757703110575676, 0.04177054390311241, 0.08106700330972672, 0.02043321169912815, 0.0879044458270073, 0.08703332394361496, 0.03701554611325264, 0.01609356701374054, 0.021632449701428413, 0.02569705620408058, 0.07695552706718445], [0.13044387102127075, 0.004775786306709051, 0.04879148676991463, 0.06042403355240822, 0.058490801602602005, 0.07769599556922913, 0.05556861311197281, 0.03775351122021675, 0.005072591360658407, 0.04279313609004021, 0.004635278135538101, 0.04675571247935295, 0.05054328963160515, 0.004162427503615618, 0.058235522359609604, 0.019469883292913437, 0.04897052049636841, 0.0037760483101010323, 0.0373506098985672, 0.04254123196005821, 0.1617497056722641], [0.1676214337348938, 0.0033509063068777323, 0.04563809186220169, 0.025425629690289497, 0.07426609098911285, 0.0887392982840538, 0.024544833227992058, 0.06344883888959885, 0.003225501161068678, 0.02083265222609043, 0.0032320814207196236, 0.05194687843322754, 0.08863312751054764, 0.003189437324181199, 0.02274232544004917, 0.01797766238451004, 0.0604901984333992, 0.003365937154740095, 0.028069647029042244, 0.05352981016039848, 0.14972954988479614], [0.1550912857055664, 0.012692475691437721, 0.03425712138414383, 0.04972979053854942, 0.03546895086765289, 0.06310141831636429, 0.11051462590694427, 0.033351488411426544, 0.010152650997042656, 0.11245770752429962, 0.010178607888519764, 0.03793824836611748, 0.03201249614357948, 0.009172520600259304, 0.037440963089466095, 0.010856060311198235, 0.027652980759739876, 0.010321803390979767, 0.035582367330789566, 0.03674878552556038, 0.13527759909629822], [0.16917464137077332, 0.003362908260896802, 0.04742377623915672, 0.02272195741534233, 0.08313508331775665, 0.07501651346683502, 0.02455618605017662, 0.08348841965198517, 0.0033770285081118345, 0.02046748250722885, 0.003282455727458, 0.052381303161382675, 0.09967449307441711, 0.0033024477306753397, 0.020760638639330864, 0.014597220346331596, 0.06364315748214722, 0.0032713990658521652, 0.027487605810165405, 0.059292271733284, 0.11958301812410355], [0.07481622695922852, 0.018582254648208618, 0.050934117287397385, 0.0373820923268795, 0.0991903692483902, 0.0630669817328453, 0.04019549861550331, 0.02984480746090412, 0.021976573392748833, 0.09006599336862564, 0.02432902529835701, 0.06608482450246811, 0.09638658165931702, 0.022869877517223358, 0.09999074041843414, 0.018521301448345184, 0.032125551253557205, 0.016030248254537582, 0.03689056262373924, 0.024852309376001358, 0.03586408495903015], [0.09556519240140915, 0.0066548665054142475, 0.04049009084701538, 0.11726221442222595, 0.06108441203832626, 0.04726177453994751, 0.054081231355667114, 0.02287406288087368, 0.008380829356610775, 0.06447119265794754, 0.008607545867562294, 0.04519069194793701, 0.06232980638742447, 0.008413474075496197, 0.15116369724273682, 0.05157310888171196, 0.03832562640309334, 0.005716847721487284, 0.021194010972976685, 0.037884607911109924, 0.051474735140800476], [0.15830357372760773, 0.004456678405404091, 0.046255044639110565, 0.027043038979172707, 0.07593424618244171, 0.0783664658665657, 0.029689624905586243, 0.07022372633218765, 0.004688961897045374, 0.02280600368976593, 0.004674003459513187, 0.05320492386817932, 0.09046360850334167, 0.004553040023893118, 0.025242339819669724, 0.017557458952069283, 0.06759443134069443, 0.0046651121228933334, 0.028362931683659554, 0.05883636325597763, 0.12707838416099548], [0.2998843193054199, 0.004026027861982584, 0.035402316600084305, 0.044260717928409576, 0.01251701544970274, 0.04047694057226181, 0.08671694993972778, 0.014848857186734676, 0.004424418322741985, 0.02850901149213314, 0.004363956395536661, 0.045076463371515274, 0.014406837522983551, 0.003073743311688304, 0.03515635430812836, 0.005391872022300959, 0.026484720408916473, 0.0035796319134533405, 0.031266048550605774, 0.014330723322927952, 0.2458031326532364], [0.06410661339759827, 0.007180455606430769, 0.04492999240756035, 0.030040614306926727, 0.14130569994449615, 0.1004372239112854, 0.02582532912492752, 0.041477642953395844, 0.009338079020380974, 0.04505200311541557, 0.010394466109573841, 0.05961208790540695, 0.13179326057434082, 0.009160032495856285, 0.09733664244413376, 0.010639437474310398, 0.043444517999887466, 0.007885156199336052, 0.037225477397441864, 0.0424935519695282, 0.040321819484233856], [0.13994061946868896, 0.009496761485934258, 0.04263928532600403, 0.051128990948200226, 0.03641129285097122, 0.06303246319293976, 0.0383622981607914, 0.04694327712059021, 0.01119614765048027, 0.023560743778944016, 0.009811291471123695, 0.04081728309392929, 0.03057963028550148, 0.009023678489029408, 0.10802050679922104, 0.026201952248811722, 0.06064959615468979, 0.010718354023993015, 0.05176885426044464, 0.08550126850605011, 0.10419580340385437], [0.21444037556648254, 0.0026279320009052753, 0.04445890709757805, 0.02301877923309803, 0.06800416111946106, 0.06255196034908295, 0.029839489609003067, 0.07553756982088089, 0.0028248659800738096, 0.019524237141013145, 0.0027559525333344936, 0.05050479248166084, 0.08245866745710373, 0.0027827234007418156, 0.021048372611403465, 0.01466310489922762, 0.06654733419418335, 0.002816728549078107, 0.028903678059577942, 0.05814296379685402, 0.12654748558998108], [0.08797501027584076, 0.028708674013614655, 0.03525556996464729, 0.0339047908782959, 0.0261154156178236, 0.024091387167572975, 0.03196787089109421, 0.043884020298719406, 0.030228275805711746, 0.06615569442510605, 0.029979940503835678, 0.03793399780988693, 0.025356438010931015, 0.028103133663535118, 0.0956445038318634, 0.03545457124710083, 0.03549391031265259, 0.030582642182707787, 0.17110592126846313, 0.05336471274495125, 0.048693496733903885], [0.060107991099357605, 0.0074041131883859634, 0.042027052491903305, 0.060079723596572876, 0.06892067193984985, 0.10762099176645279, 0.031771376729011536, 0.042030107229948044, 0.012484313920140266, 0.03717648237943649, 0.011297821998596191, 0.0487966388463974, 0.06964625418186188, 0.010735026560723782, 0.0967443436384201, 0.03562553599476814, 0.059547215700149536, 0.009506446309387684, 0.03141956031322479, 0.046116169542074203, 0.11094221472740173], [0.23071207106113434, 0.002920889761298895, 0.04162026569247246, 0.07456956058740616, 0.05589085817337036, 0.0453840047121048, 0.052433352917432785, 0.03431582823395729, 0.0027536593843251467, 0.03300260379910469, 0.002771294442936778, 0.041474029421806335, 0.05778181925415993, 0.002809782512485981, 0.05424932762980461, 0.02141623944044113, 0.03880153223872185, 0.0026120112743228674, 0.03484100103378296, 0.026379214599728584, 0.14326068758964539]], [[0.02364543080329895, 0.05223768576979637, 0.028091633692383766, 0.03728030249476433, 0.06725500524044037, 0.05811578780412674, 0.05963194742798805, 0.076190285384655, 0.060718074440956116, 0.024196086451411247, 0.06171862781047821, 0.02989446558058262, 0.05412735044956207, 0.058018967509269714, 0.017244618386030197, 0.060527656227350235, 0.06504644453525543, 0.055163949728012085, 0.03172880783677101, 0.059097614139318466, 0.020069289952516556], [0.4492316246032715, 0.014240425080060959, 0.018750103190541267, 0.006701601669192314, 0.0670565515756607, 0.03599974140524864, 0.015266169793903828, 0.058346524834632874, 0.016951488330960274, 0.005381061229854822, 0.01506701111793518, 0.018486548215150833, 0.05805584043264389, 0.015238750725984573, 0.0101380730047822, 0.05408613383769989, 0.05097281560301781, 0.015230846591293812, 0.0044285887852311134, 0.058038681745529175, 0.012331569567322731], [0.1350458413362503, 0.019724255427718163, 0.02656843140721321, 0.045629870146512985, 0.022501140832901, 0.012971656396985054, 0.12844601273536682, 0.006631467025727034, 0.012029621750116348, 0.30835282802581787, 0.011505217291414738, 0.024181047454476357, 0.027911212295293808, 0.010968010872602463, 0.05910361185669899, 0.01738511025905609, 0.015412256121635437, 0.011586138978600502, 0.04545842111110687, 0.012580746784806252, 0.04600716009736061], [0.20397146046161652, 0.030013831332325935, 0.053077854216098785, 0.015377067029476166, 0.04532250389456749, 0.0320931002497673, 0.11136266589164734, 0.024568554013967514, 0.026350632309913635, 0.031874995678663254, 0.02525479719042778, 0.04678471013903618, 0.04004671424627304, 0.02504751645028591, 0.09295570850372314, 0.039562661200761795, 0.02505909837782383, 0.027621066197752953, 0.046016059815883636, 0.037545036524534225, 0.020093943923711777], [0.1995973289012909, 0.0357837900519371, 0.027473730966448784, 0.020867807790637016, 0.022731617093086243, 0.02950272522866726, 0.06437940150499344, 0.09529328346252441, 0.03563476726412773, 0.055355317890644073, 0.030362863093614578, 0.028673309832811356, 0.028808480128645897, 0.03376614674925804, 0.04024600610136986, 0.04063645377755165, 0.0500028170645237, 0.035501498728990555, 0.02372181974351406, 0.04423851892352104, 0.057422347366809845], [0.07150956243276596, 0.05760936811566353, 0.04104181006550789, 0.02101549506187439, 0.027575694024562836, 0.01562706008553505, 0.06583254039287567, 0.12872904539108276, 0.059900786727666855, 0.03560994565486908, 0.04887848719954491, 0.03383992612361908, 0.03391792252659798, 0.054375339299440384, 0.03534582629799843, 0.03656735271215439, 0.08133957535028458, 0.05206623300909996, 0.019494077190756798, 0.03780513256788254, 0.0419187992811203], [0.06105586513876915, 0.026808151975274086, 0.06435500830411911, 0.02857976406812668, 0.025732100009918213, 0.026572203263640404, 0.07762711495161057, 0.026747481897473335, 0.025359049439430237, 0.07066840678453445, 0.023464186117053032, 0.06770247220993042, 0.027953321114182472, 0.029392318800091743, 0.2687127888202667, 0.01689700037240982, 0.03241785615682602, 0.02472263015806675, 0.03173261135816574, 0.027834605425596237, 0.015665069222450256], [0.156497985124588, 0.032161399722099304, 0.04255668446421623, 0.05315355584025383, 0.05890585109591484, 0.05744216591119766, 0.03843303769826889, 0.03227510303258896, 0.03311362862586975, 0.038486018776893616, 0.028562894091010094, 0.035843659192323685, 0.055466920137405396, 0.03257942944765091, 0.033650100231170654, 0.045372724533081055, 0.048688631504774094, 0.03005087748169899, 0.03820361569523811, 0.0717775821685791, 0.03677821159362793], [0.36752191185951233, 0.01801350899040699, 0.025228125974535942, 0.008436278440058231, 0.07087322324514389, 0.04151473194360733, 0.01759917661547661, 0.07542377710342407, 0.021161377429962158, 0.010143154300749302, 0.019125917926430702, 0.025290274992585182, 0.0613967590034008, 0.019074751064181328, 0.01117644552141428, 0.05602942407131195, 0.06031258776783943, 0.019666073843836784, 0.008259572088718414, 0.04582773521542549, 0.0179250817745924], [0.05736412853002548, 0.013783586211502552, 0.1728469878435135, 0.009081006050109863, 0.0056703295558691025, 0.005765089299529791, 0.13176943361759186, 0.009614062495529652, 0.013881667517125607, 0.18298977613449097, 0.01282078679651022, 0.12837526202201843, 0.006536364555358887, 0.009492332115769386, 0.03919219970703125, 0.01142815500497818, 0.018990589305758476, 0.011253566481173038, 0.04640718922019005, 0.013706836849451065, 0.09903060644865036], [0.4087603688240051, 0.01751788705587387, 0.02807655930519104, 0.009870395064353943, 0.05634424462914467, 0.03506242111325264, 0.02255614660680294, 0.06858444958925247, 0.022181279957294464, 0.010812845081090927, 0.017685644328594208, 0.025526821613311768, 0.04871772229671478, 0.017736822366714478, 0.012588564306497574, 0.05015977472066879, 0.05667809024453163, 0.019204869866371155, 0.008905963972210884, 0.046819765120744705, 0.01620924100279808], [0.08399657905101776, 0.01635337434709072, 0.028721937909722328, 0.05052971467375755, 0.017685189843177795, 0.012587056495249271, 0.1276664435863495, 0.005637656897306442, 0.01228263508528471, 0.33841672539711, 0.010883420705795288, 0.024582020938396454, 0.02032499574124813, 0.010215775109827518, 0.07621883600950241, 0.013306757435202599, 0.012873816303908825, 0.01134173572063446, 0.06635130196809769, 0.009646234102547169, 0.050377897918224335], [0.1394716501235962, 0.034630633890628815, 0.029028845950961113, 0.022190289571881294, 0.026047397404909134, 0.04154328256845474, 0.06346207112073898, 0.0898740366101265, 0.042155034840106964, 0.059198956936597824, 0.03676453232765198, 0.0320109985768795, 0.02889397367835045, 0.036334678530693054, 0.05317843332886696, 0.034735336899757385, 0.03615516424179077, 0.03867509216070175, 0.034303490072488785, 0.04285412281751633, 0.07849188894033432], [0.3444921672344208, 0.017858728766441345, 0.02550686150789261, 0.009641354903578758, 0.071160688996315, 0.0461929552257061, 0.02007000520825386, 0.07747964560985565, 0.023858701810240746, 0.01054744515568018, 0.020916959270834923, 0.025583762675523758, 0.059765834361314774, 0.01873817853629589, 0.014379278756678104, 0.05910350754857063, 0.056825898587703705, 0.020899029448628426, 0.009735929779708385, 0.04934179410338402, 0.0179013479501009], [0.10715482383966446, 0.06843751668930054, 0.026597052812576294, 0.022829243913292885, 0.0050165681168437, 0.009775920771062374, 0.11377336084842682, 0.034165333956480026, 0.06574736535549164, 0.006939774379134178, 0.05412598326802254, 0.025320837274193764, 0.005575196351855993, 0.060153745114803314, 0.12876258790493011, 0.01803644932806492, 0.026662830263376236, 0.06400620937347412, 0.0180528424680233, 0.009916477836668491, 0.1289498656988144], [0.15103799104690552, 0.01831180788576603, 0.030670534819364548, 0.06125951558351517, 0.04022277146577835, 0.0456932969391346, 0.059256091713905334, 0.049134086817502975, 0.02708134986460209, 0.022148314863443375, 0.02381547912955284, 0.038258954882621765, 0.043542567640542984, 0.023565828800201416, 0.1254514902830124, 0.03017442114651203, 0.08179191499948502, 0.02580193430185318, 0.032131753861904144, 0.036359578371047974, 0.0342903807759285], [0.05310463532805443, 0.014742244966328144, 0.04967953637242317, 0.027950918301939964, 0.1281827986240387, 0.10713902860879898, 0.027485966682434082, 0.008827832527458668, 0.019618447870016098, 0.06171394884586334, 0.016830962151288986, 0.044137902557849884, 0.1109859049320221, 0.018283864483237267, 0.07093343138694763, 0.06232012063264847, 0.02229251153767109, 0.01860663667321205, 0.01730930246412754, 0.11500833183526993, 0.004845733754336834], [0.34480032324790955, 0.01628303900361061, 0.02434915490448475, 0.008734352886676788, 0.06955733150243759, 0.043312638998031616, 0.019091418012976646, 0.07328347861766815, 0.022627796977758408, 0.011596551164984703, 0.02023163251578808, 0.026369059458374977, 0.06059284508228302, 0.019816892221570015, 0.016002820804715157, 0.0592520497739315, 0.05891828238964081, 0.02007383480668068, 0.009832385927438736, 0.05637051910161972, 0.01890355534851551], [0.017785008996725082, 0.02962603233754635, 0.07478585839271545, 0.018939705565571785, 0.014461595565080643, 0.019759830087423325, 0.06399212032556534, 0.04994574561715126, 0.04142723232507706, 0.14985087513923645, 0.03610709682106972, 0.0772935301065445, 0.014190608635544777, 0.03264589607715607, 0.04459559917449951, 0.03852396830916405, 0.034655842930078506, 0.037379711866378784, 0.1181323379278183, 0.019027160480618477, 0.06687434017658234], [0.06983454525470734, 0.03436226397752762, 0.03053497150540352, 0.0419250950217247, 0.027438905090093613, 0.027427705004811287, 0.08131253719329834, 0.08888588100671768, 0.04843917489051819, 0.04744192957878113, 0.042165566235780716, 0.03290027379989624, 0.025716328993439674, 0.037487149238586426, 0.04888078570365906, 0.0397476963698864, 0.14125500619411469, 0.03822864219546318, 0.05023300275206566, 0.01839555613696575, 0.027386929839849472], [0.3439157009124756, 0.025465942919254303, 0.014139973558485508, 0.0505269356071949, 0.03346177563071251, 0.03203125298023224, 0.04076694697141647, 0.06372793763875961, 0.030924007296562195, 0.013536520302295685, 0.027588706463575363, 0.014469689689576626, 0.032860931009054184, 0.02426559291779995, 0.03686526045203209, 0.04023383557796478, 0.060240015387535095, 0.03232309967279434, 0.024136485531926155, 0.02282053232192993, 0.03569892421364784]], [[0.06077029928565025, 0.01177099160850048, 0.038168516010046005, 0.17845283448696136, 0.031917374581098557, 0.014584647491574287, 0.04138187691569328, 0.024820763617753983, 0.016451772302389145, 0.04983927682042122, 0.01812616176903248, 0.055000439286231995, 0.03618423268198967, 0.017571814358234406, 0.07079807668924332, 0.05261940509080887, 0.06529320776462555, 0.017719605937600136, 0.05717030540108681, 0.053948331624269485, 0.08740998804569244], [0.05606342479586601, 0.04608827084302902, 0.106960229575634, 0.03606686368584633, 0.06836362183094025, 0.058998625725507736, 0.048740457743406296, 0.04844517633318901, 0.050185855478048325, 0.020919332280755043, 0.02945730648934841, 0.07556623965501785, 0.04549479857087135, 0.034284137189388275, 0.023089183494448662, 0.025119587779045105, 0.029003432020545006, 0.025278912857174873, 0.010819428600370884, 0.012776072137057781, 0.1482790857553482], [0.046571262180805206, 0.04036581888794899, 0.0654299333691597, 0.1408437341451645, 0.021917616948485374, 0.03385620564222336, 0.0656052976846695, 0.04840658977627754, 0.036946289241313934, 0.08139455318450928, 0.02723139524459839, 0.04534907266497612, 0.017807265743613243, 0.023254606872797012, 0.05805596709251404, 0.03199226036667824, 0.05885893478989601, 0.02322615124285221, 0.03881791606545448, 0.039039913564920425, 0.055029235780239105], [0.016895554959774017, 0.01625911518931389, 0.13156501948833466, 0.16519246995449066, 0.09181265532970428, 0.08662253618240356, 0.07687702029943466, 0.06454663723707199, 0.015554019249975681, 0.06866269558668137, 0.008569317869842052, 0.04730271175503731, 0.02147861197590828, 0.006840146612375975, 0.0511133149266243, 0.016271153464913368, 0.03814232721924782, 0.006394993048161268, 0.019204868003726006, 0.015361894853413105, 0.03533291816711426], [0.08735361695289612, 0.023032207041978836, 0.07679560780525208, 0.05504994094371796, 0.0719827264547348, 0.043401088565588, 0.03651813417673111, 0.05201414227485657, 0.029576685279607773, 0.042076341807842255, 0.023705163970589638, 0.07183608412742615, 0.06556017696857452, 0.021652037277817726, 0.05893460288643837, 0.020802460610866547, 0.041402868926525116, 0.020960897207260132, 0.031706761568784714, 0.026501847431063652, 0.09913661330938339], [0.06811673939228058, 0.022937551140785217, 0.07172232121229172, 0.06983260810375214, 0.05487670376896858, 0.08734742552042007, 0.0679563507437706, 0.03878270089626312, 0.02792372740805149, 0.052375804632902145, 0.02346702292561531, 0.0815809816122055, 0.05683409422636032, 0.0207967609167099, 0.05897020548582077, 0.016184447333216667, 0.035163912922143936, 0.018092913553118706, 0.03753422200679779, 0.01808406226336956, 0.07141935080289841], [0.0249179620295763, 0.020828617736697197, 0.10949090123176575, 0.10630778968334198, 0.036588795483112335, 0.022493254393339157, 0.17604131996631622, 0.0487925224006176, 0.022995078936219215, 0.04227106273174286, 0.019538603723049164, 0.09688863158226013, 0.019563816487789154, 0.014028756879270077, 0.045446526259183884, 0.0626358613371849, 0.05902654305100441, 0.013414417393505573, 0.028099944815039635, 0.013820210471749306, 0.016809413209557533], [0.08933898061513901, 0.020842811092734337, 0.053443361073732376, 0.058686260133981705, 0.03892193362116814, 0.03345465660095215, 0.1025325134396553, 0.057790607213974, 0.02894812822341919, 0.04202628880739212, 0.024202147498726845, 0.07085654139518738, 0.05483194813132286, 0.022751713171601295, 0.05638280510902405, 0.04287964105606079, 0.0552464984357357, 0.022496074438095093, 0.03331220522522926, 0.025983372703194618, 0.06507157534360886], [0.07862942665815353, 0.027654187753796577, 0.07598820328712463, 0.02042163349688053, 0.05325978249311447, 0.04771638289093971, 0.05385706573724747, 0.054407332092523575, 0.03879862278699875, 0.036861103028059006, 0.029627181589603424, 0.07869414240121841, 0.04797355458140373, 0.028271088376641273, 0.032621532678604126, 0.03370154649019241, 0.031911060214042664, 0.024410219863057137, 0.021935727447271347, 0.01799704134464264, 0.16526314616203308], [0.042384568601846695, 0.029843885451555252, 0.062482334673404694, 0.05910079553723335, 0.008887444622814655, 0.004427018109709024, 0.13214096426963806, 0.02057207003235817, 0.03742916136980057, 0.05130739137530327, 0.041216179728507996, 0.12612350285053253, 0.020767109468579292, 0.041447676718235016, 0.06078049913048744, 0.041341230273246765, 0.025378694757819176, 0.03857804462313652, 0.08935140073299408, 0.043415144085884094, 0.02302492782473564], [0.10500731319189072, 0.025228381156921387, 0.06445454061031342, 0.020020654425024986, 0.0432068407535553, 0.04096310958266258, 0.0484965555369854, 0.042761221528053284, 0.03599398955702782, 0.03487396985292435, 0.03190300613641739, 0.08267443627119064, 0.04529154673218727, 0.028086066246032715, 0.03060615248978138, 0.03475314378738403, 0.035173218697309494, 0.026368992403149605, 0.02365882508456707, 0.01685653254389763, 0.18362155556678772], [0.0583551861345768, 0.03063601441681385, 0.046332426369190216, 0.09346947818994522, 0.01661689020693302, 0.02512475848197937, 0.06365624815225601, 0.04919913411140442, 0.030834810808300972, 0.08572182804346085, 0.031887054443359375, 0.05299796164035797, 0.020177407190203667, 0.02483866550028324, 0.06147201731801033, 0.04475408419966698, 0.06435336917638779, 0.02633434161543846, 0.056127529591321945, 0.054569512605667114, 0.06254126131534576], [0.06291081011295319, 0.02616436779499054, 0.055318377912044525, 0.03655356913805008, 0.06460635364055634, 0.043208975344896317, 0.027613895013928413, 0.05406314507126808, 0.034092389047145844, 0.03214959427714348, 0.03115958906710148, 0.06550291180610657, 0.08698759227991104, 0.03292763605713844, 0.05283001437783241, 0.026395555585622787, 0.04000438377261162, 0.03135891631245613, 0.03705640137195587, 0.040062177926301956, 0.1190333366394043], [0.07373150438070297, 0.032938528805971146, 0.05905706062912941, 0.018610915169119835, 0.04015404358506203, 0.04096939414739609, 0.034882985055446625, 0.03703368827700615, 0.04136669263243675, 0.026742760092020035, 0.03525152802467346, 0.06654714047908783, 0.047351233661174774, 0.04119090363383293, 0.029371587559580803, 0.03348058834671974, 0.029420513659715652, 0.03580073267221451, 0.02854977175593376, 0.023782070726156235, 0.22376634180545807], [0.16454476118087769, 0.012305974960327148, 0.04044615104794502, 0.06889066100120544, 0.039124272763729095, 0.021653911098837852, 0.05856594070792198, 0.01386351604014635, 0.0087509173899889, 0.08821593225002289, 0.010228537023067474, 0.03485531732439995, 0.027149569243192673, 0.011656900867819786, 0.23419630527496338, 0.039593663066625595, 0.023577451705932617, 0.009318210184574127, 0.05829296261072159, 0.01797223649919033, 0.016796797513961792], [0.02839772403240204, 0.014728064648807049, 0.04203379899263382, 0.13828587532043457, 0.027908943593502045, 0.026343664154410362, 0.08346405625343323, 0.032397039234638214, 0.018276946619153023, 0.03809962049126625, 0.017978636547923088, 0.06184271350502968, 0.04245150089263916, 0.016778742894530296, 0.09562978893518448, 0.058617569506168365, 0.12368690967559814, 0.018778130412101746, 0.018359467387199402, 0.030308621004223824, 0.06563219428062439], [0.006481626536697149, 0.00342316715978086, 0.031171312555670738, 0.15333198010921478, 0.02881898172199726, 0.014712546952068806, 0.08791020512580872, 0.06884116679430008, 0.005763874854892492, 0.0311181228607893, 0.0038779969327151775, 0.03201126679778099, 0.038626618683338165, 0.0042239222675561905, 0.06756416708230972, 0.0710534080862999, 0.21995505690574646, 0.005426518153399229, 0.021714068949222565, 0.04035375267267227, 0.06362020969390869], [0.1469159871339798, 0.022656235843896866, 0.04984358325600624, 0.015096268616616726, 0.025327948853373528, 0.02735831029713154, 0.03578297793865204, 0.02445553056895733, 0.025286611169576645, 0.023434685543179512, 0.024073729291558266, 0.05785960704088211, 0.029413461685180664, 0.027461834251880646, 0.030485974624753, 0.033904582262039185, 0.0322575643658638, 0.030274266377091408, 0.029949916526675224, 0.02034781686961651, 0.28781306743621826], [0.09427638351917267, 0.006780342664569616, 0.04583641141653061, 0.04269285500049591, 0.04278989136219025, 0.016165753826498985, 0.043421413749456406, 0.06034332886338234, 0.009678992442786694, 0.048884980380535126, 0.009304878301918507, 0.06873881816864014, 0.05835477635264397, 0.013574443757534027, 0.06386622786521912, 0.0715649425983429, 0.05050985515117645, 0.012811901047825813, 0.0480571985244751, 0.07538892328739166, 0.11695762723684311], [0.11730451881885529, 0.016890719532966614, 0.03039214387536049, 0.02982485108077526, 0.01865263842046261, 0.013250994496047497, 0.05311533063650131, 0.04807150363922119, 0.02069299854338169, 0.02961522340774536, 0.019923891872167587, 0.035592544823884964, 0.0277367252856493, 0.026584379374980927, 0.04554123058915138, 0.047714460641145706, 0.050921086221933365, 0.0314328558743, 0.0393136665225029, 0.06460894644260406, 0.23281924426555634], [0.3290671110153198, 0.010465866886079311, 0.05040915310382843, 0.0832400992512703, 0.01745026558637619, 0.02253061905503273, 0.06923086196184158, 0.022386224940419197, 0.008442671038210392, 0.03239813819527626, 0.009272423572838306, 0.055388811975717545, 0.01547741238027811, 0.008396039716899395, 0.04635969549417496, 0.035252414643764496, 0.049523353576660156, 0.01153077557682991, 0.04245763272047043, 0.01583726704120636, 0.06488306075334549]], [[0.045707736164331436, 0.016139568760991096, 0.01399163343012333, 0.2829452157020569, 0.02921128086745739, 0.011047094129025936, 0.04427354410290718, 0.01796497032046318, 0.017605407163500786, 0.04066174849867821, 0.02055387943983078, 0.012811969965696335, 0.02761191688477993, 0.014945071190595627, 0.18370884656906128, 0.012377752922475338, 0.030558621510863304, 0.01905149407684803, 0.07912001758813858, 0.03310727700591087, 0.046604931354522705], [0.007279102224856615, 0.0729474201798439, 0.024980071932077408, 0.01692407764494419, 0.08938226848840714, 0.18997295200824738, 0.03974892571568489, 0.021880656480789185, 0.07415758073329926, 0.008820057846605778, 0.06348156183958054, 0.0268818661570549, 0.0878436490893364, 0.06543183326721191, 0.008380750194191933, 0.019787751138210297, 0.021987736225128174, 0.06962661445140839, 0.009058122523128986, 0.055102940648794174, 0.026324095204472542], [0.00706455297768116, 0.06017883121967316, 0.024594467133283615, 0.05979978293180466, 0.03350355848670006, 0.04298126697540283, 0.050589583814144135, 0.03897419944405556, 0.0683412104845047, 0.04474473372101784, 0.06667008250951767, 0.029931629076600075, 0.03582606464624405, 0.0548260472714901, 0.02209661342203617, 0.029679162427783012, 0.05250249803066254, 0.06511025130748749, 0.025610970333218575, 0.09387920051813126, 0.09309525042772293], [0.0395083948969841, 0.049510400742292404, 0.04491209238767624, 0.10456747561693192, 0.0330074168741703, 0.03844604268670082, 0.04010462388396263, 0.017700135707855225, 0.03858577832579613, 0.09631824493408203, 0.04277177155017853, 0.03650987520813942, 0.029669567942619324, 0.04082910716533661, 0.1227724701166153, 0.009419887326657772, 0.019979260861873627, 0.04418640956282616, 0.046321459114551544, 0.012186575680971146, 0.09269287437200546], [0.00900354515761137, 0.054558005183935165, 0.01917152665555477, 0.09909377992153168, 0.07613527774810791, 0.077472023665905, 0.04577687755227089, 0.03549821674823761, 0.06121350824832916, 0.019305747002363205, 0.054231707006692886, 0.020270705223083496, 0.07233036309480667, 0.060437049716711044, 0.03495784476399422, 0.05386132001876831, 0.05291519686579704, 0.055616624653339386, 0.02088015526533127, 0.06284088641405106, 0.014429610222578049], [0.007779598701745272, 0.05472053959965706, 0.027844633907079697, 0.060460224747657776, 0.11931736022233963, 0.12743161618709564, 0.03869088366627693, 0.026291264221072197, 0.06025848165154457, 0.01541982963681221, 0.05325758829712868, 0.02770574763417244, 0.10201297700405121, 0.05508587509393692, 0.02458028867840767, 0.033003274351358414, 0.04321252554655075, 0.0525391660630703, 0.015440890565514565, 0.04016191512346268, 0.01478533260524273], [0.0010254584485664964, 0.03868197277188301, 0.01746809296309948, 0.02484971471130848, 0.044936180114746094, 0.04263003170490265, 0.0164176132529974, 0.09839800000190735, 0.05454098433256149, 0.013088992796838284, 0.05667547881603241, 0.023980645462870598, 0.049148838967084885, 0.05183466896414757, 0.0245021004229784, 0.034692827612161636, 0.05938239023089409, 0.052733395248651505, 0.03110864944756031, 0.0728989690542221, 0.1910049468278885], [0.008201546967029572, 0.044192615896463394, 0.020442495122551918, 0.09508322179317474, 0.08572341501712799, 0.1127338632941246, 0.045631710439920425, 0.042399097234010696, 0.05874019116163254, 0.013008357025682926, 0.045898210257291794, 0.02157936431467533, 0.07517101615667343, 0.04904397204518318, 0.021558044478297234, 0.05627337843179703, 0.05662970989942551, 0.044232215732336044, 0.026994094252586365, 0.060444146394729614, 0.016019415110349655], [0.01169727835804224, 0.060064610093832016, 0.0300888791680336, 0.019764669239521027, 0.09164693206548691, 0.19896432757377625, 0.052918825298547745, 0.02205568552017212, 0.06166692450642586, 0.01732621155679226, 0.048973001539707184, 0.032778169959783554, 0.0890837237238884, 0.057240042835474014, 0.01165330596268177, 0.028266748413443565, 0.028381112962961197, 0.053921982645988464, 0.011295318603515625, 0.05141345411539078, 0.020798860117793083], [0.005764502100646496, 0.04310515895485878, 0.056449923664331436, 0.06737084686756134, 0.0565231591463089, 0.05036269128322601, 0.03189368546009064, 0.04501313716173172, 0.052414942532777786, 0.05217331647872925, 0.04181504249572754, 0.07116434723138809, 0.07095378637313843, 0.05519978702068329, 0.07841546833515167, 0.030921896919608116, 0.03423413261771202, 0.03811316564679146, 0.02563946694135666, 0.06941311061382294, 0.023058541119098663], [0.011275256052613258, 0.057726114988327026, 0.0337093286216259, 0.01823233999311924, 0.08442122489213943, 0.19208605587482452, 0.06107404828071594, 0.02447781339287758, 0.0628739669919014, 0.017474113032221794, 0.04884226247668266, 0.03734483942389488, 0.08230343461036682, 0.05832377448678017, 0.012690090574324131, 0.032972998917102814, 0.029069483280181885, 0.0538007952272892, 0.011597353033721447, 0.05290999263525009, 0.016794687137007713], [0.009881312027573586, 0.04775471240282059, 0.030662860721349716, 0.06429650634527206, 0.026527512818574905, 0.03309014067053795, 0.06930923461914062, 0.044134579598903656, 0.057894304394721985, 0.06175655871629715, 0.054775409400463104, 0.03789116442203522, 0.028445851057767868, 0.04891982674598694, 0.03139081597328186, 0.03559025377035141, 0.060190826654434204, 0.0532861091196537, 0.03418027609586716, 0.08574330061674118, 0.08427847921848297], [0.00824318639934063, 0.04645821824669838, 0.01647457666695118, 0.10757295787334442, 0.07843001931905746, 0.07676731050014496, 0.057122908532619476, 0.034291259944438934, 0.05576939508318901, 0.0200971607118845, 0.0494072362780571, 0.018266955390572548, 0.07363135367631912, 0.055871687829494476, 0.04211316257715225, 0.05284177511930466, 0.05620419979095459, 0.05085189640522003, 0.021912116557359695, 0.06355259567499161, 0.014120029285550117], [0.01173827052116394, 0.05464647710323334, 0.030370935797691345, 0.02049565687775612, 0.08502665162086487, 0.18887071311473846, 0.062317024916410446, 0.023810088634490967, 0.059440698474645615, 0.018665757030248642, 0.04900939017534256, 0.035256143659353256, 0.08374059945344925, 0.05496244877576828, 0.014318201690912247, 0.02860679291188717, 0.02938411757349968, 0.054939158260822296, 0.013730025850236416, 0.05803265422582626, 0.02263820543885231], [0.03396843001246452, 0.032133352011442184, 0.08793742209672928, 0.05825655534863472, 0.013352841138839722, 0.01636483147740364, 0.04153470695018768, 0.03418225422501564, 0.03163515031337738, 0.09503281861543655, 0.03269599750638008, 0.09282226860523224, 0.01321339514106512, 0.03127656131982803, 0.06329256296157837, 0.03462037444114685, 0.04011020064353943, 0.03149425610899925, 0.06629085540771484, 0.02950137108564377, 0.12028375267982483], [0.009310907684266567, 0.036243416368961334, 0.022233081981539726, 0.13195425271987915, 0.03528687357902527, 0.022481484338641167, 0.053309086710214615, 0.07060157507658005, 0.05081329867243767, 0.04207869991660118, 0.04558790102601051, 0.025492576882243156, 0.03757903724908829, 0.04855464771389961, 0.1056826114654541, 0.04614207521080971, 0.051697127521038055, 0.04050332307815552, 0.054341066628694534, 0.049169763922691345, 0.020937258377671242], [0.011320714838802814, 0.0417756661772728, 0.02412676066160202, 0.11988835036754608, 0.13325802981853485, 0.09671982377767563, 0.03431585431098938, 0.025504378601908684, 0.04495833069086075, 0.010930205695331097, 0.03708074986934662, 0.023728130385279655, 0.1253635734319687, 0.040632326155900955, 0.03706736117601395, 0.03957271948456764, 0.031985342502593994, 0.03752947226166725, 0.02243281714618206, 0.03437619283795357, 0.02743319422006607], [0.018176931887865067, 0.045354366302490234, 0.025669360533356667, 0.02310774475336075, 0.09034520387649536, 0.18938368558883667, 0.07224856317043304, 0.023222384974360466, 0.052555520087480545, 0.015114485286176205, 0.041075367480516434, 0.03161105513572693, 0.0933523178100586, 0.0507284440100193, 0.014545327983796597, 0.03940574824810028, 0.033943843096494675, 0.04776770994067192, 0.01244905311614275, 0.05939272418618202, 0.020550137385725975], [0.011579698882997036, 0.02561088465154171, 0.02378380112349987, 0.026638874784111977, 0.04270419105887413, 0.06654109805822372, 0.07440409809350967, 0.0231804009526968, 0.035817015916109085, 0.16476023197174072, 0.03335871174931526, 0.027824390679597855, 0.04584026336669922, 0.0336962565779686, 0.17861786484718323, 0.015410056337714195, 0.007468060124665499, 0.03203568607568741, 0.0414985753595829, 0.06793691217899323, 0.021293029189109802], [0.009750922210514545, 0.04695950448513031, 0.021528711542487144, 0.03792417421936989, 0.05662298947572708, 0.10272233188152313, 0.04698051139712334, 0.05574152618646622, 0.060862354934215546, 0.013741211034357548, 0.05553799867630005, 0.028167570009827614, 0.06433070451021194, 0.06116921827197075, 0.02964252606034279, 0.05589109659194946, 0.05226501077413559, 0.05954898148775101, 0.03813766688108444, 0.07772442698478699, 0.024750618264079094], [0.01827070489525795, 0.06146097555756569, 0.025670137256383896, 0.05322721228003502, 0.09991167485713959, 0.11608203500509262, 0.027044570073485374, 0.027070892974734306, 0.05903021618723869, 0.024912185966968536, 0.05586138740181923, 0.02494417503476143, 0.096620112657547, 0.04863492026925087, 0.02161521650850773, 0.020750897005200386, 0.0272663626819849, 0.058874741196632385, 0.030942043289542198, 0.04019198194146156, 0.06161751225590706]], [[0.015177851542830467, 0.07238352298736572, 0.0350949764251709, 0.05309166759252548, 0.08393530547618866, 0.07502219825983047, 0.03151920437812805, 0.024768654257059097, 0.06401502341032028, 0.06260176002979279, 0.05762526020407677, 0.02817215956747532, 0.06862959265708923, 0.06152469664812088, 0.027189085260033607, 0.04927787929773331, 0.020928790792822838, 0.06141403689980507, 0.024573463946580887, 0.03603895753622055, 0.0470159649848938], [0.0018796301446855068, 0.0915028303861618, 0.023550929501652718, 0.21346279978752136, 0.22121144831180573, 0.20614171028137207, 0.013397285714745522, 0.01529359444975853, 0.051081810146570206, 0.004211351275444031, 0.04218931868672371, 0.0047007352113723755, 0.025543315336108208, 0.024647338315844536, 0.0025657047517597675, 0.012640020810067654, 0.005481256637722254, 0.012527788057923317, 0.0051861838437616825, 0.008996942080557346, 0.013787977397441864], [0.04177194833755493, 0.039840538054704666, 0.05952873080968857, 0.1623743772506714, 0.01098813395947218, 0.09956568479537964, 0.24967798590660095, 0.0454084537923336, 0.030745165422558784, 0.11111190170049667, 0.02887827157974243, 0.03110334649682045, 0.0015912121161818504, 0.017399288713932037, 0.014721822924911976, 0.006444524507969618, 0.0006078433361835778, 0.005288304295390844, 0.02772701345384121, 0.00747896870598197, 0.007746588904410601], [0.029644211754202843, 0.06526999920606613, 0.040456321090459824, 0.1555633395910263, 0.055179573595523834, 0.15632225573062897, 0.07459293305873871, 0.09773920476436615, 0.07077642530202866, 0.019881319254636765, 0.04024452716112137, 0.019174624234437943, 0.005761558655649424, 0.021346518769860268, 0.01145328301936388, 0.03816573694348335, 0.07759889215230942, 0.00592787703499198, 0.0004180658143013716, 0.007458115462213755, 0.007025195751339197], [0.04573396220803261, 0.02037518471479416, 0.0551399290561676, 0.09187500923871994, 0.004816560540348291, 0.2007196992635727, 0.27351415157318115, 0.1002303883433342, 0.03550294041633606, 0.023981159552931786, 0.016574781388044357, 0.05081712454557419, 0.0014567873440682888, 0.00969186332076788, 0.006104340311139822, 0.013096574693918228, 0.016050968319177628, 0.00417336355894804, 0.017461713403463364, 0.005733978468924761, 0.006949461065232754], [0.07345973700284958, 0.027020977810025215, 0.07350935786962509, 0.09944047033786774, 0.019888173788785934, 0.03984728083014488, 0.23498083651065826, 0.1324089914560318, 0.06867288798093796, 0.05364033579826355, 0.02594679221510887, 0.06854744255542755, 0.014163162559270859, 0.018145378679037094, 0.01181509904563427, 0.00512244226410985, 0.0033695483580231667, 0.006012814585119486, 0.01241886056959629, 0.004836098290979862, 0.006753315217792988], [0.0034498374443501234, 0.007173079065978527, 0.013597827404737473, 0.013389982283115387, 0.005215913988649845, 0.00846684630960226, 0.003363590221852064, 0.024430999532341957, 0.044506777077913284, 0.8123506903648376, 0.018298741430044174, 0.012408480979502201, 0.0035813204012811184, 0.007254692260175943, 0.0020133922807872295, 0.0008482803823426366, 0.0025149111170321703, 0.003382109571248293, 0.011036605574190617, 0.0018753675976768136, 0.0008405416156165302], [0.028818102553486824, 0.031352248042821884, 0.027190985158085823, 0.06325004249811172, 0.031321726739406586, 0.0628151074051857, 0.04764857143163681, 0.03906482830643654, 0.13863028585910797, 0.2249954491853714, 0.10182167589664459, 0.04489307478070259, 0.020178398117423058, 0.028521722182631493, 0.021720869466662407, 0.02084859274327755, 0.013353330083191395, 0.013041027821600437, 0.017453458160161972, 0.01171762216836214, 0.011362798511981964], [0.0024999482557177544, 0.03375517949461937, 0.0065162270329892635, 0.03538249433040619, 0.04803834483027458, 0.09758613258600235, 0.010472998954355717, 0.01701214723289013, 0.12019256502389908, 0.035810619592666626, 0.26604098081588745, 0.03303753212094307, 0.06896347552537918, 0.06822366267442703, 0.0063545843586325645, 0.061352770775556564, 0.026971492916345596, 0.03455125913023949, 0.005687138065695763, 0.008694978430867195, 0.012855530716478825], [0.0887686014175415, 0.03332378715276718, 0.030828706920146942, 0.07133254408836365, 0.00486880773678422, 0.02240789122879505, 0.08868038654327393, 0.041150402277708054, 0.06511715054512024, 0.05847170948982239, 0.15998345613479614, 0.15769943594932556, 0.012382704764604568, 0.07550995796918869, 0.009954549372196198, 0.00797353032976389, 0.004531623795628548, 0.02714844048023224, 0.02875528112053871, 0.00608188146725297, 0.005029098130762577], [0.002525253454223275, 0.03224073722958565, 0.005211873445659876, 0.01873478852212429, 0.03246248885989189, 0.06818021833896637, 0.012539218179881573, 0.012706363573670387, 0.05289893224835396, 0.00734470272436738, 0.11362048238515854, 0.034788828343153, 0.19945694506168365, 0.18179892003536224, 0.012079574167728424, 0.07303764671087265, 0.03484150394797325, 0.05839360132813454, 0.008453293703496456, 0.016980383545160294, 0.021704183891415596], [0.04492812231183052, 0.015144573524594307, 0.016969118267297745, 0.019322451204061508, 0.0010163476690649986, 0.016064831987023354, 0.17217840254306793, 0.03561076521873474, 0.028933892026543617, 0.08067234605550766, 0.033222272992134094, 0.0820237547159195, 0.00833082664757967, 0.13719242811203003, 0.10123149305582047, 0.038125257939100266, 0.0037214825861155987, 0.02949765883386135, 0.09451045840978622, 0.026022324338555336, 0.015281235799193382], [0.03903697803616524, 0.006074056029319763, 0.02162553369998932, 0.04087924584746361, 0.0012614382430911064, 0.024149881675839424, 0.04227139428257942, 0.02971215546131134, 0.019536752253770828, 0.023964479565620422, 0.015552982687950134, 0.07330931723117828, 0.005320574156939983, 0.05786538124084473, 0.07036717981100082, 0.11120525747537613, 0.13887307047843933, 0.019986705854535103, 0.11353584378957748, 0.07499528676271439, 0.07047658413648605], [0.00229180627502501, 0.024014994502067566, 0.0028721371199935675, 0.013306865468621254, 0.027190931141376495, 0.04653863236308098, 0.004154474940150976, 0.008449775166809559, 0.041840676218271255, 0.007948517799377441, 0.04955993965268135, 0.006961754057556391, 0.0526510588824749, 0.09468711912631989, 0.022955916821956635, 0.25209343433380127, 0.13492430746555328, 0.09288152307271957, 0.014846710488200188, 0.035753872245550156, 0.06407544761896133], [0.006107764784246683, 0.03171974793076515, 0.0038833164144307375, 0.007907398976385593, 0.0011749520199373364, 0.006437079049646854, 0.02750280313193798, 0.007676388137042522, 0.033954132348299026, 0.010693900287151337, 0.05794758349657059, 0.006857123225927353, 0.0017642054008319974, 0.045962970703840256, 0.031094824895262718, 0.16176219284534454, 0.3548910915851593, 0.15106889605522156, 0.005891032516956329, 0.02388877049088478, 0.021813906729221344], [0.022412404417991638, 0.02391122654080391, 0.006044319830834866, 0.010296577587723732, 0.0026365516241639853, 0.005234136246144772, 0.00416598143056035, 0.005049173254519701, 0.014235394075512886, 0.009278778918087482, 0.02179761230945587, 0.009189384989440441, 0.005744402762502432, 0.025697175413370132, 0.02186141535639763, 0.049726735800504684, 0.31251388788223267, 0.19680355489253998, 0.06395405530929565, 0.081680066883564, 0.10776712000370026], [0.0030543096363544464, 0.013139510527253151, 0.009362662211060524, 0.00700795091688633, 0.000975868315435946, 0.00599311338737607, 0.003128358395770192, 0.00252219894900918, 0.009153186343610287, 0.011117273010313511, 0.017691070213913918, 0.014808924868702888, 0.0041190399788320065, 0.0244319885969162, 0.006449729669839144, 0.18444955348968506, 0.07601889967918396, 0.16783572733402252, 0.04274095967411995, 0.25779417157173157, 0.138205423951149], [0.0018285438418388367, 0.015659281983971596, 0.002996347611770034, 0.009271829389035702, 0.012602146714925766, 0.012935690581798553, 0.00148674170486629, 0.0018664936069399118, 0.009393931366503239, 0.0012399667175486684, 0.016351785510778427, 0.0031813322566449642, 0.024864094331860542, 0.03845788910984993, 0.006679263897240162, 0.05250692740082741, 0.040075451135635376, 0.11835011839866638, 0.07258744537830353, 0.19012024998664856, 0.36754441261291504], [0.03706629201769829, 0.01038434449583292, 0.0031287595629692078, 0.012165640480816364, 0.0008814406464807689, 0.0024020120035856962, 0.008734534494578838, 0.005650755483657122, 0.006588612217456102, 0.007443854585289955, 0.014413594268262386, 0.006234576925635338, 0.0013399753952398896, 0.02798987366259098, 0.052061520516872406, 0.048757389187812805, 0.04436706006526947, 0.07632766664028168, 0.011875596828758717, 0.17988763749599457, 0.44229888916015625], [0.013794353231787682, 0.004231827799230814, 0.00332626118324697, 0.004042299930006266, 0.006202423479408026, 0.00829616654664278, 0.003715978469699621, 0.0016387918731197715, 0.002014926867559552, 0.0025422999169677496, 0.0037654165644198656, 0.004847369622439146, 0.004646955989301205, 0.007654243148863316, 0.014190557412803173, 0.037050917744636536, 0.06085820496082306, 0.023922836408019066, 0.1912769079208374, 0.08605913072824478, 0.5159221291542053], [0.013101033866405487, 0.02811328135430813, 0.0023130911868065596, 0.00470275292173028, 0.0028414481785148382, 0.017677683383226395, 0.00448173563927412, 0.004072172567248344, 0.014977118000388145, 0.0008772423025220633, 0.01494924258440733, 0.0025091550778597593, 0.002511815167963505, 0.031890932470560074, 0.008300310000777245, 0.0339764729142189, 0.02179851569235325, 0.179966539144516, 0.02225029282271862, 0.15331651270389557, 0.43537265062332153]], [[0.057378802448511124, 0.08208822458982468, 0.09395857900381088, 0.03326951712369919, 0.06588380038738251, 0.06023627519607544, 0.09604278951883316, 0.07674739509820938, 0.042601823806762695, 0.031156599521636963, 0.03327099233865738, 0.05078519135713577, 0.041792090982198715, 0.030078867450356483, 0.032362956553697586, 0.024492044001817703, 0.019888395443558693, 0.032681141048669815, 0.0373002327978611, 0.035437263548374176, 0.022546978667378426], [0.006372537463903427, 0.6098783016204834, 0.04470856860280037, 0.01762434095144272, 0.023433543741703033, 0.07667616754770279, 0.10646959394216537, 0.025367677211761475, 0.012377992272377014, 0.0065040127374231815, 0.006833055056631565, 0.004186905454844236, 0.005995137616991997, 0.0017009744187816978, 0.003517303615808487, 0.008438429795205593, 0.019781673327088356, 0.015949971973896027, 0.003403222421184182, 0.0006957274163141847, 8.484150021104142e-05], [0.0011048221495002508, 0.8726695775985718, 0.046933118253946304, 0.03901725262403488, 0.004711000248789787, 0.0056915865279734135, 0.005671303253620863, 0.012551049701869488, 0.0033946495968848467, 0.0004967921995557845, 0.0005246003274805844, 0.00015595160948578268, 0.0017695006681606174, 0.00022600531519856304, 5.551872163778171e-05, 5.131935540703125e-05, 0.0003875841211993247, 0.0030821594409644604, 0.0013104337267577648, 0.00019161697127856314, 4.173047727817902e-06], [0.02700936421751976, 0.1933390200138092, 0.5167403221130371, 0.2515038251876831, 0.0023046480491757393, 0.0006444790633395314, 0.002495103981345892, 0.0012832125648856163, 0.0021284620743244886, 0.0008302827482111752, 0.0001270405773539096, 8.386930858250707e-05, 9.942226461134851e-05, 0.0002463548444211483, 7.694855594309047e-05, 2.207182660640683e-06, 9.822413176152622e-07, 5.438733205664903e-05, 0.0008183300378732383, 0.00020732489065267146, 4.373031970317243e-06], [0.00010495124297449365, 0.0055508725345134735, 0.014460967853665352, 0.9587412476539612, 0.0143130486831069, 0.0014139848062768579, 0.00027762207901105285, 5.12739788973704e-05, 0.001301614218391478, 0.001950600417330861, 0.0013317691627889872, 4.221292329020798e-05, 5.841429810971022e-06, 0.00013826203939970583, 6.91204986651428e-05, 1.2771698493452277e-05, 6.789783810745575e-07, 5.4695528888260014e-06, 1.6036801753216423e-05, 0.00011862685641972348, 9.301907266490161e-05], [9.0245739556849e-05, 0.0017296622972935438, 0.0014127834001556039, 0.4750526547431946, 0.4779067933559418, 0.02488699182868004, 0.0077449181117117405, 0.00018643120711203665, 0.0008398413774557412, 0.0013093352317810059, 0.007657140493392944, 0.0004529937286861241, 9.343779674964026e-05, 0.000191775310668163, 9.070442320080474e-05, 0.00012764395796693861, 1.1652495231828652e-05, 7.468129297194537e-06, 1.586684675203287e-06, 1.0809383638843428e-05, 0.00019516424799803644], [0.0029127742163836956, 0.0004709026252385229, 0.0004672952927649021, 0.007604152429848909, 0.2117408663034439, 0.7366571426391602, 0.03053303435444832, 0.002233839128166437, 0.0003969281679019332, 0.0003614914894569665, 0.0013492628931999207, 0.002816023537889123, 0.0021128314547240734, 0.00010293628292856738, 4.601492764777504e-05, 7.025618106126785e-05, 9.72780617303215e-05, 1.5038347555673681e-05, 2.641836545080878e-06, 8.91122965640534e-07, 8.391089068027213e-06], [0.00015606204397045076, 0.003084977390244603, 0.0006807645549997687, 0.0015972753753885627, 0.004227527882903814, 0.19845455884933472, 0.736155092716217, 0.035471610724925995, 0.01121931429952383, 0.00030287267873063684, 0.0007941771182231605, 0.0015356680378317833, 0.00361042283475399, 0.0022739465348422527, 0.00020975984807591885, 5.039034294895828e-05, 3.5034201573580503e-05, 0.0001278541167266667, 1.1164323950652033e-05, 6.263343834689294e-07, 9.408304322278127e-07], [0.00041248174966312945, 0.002329600043594837, 0.0015026511391624808, 0.0016803499311208725, 0.0010987702989950776, 0.013309515081346035, 0.31297430396080017, 0.3896484375, 0.2617805004119873, 0.004854375030845404, 0.0006928364164195955, 0.0003721218672581017, 0.0033127409406006336, 0.004448897670954466, 0.000967810454312712, 0.00033339502988383174, 0.00011818172788480297, 0.00011286220978945494, 4.441347118699923e-05, 5.266221251076786e-06, 4.342722661476728e-07], [0.009028330445289612, 0.0008415790507569909, 0.0038970578461885452, 0.007174700498580933, 0.0008868930744938552, 0.0009867772459983826, 0.012679193168878555, 0.1133640930056572, 0.7537204027175903, 0.08769827336072922, 0.0036064551677554846, 0.0003438321582507342, 0.00021499482681974769, 0.0016478159232065082, 0.0022651301696896553, 0.0011370406718924642, 0.00016131048323586583, 8.146333857439458e-05, 0.00022693972277920693, 3.49490437656641e-05, 2.784623347906745e-06], [0.0005535178352147341, 0.00035447507980279624, 0.0006407461478374898, 0.0047744098119437695, 0.008982300758361816, 0.00410426314920187, 0.004588268231600523, 0.004309580195695162, 0.1893996000289917, 0.5602415204048157, 0.20458093285560608, 0.0049268160946667194, 0.001104229362681508, 0.0004932516603730619, 0.0026849100831896067, 0.006219176575541496, 0.001568992855027318, 0.0002606608613859862, 0.00012542992772068828, 7.338701107073575e-05, 1.3421939002000727e-05], [0.000789647048804909, 0.0003754906647372991, 0.00013049400877207518, 0.0016175454948097467, 0.015684565529227257, 0.01601315848529339, 0.001887093880213797, 0.0009418849949724972, 0.007640970405191183, 0.06609965860843658, 0.7883743047714233, 0.06485574692487717, 0.02684817649424076, 0.0003947167715523392, 0.0003249628935009241, 0.0015928572975099087, 0.004240947309881449, 0.0018590609543025494, 0.00023685774067416787, 5.481231346493587e-05, 3.698466025525704e-05], [0.000272188161034137, 0.0008275399450212717, 0.00018672925943974406, 0.00014681868196930736, 0.0001007969694910571, 0.0020764966029673815, 0.0046076541766524315, 0.0003424365713726729, 0.001943452749401331, 0.005222744308412075, 0.34567511081695557, 0.5671220421791077, 0.05450696125626564, 0.008541473187506199, 0.00011820242798421532, 0.00011941670527448878, 0.0005246851942501962, 0.007018088363111019, 0.0006174524314701557, 1.9285180314909667e-05, 1.0420842045277823e-05], [0.00021516482229344547, 0.00013344912440516055, 0.00018090085359290242, 0.00013595871860161424, 0.00017789864796213806, 0.0007553608156740665, 0.0032988477032631636, 0.001238059950992465, 0.0010336064733564854, 0.0002674946445040405, 0.0031040001194924116, 0.0399111732840538, 0.8844565749168396, 0.06124135106801987, 0.001302082440815866, 0.0003389818302821368, 0.00020000730000901967, 0.0008668951340951025, 0.0009288168512284756, 0.00019340316066518426, 2.0184055756544694e-05], [0.4774499237537384, 0.00014760166232008487, 0.002195273758843541, 0.0023479401133954525, 0.0005480508552864194, 0.0004997942014597356, 0.0024259150959551334, 0.0060876598581671715, 0.005351756699383259, 0.006294854450970888, 0.0009277077042497694, 0.014932346530258656, 0.16093002259731293, 0.2424291968345642, 0.05032594874501228, 0.00897428672760725, 0.000867815047968179, 0.0007528304704464972, 0.012025557458400726, 0.0038346254732459784, 0.0006509999511763453], [1.3938751180830877e-05, 4.783983240486123e-05, 3.107592783635482e-05, 0.0005233237170614302, 0.0004775188572239131, 0.0003441732842475176, 0.0003056308487430215, 0.00016420771135017276, 0.010643298737704754, 0.002909923903644085, 0.004875699523836374, 0.000629157992079854, 0.0034384208265691996, 0.2862608730792999, 0.6683701276779175, 0.01456325314939022, 0.003699647029861808, 0.001135207712650299, 0.0004979907535016537, 0.00024842374841682613, 0.0008202782482840121], [9.818511898629367e-05, 0.00018477905541658401, 1.6346233678632416e-05, 4.968818757333793e-05, 0.00015775294741615653, 0.0016944196540862322, 0.0016681517008692026, 9.280010272050276e-05, 0.007865270599722862, 0.009399663656949997, 0.02854353003203869, 0.002877006074413657, 0.0005404994590207934, 0.03470780327916145, 0.6610422134399414, 0.16227228939533234, 0.035399068146944046, 0.050918955355882645, 0.0013435028959065676, 0.00011788396659540012, 0.001010148087516427], [0.0005037621012888849, 0.0001647106691962108, 1.1845219887618441e-05, 3.3609755973884603e-06, 4.4943761167814955e-05, 0.0004359919985290617, 0.0008041348773986101, 0.00014389835996553302, 0.00039015672518871725, 0.0006017343839630485, 0.0036285161040723324, 0.0032139592804014683, 0.002426101127639413, 0.0007647470338270068, 0.004295708611607552, 0.11268401890993118, 0.6872144341468811, 0.17168568074703217, 0.010297113098204136, 0.0004491944273468107, 0.00023609335767105222], [0.0021828513126820326, 0.0011288780951872468, 0.00033992683165706694, 1.2859510206908453e-05, 8.860533853294328e-06, 6.899067375343293e-05, 0.00013832964759785682, 0.0003821495338343084, 0.00027184965438209474, 0.0003064941265620291, 0.0005715021979995072, 0.0036773420870304108, 0.011265497654676437, 0.0008710030815564096, 0.0004670712514780462, 0.0023216584231704473, 0.15704724192619324, 0.7179933190345764, 0.09250221401453018, 0.008003364317119122, 0.0004385998472571373], [2.9447226552292705e-05, 0.0026821494102478027, 0.0017935922369360924, 0.0002398931246716529, 1.2565863471536431e-05, 3.5759499041887466e-06, 1.3379761185206007e-05, 6.646460678894073e-05, 0.0012718678917735815, 0.00012938567670062184, 0.0006014502723701298, 0.0003904298646375537, 0.0037974694278091192, 0.009708063676953316, 0.000945728737860918, 0.0004099166835658252, 0.003106284188106656, 0.5313990116119385, 0.38553401827812195, 0.049597132951021194, 0.008268246427178383], [0.0038171957712620497, 4.0764753066468984e-05, 0.00013362373283598572, 0.00028891616966575384, 2.2954198357183486e-05, 7.753221211714845e-07, 3.4069515209012025e-07, 9.968424592443625e-07, 1.8151409676647745e-05, 2.5256385924876668e-05, 4.7864341468084604e-05, 1.2004433301626705e-05, 2.5055966034415178e-05, 0.00018724659457802773, 0.00046750286128371954, 0.00017232124810107052, 0.00013879996549803764, 0.0035960637032985687, 0.15610694885253906, 0.8060445785522461, 0.028852572664618492]], [[0.08922282606363297, 0.03970089182257652, 0.007941503077745438, 0.022203391417860985, 0.02438260056078434, 0.017990415915846825, 0.011284880340099335, 0.016841264441609383, 0.029458647593855858, 0.011844292283058167, 0.029512399807572365, 0.007093023508787155, 0.027954258024692535, 0.025040792301297188, 0.03827006742358208, 0.015371261164546013, 0.027893127873539925, 0.027806073427200317, 0.012543747201561928, 0.015932660549879074, 0.5017119646072388], [0.3338969647884369, 0.06705022603273392, 0.012073840014636517, 0.006274271756410599, 0.03269306570291519, 0.056935086846351624, 0.035728711634874344, 0.012311928905546665, 0.07742992043495178, 0.006737126503139734, 0.0699913427233696, 0.011311755515635014, 0.027535542845726013, 0.0650867447257042, 0.006371843628585339, 0.03819927200675011, 0.01685270294547081, 0.06419779360294342, 0.007082620169967413, 0.014088908210396767, 0.03815034404397011], [0.01005998533219099, 0.020040029659867287, 0.018637487664818764, 0.10582180321216583, 0.018297851085662842, 0.012987104244530201, 0.18531492352485657, 0.01223848294466734, 0.018006710335612297, 0.08462188392877579, 0.019185669720172882, 0.01981421187520027, 0.017732128500938416, 0.022132374346256256, 0.20436327159404755, 0.0162846390157938, 0.022588767111301422, 0.022055629640817642, 0.14435026049613953, 0.008445749059319496, 0.01702105812728405], [0.016738340258598328, 0.011759118176996708, 0.04447518289089203, 0.050244614481925964, 0.029783153906464577, 0.053406283259391785, 0.062134794890880585, 0.02421259693801403, 0.015039927326142788, 0.0370858870446682, 0.01482618972659111, 0.049979567527770996, 0.031851962208747864, 0.013077439740300179, 0.07295706123113632, 0.13457618653774261, 0.15686501562595367, 0.015506420284509659, 0.02443017065525055, 0.09327995777130127, 0.04777010157704353], [0.028729787096381187, 0.030983546748757362, 0.045246586203575134, 0.1217363104224205, 0.03216289356350899, 0.0265954677015543, 0.13274528086185455, 0.0244011078029871, 0.033829715102910995, 0.06305113434791565, 0.028799237683415413, 0.04175795614719391, 0.03593974560499191, 0.029518183320760727, 0.08829444646835327, 0.029685555025935173, 0.05248701944947243, 0.02836615964770317, 0.06834713369607925, 0.028904728591442108, 0.028417952358722687], [0.06301350891590118, 0.02291056327521801, 0.04968339949846268, 0.06291063874959946, 0.028676554560661316, 0.02536243014037609, 0.13209764659404755, 0.05013120174407959, 0.026942914351820946, 0.08580844849348068, 0.02403835952281952, 0.05278508737683296, 0.03601469099521637, 0.029147574678063393, 0.03629360347986221, 0.040718913078308105, 0.06443522125482559, 0.02518879435956478, 0.08641842007637024, 0.02705533802509308, 0.030366679653525352], [0.02030700445175171, 0.01798735372722149, 0.13684993982315063, 0.044828809797763824, 0.06863880157470703, 0.05973333865404129, 0.08974830061197281, 0.011438275687396526, 0.026641476899385452, 0.0313631035387516, 0.02101578749716282, 0.15456336736679077, 0.060893844813108444, 0.018340453505516052, 0.05185408517718315, 0.02769140712916851, 0.02459629997611046, 0.020184140652418137, 0.060565344989299774, 0.04246554151177406, 0.010293405503034592], [0.009430146776139736, 0.01903858780860901, 0.05132637917995453, 0.11302714049816132, 0.03079049661755562, 0.018710516393184662, 0.1267186999320984, 0.047866564244031906, 0.02357133850455284, 0.08807489275932312, 0.022226708009839058, 0.0554422028362751, 0.03262483328580856, 0.0212910957634449, 0.1057233139872551, 0.023436831310391426, 0.050305794924497604, 0.020592743530869484, 0.09388779103755951, 0.023029115051031113, 0.022884836420416832], [0.31693941354751587, 0.060096871107816696, 0.011171115562319756, 0.006068144924938679, 0.04116973280906677, 0.07074932008981705, 0.03243251517415047, 0.01420680247247219, 0.07591162621974945, 0.007917431183159351, 0.06745947897434235, 0.010963447391986847, 0.03660071641206741, 0.06688105314970016, 0.005706886760890484, 0.03280116245150566, 0.016431473195552826, 0.06649676710367203, 0.007816309109330177, 0.017227962613105774, 0.034951772540807724], [0.029027175158262253, 0.010073898360133171, 0.032735664397478104, 0.12885940074920654, 0.02850629948079586, 0.04737432673573494, 0.2226518988609314, 0.02333175018429756, 0.018904926255345345, 0.033272597938776016, 0.017468657344579697, 0.044746581465005875, 0.025767197832465172, 0.015179406851530075, 0.06689143925905228, 0.02799008972942829, 0.04802045226097107, 0.019034041091799736, 0.10529928654432297, 0.0342545211315155, 0.020610356703400612], [0.28770211338996887, 0.057584721595048904, 0.013666193932294846, 0.0061530726961791515, 0.03747675567865372, 0.06928988546133041, 0.03690828010439873, 0.01368949469178915, 0.07934868335723877, 0.00792787317186594, 0.06939069926738739, 0.013785673305392265, 0.03631493076682091, 0.0704946517944336, 0.006802103016525507, 0.037218887358903885, 0.01715335249900818, 0.07114458829164505, 0.009317451156675816, 0.019348682835698128, 0.03928188234567642], [0.0074416035786271095, 0.015722885727882385, 0.02015535719692707, 0.09320862591266632, 0.021049048751592636, 0.014424026943743229, 0.14529412984848022, 0.012168791145086288, 0.017231188714504242, 0.07830241322517395, 0.01846589334309101, 0.022986289113759995, 0.023543737828731537, 0.022791676223278046, 0.22020691633224487, 0.016899164766073227, 0.022165196016430855, 0.022985652089118958, 0.17404641211032867, 0.012610392645001411, 0.01830059476196766], [0.02341936156153679, 0.026355907320976257, 0.033638399094343185, 0.10065197199583054, 0.028992170467972755, 0.021433847025036812, 0.12711894512176514, 0.021598588675260544, 0.03422920033335686, 0.059283528476953506, 0.0311720073223114, 0.03619295358657837, 0.034247953444719315, 0.03218146786093712, 0.11944470554590225, 0.02633434534072876, 0.045293115079402924, 0.03174562007188797, 0.0987478643655777, 0.033673301339149475, 0.034244686365127563], [0.28316178917884827, 0.05239668861031532, 0.010622925125062466, 0.006580715999007225, 0.03597525134682655, 0.06464995443820953, 0.039577972143888474, 0.013178868219256401, 0.07641886174678802, 0.008212439715862274, 0.07000231742858887, 0.011579777114093304, 0.03558730334043503, 0.06870687752962112, 0.00824910681694746, 0.03898295387625694, 0.01974632777273655, 0.07594331353902817, 0.011069066822528839, 0.022659877315163612, 0.04669758677482605], [0.24951869249343872, 0.018156761303544044, 0.02103487215936184, 0.035807766020298004, 0.061166271567344666, 0.08116576820611954, 0.045835886150598526, 0.023347925394773483, 0.029320118948817253, 0.012041487731039524, 0.024226214736700058, 0.02410457283258438, 0.06201302632689476, 0.024042226374149323, 0.015536889433860779, 0.035382628440856934, 0.08368472754955292, 0.028759419918060303, 0.022882457822561264, 0.07216521352529526, 0.02980698272585869], [0.0085368100553751, 0.018149390816688538, 0.023475507274270058, 0.1648862063884735, 0.01847168803215027, 0.012252953834831715, 0.0207905862480402, 0.01363632082939148, 0.01823432743549347, 0.03552289679646492, 0.02169785089790821, 0.030977919697761536, 0.02345554530620575, 0.02108854055404663, 0.2996194362640381, 0.016827493906021118, 0.049089305102825165, 0.02654588781297207, 0.08287565410137177, 0.031553976237773895, 0.062311798334121704], [0.008117886260151863, 0.02628876455128193, 0.03542238473892212, 0.09983133524656296, 0.04533747211098671, 0.03093453124165535, 0.03215588256716728, 0.03170043230056763, 0.03400200605392456, 0.05328137427568436, 0.03789607435464859, 0.04614740610122681, 0.05637466162443161, 0.03678269311785698, 0.14280693233013153, 0.05438198521733284, 0.07061681896448135, 0.04261767491698265, 0.03241147845983505, 0.043425679206848145, 0.0394664965569973], [0.2837482690811157, 0.053360167890787125, 0.0077215442433953285, 0.005853178910911083, 0.033477913588285446, 0.05216790735721588, 0.03187151998281479, 0.012536355294287205, 0.0729808360338211, 0.007294051349163055, 0.07127721607685089, 0.008743394166231155, 0.03591540828347206, 0.07770779728889465, 0.008132094517350197, 0.03724038973450661, 0.01905144564807415, 0.0853220596909523, 0.012753347866237164, 0.02417195402085781, 0.05867310240864754], [0.00520587433129549, 0.00219222204759717, 0.033032018691301346, 0.10377449542284012, 0.005958404392004013, 0.00616105180233717, 0.1177489310503006, 0.019894853234291077, 0.0030924868769943714, 0.14453820884227753, 0.003399754175916314, 0.0576048344373703, 0.008433491922914982, 0.004045604262501001, 0.039476312696933746, 0.010293610394001007, 0.06931929290294647, 0.0050574615597724915, 0.30976659059524536, 0.04073360189795494, 0.010270907543599606], [0.007609478663653135, 0.010615108534693718, 0.043845321983098984, 0.09756697714328766, 0.024782901629805565, 0.023831674829125404, 0.048373665660619736, 0.028410278260707855, 0.01175434235483408, 0.030634785071015358, 0.014485269784927368, 0.0624900721013546, 0.03202136233448982, 0.015971584245562553, 0.056421905755996704, 0.02658272534608841, 0.06574535369873047, 0.019901463761925697, 0.25009989738464355, 0.07916714251041412, 0.049688681960105896], [0.007523589301854372, 0.0006809979095123708, 8.782864460954443e-05, 0.0003553469723556191, 0.00168650783598423, 0.003009348176419735, 0.00013103202218189836, 0.00032223068410530686, 0.0011505810543894768, 5.97223624936305e-05, 0.001046308083459735, 0.00012878286361228675, 0.005011740606278181, 0.001231787377037108, 0.0005970980855636299, 0.0004330409865360707, 0.001938694273121655, 0.001705439412035048, 0.00032372146961279213, 0.0010771987726911902, 0.971498966217041]], [[0.029221247881650925, 0.04059126600623131, 0.024755768477916718, 0.08701612055301666, 0.015179386362433434, 0.06555653363466263, 0.2987150549888611, 0.009750322438776493, 0.021926816552877426, 0.022102896124124527, 0.02839408814907074, 0.022514522075653076, 0.011578850448131561, 0.02346864901483059, 0.1853220909833908, 0.013349683955311775, 0.010271341539919376, 0.017906906083226204, 0.032111357897520065, 0.014950815588235855, 0.025316307321190834], [0.20734325051307678, 0.08879534155130386, 0.007313751615583897, 0.005095300264656544, 0.03827952593564987, 0.030934931710362434, 0.005076277069747448, 0.24852578341960907, 0.08420128375291824, 0.0035597821697592735, 0.06079276651144028, 0.0038431240245699883, 0.02034095674753189, 0.05341460183262825, 0.003246044274419546, 0.0152299664914608, 0.006167898420244455, 0.039009224623441696, 0.0032517826184630394, 0.007892831228673458, 0.06768546998500824], [0.007939384318888187, 0.01316011417657137, 0.02321239560842514, 0.026210278272628784, 0.029152104631066322, 0.025154776871204376, 0.5087965726852417, 0.02031288668513298, 0.012551255524158478, 0.1727137565612793, 0.011076660826802254, 0.01740017719566822, 0.014754426665604115, 0.00884028896689415, 0.022493893280625343, 0.011961367912590504, 0.005480532068759203, 0.006150235887616873, 0.014458280056715012, 0.04416721314191818, 0.004013376776129007], [0.02630261890590191, 0.028487004339694977, 0.043408092111349106, 0.18598179519176483, 0.03318648040294647, 0.05738811939954758, 0.31874218583106995, 0.005875023081898689, 0.0243479423224926, 0.06061006337404251, 0.02227841131389141, 0.031935129314661026, 0.015596163459122181, 0.013482261449098587, 0.035064224153757095, 0.018184779211878777, 0.04603420943021774, 0.008188212290406227, 0.00822449941188097, 0.013341763988137245, 0.0033409595489501953], [0.0382365845143795, 0.048183027654886246, 0.04732045903801918, 0.07039202004671097, 0.0436430387198925, 0.07088359445333481, 0.16614441573619843, 0.07708749920129776, 0.05707705020904541, 0.028600329533219337, 0.04408282786607742, 0.03761058673262596, 0.03128763660788536, 0.03981281816959381, 0.04206276312470436, 0.03005385771393776, 0.016482945531606674, 0.03080686926841736, 0.034038301557302475, 0.02680012211203575, 0.019393302500247955], [0.03343038260936737, 0.04423753172159195, 0.01750349812209606, 0.011117595247924328, 0.04797323793172836, 0.020829394459724426, 0.02817731723189354, 0.39768272638320923, 0.06249640882015228, 0.01539494190365076, 0.048798032104969025, 0.015267222188413143, 0.03800981864333153, 0.048148058354854584, 0.0059406813234090805, 0.03911459818482399, 0.02372988685965538, 0.03126048296689987, 0.004875745624303818, 0.034641560167074203, 0.031370896846055984], [0.0247834250330925, 0.024105964228510857, 0.045409586280584335, 0.18043628334999084, 0.022838018834590912, 0.05221816524863243, 0.05063611641526222, 0.020254015922546387, 0.040259599685668945, 0.09121788293123245, 0.03771258145570755, 0.046501122415065765, 0.015121294185519218, 0.02638762816786766, 0.17178188264369965, 0.03179587051272392, 0.05886732041835785, 0.019623566418886185, 0.017310859635472298, 0.008714782074093819, 0.014023958705365658], [0.01252181176096201, 0.024354999884963036, 0.03595250844955444, 0.21812555193901062, 0.04016098380088806, 0.048204563558101654, 0.08942020684480667, 0.0365300178527832, 0.03543687239289284, 0.05082545056939125, 0.033646415919065475, 0.037566788494586945, 0.027846869081258774, 0.025039955973625183, 0.05643533170223236, 0.04233075678348541, 0.07494686543941498, 0.018383022397756577, 0.018727315589785576, 0.060779038816690445, 0.012764721177518368], [0.1526947170495987, 0.05919748172163963, 0.008808743208646774, 0.003831104375422001, 0.03679140657186508, 0.026959793642163277, 0.00669250451028347, 0.2548770010471344, 0.09637858718633652, 0.00562104070559144, 0.07297899574041367, 0.008084122091531754, 0.03230136260390282, 0.07182057201862335, 0.004376356024295092, 0.023565569892525673, 0.010177749209105968, 0.05031165853142738, 0.00496689835563302, 0.008343133144080639, 0.061221253126859665], [0.020837482064962387, 0.01385235320776701, 0.12974849343299866, 0.02169387973845005, 0.016196032986044884, 0.02723057195544243, 0.0894462987780571, 0.020159076899290085, 0.038909412920475006, 0.053767383098602295, 0.03167329356074333, 0.26632362604141235, 0.020661573857069016, 0.03290354833006859, 0.08476877957582474, 0.02444949746131897, 0.017281655222177505, 0.02632862515747547, 0.044212304055690765, 0.006693724542856216, 0.012862415984272957], [0.1393650770187378, 0.05097320303320885, 0.007543753366917372, 0.0033075364772230387, 0.03195534273982048, 0.02102881856262684, 0.006250416859984398, 0.24366392195224762, 0.09159418195486069, 0.00548299215734005, 0.07176609337329865, 0.007993749342858791, 0.03301452472805977, 0.07751281559467316, 0.005196054000407457, 0.027830125764012337, 0.013594156131148338, 0.057447295635938644, 0.005312753841280937, 0.010585872456431389, 0.08858136087656021], [0.005552203394472599, 0.005264830309897661, 0.017442623153328896, 0.013814438134431839, 0.023004980757832527, 0.018104059621691704, 0.48052170872688293, 0.016565809026360512, 0.01030359510332346, 0.18658547103405, 0.010725378058850765, 0.029121749103069305, 0.02514011785387993, 0.01026652380824089, 0.04158373177051544, 0.015681413933634758, 0.008727030828595161, 0.007328076753765345, 0.018220877274870872, 0.04874887317419052, 0.007296448107808828], [0.027690695598721504, 0.021976040676236153, 0.028922833502292633, 0.04457587003707886, 0.03070514090359211, 0.05235309153795242, 0.12282080948352814, 0.05691354349255562, 0.04532143101096153, 0.027701307088136673, 0.04592529684305191, 0.052478209137916565, 0.046242475509643555, 0.04881066456437111, 0.09140342473983765, 0.0463586263358593, 0.029413290321826935, 0.04646995663642883, 0.04385758936405182, 0.039539605379104614, 0.05052001401782036], [0.13574020564556122, 0.045418303459882736, 0.005653521977365017, 0.0029851526487618685, 0.02779475413262844, 0.021729666739702225, 0.005991786252707243, 0.20482872426509857, 0.07913896441459656, 0.005204288754612207, 0.06986524164676666, 0.00707640964537859, 0.03449871391057968, 0.0796823799610138, 0.006247812416404486, 0.031808990985155106, 0.0140170156955719, 0.07229552417993546, 0.006712193135172129, 0.011715787462890148, 0.13159459829330444], [0.11521706730127335, 0.02405581809580326, 0.026843687519431114, 0.10857690870761871, 0.02010326273739338, 0.02347688563168049, 0.09414908289909363, 0.03619315102696419, 0.038257818669080734, 0.035954758524894714, 0.03876231983304024, 0.039478905498981476, 0.02407892793416977, 0.04062145948410034, 0.01950320415198803, 0.05121695250272751, 0.14775450527668, 0.03641824796795845, 0.007750221528112888, 0.027467509731650352, 0.04411939159035683], [0.0039035489317029715, 0.0035421198699623346, 0.0030742804519832134, 0.21087802946567535, 0.005414871033281088, 0.006289937999099493, 0.07325710356235504, 0.009959537535905838, 0.009600804187357426, 0.005990646779537201, 0.010539466515183449, 0.008437582291662693, 0.00741173978894949, 0.011016542091965675, 0.32765674591064453, 0.013933626934885979, 0.1983364373445511, 0.012601829133927822, 0.04864475503563881, 0.012996172532439232, 0.016514167189598083], [0.003634828142821789, 0.004484150093048811, 0.006191379390656948, 0.2409294843673706, 0.011809244751930237, 0.015798697248101234, 0.07307130843400955, 0.005088459700345993, 0.010746832005679607, 0.007103073876351118, 0.010662050917744637, 0.01299803052097559, 0.016410280019044876, 0.012624235823750496, 0.39009442925453186, 0.01824765093624592, 0.06333817541599274, 0.014246450737118721, 0.045108307152986526, 0.020865002647042274, 0.01654786616563797], [0.10104390233755112, 0.03282767906785011, 0.004014450591057539, 0.0019125179387629032, 0.01926361583173275, 0.013268643990159035, 0.003244968829676509, 0.14659002423286438, 0.05635279044508934, 0.003236164106056094, 0.05454995855689049, 0.006178069394081831, 0.031829703599214554, 0.08078545331954956, 0.007601277437061071, 0.03869176656007767, 0.018272429704666138, 0.10040105134248734, 0.010425087995827198, 0.019404206424951553, 0.25010621547698975], [0.012288513593375683, 0.00362981460057199, 0.04475460201501846, 0.016896722838282585, 0.008999540470540524, 0.0180545412003994, 0.023824229836463928, 0.00855464767664671, 0.007554551120847464, 0.18458876013755798, 0.008244521915912628, 0.0895017609000206, 0.016895655542612076, 0.010409751906991005, 0.3334525525569916, 0.0316351018846035, 0.03339892253279686, 0.01793699711561203, 0.051936786621809006, 0.017265131697058678, 0.060176897794008255], [0.016065314412117004, 0.01082286611199379, 0.010924022644758224, 0.010489596985280514, 0.015026860870420933, 0.008890419267117977, 0.007007590960711241, 0.056557200849056244, 0.01779710315167904, 0.009415573440492153, 0.019212542101740837, 0.016728604212403297, 0.02229175716638565, 0.02685035765171051, 0.05750144273042679, 0.03965401276946068, 0.08249188959598541, 0.05024568736553192, 0.16984139382839203, 0.07992608845233917, 0.2722597122192383], [0.13570992648601532, 0.05412232503294945, 0.006117106415331364, 0.003190847346559167, 0.013631615787744522, 0.009746864438056946, 0.008530780673027039, 0.03290187567472458, 0.0622558556497097, 0.0041023134253919125, 0.06247952580451965, 0.00893966294825077, 0.023972803726792336, 0.11166975647211075, 0.023240363225340843, 0.02734895795583725, 0.014154995791614056, 0.16633391380310059, 0.034682340919971466, 0.02632712572813034, 0.17054103314876556]]], [[[0.9011743664741516, 0.004432064946740866, 0.0014239365700632334, 0.0019568749703466892, 0.0005772330332547426, 0.0006790765910409391, 0.0017400408396497369, 0.0013946318067610264, 0.005789384711533785, 0.0013512368313968182, 0.007394531276077032, 0.0017183604650199413, 0.0013253764482215047, 0.00796850211918354, 0.0017717035952955484, 0.0033384403213858604, 0.004272602032870054, 0.0166177861392498, 0.003876859787851572, 0.002699493197724223, 0.02849746309220791], [0.09033451229333878, 0.1274278610944748, 0.035569749772548676, 0.08352895081043243, 0.02237863466143608, 0.02903793938457966, 0.01640937849879265, 0.036496784538030624, 0.23240113258361816, 0.007036986295133829, 0.14591018855571747, 0.006556751672178507, 0.0046864100731909275, 0.045253854244947433, 0.002870643977075815, 0.0025932476855814457, 0.0029677932616323233, 0.04962209239602089, 0.0029288511723279953, 0.00927022472023964, 0.0467180497944355], [0.015279441140592098, 0.02497285045683384, 0.0512729175388813, 0.17643019556999207, 0.07335326075553894, 0.11928047984838486, 0.17052094638347626, 0.054026804864406586, 0.06989671289920807, 0.08128345012664795, 0.04751843214035034, 0.022351013496518135, 0.010255529545247555, 0.01946181245148182, 0.00487053208053112, 0.005849726963788271, 0.0013903372455388308, 0.008541601710021496, 0.004694579169154167, 0.01268845610320568, 0.0260609183460474], [0.059413157403469086, 0.03672998771071434, 0.037591371685266495, 0.04534066841006279, 0.023519989103078842, 0.08106393367052078, 0.19342805445194244, 0.02611689642071724, 0.18337027728557587, 0.022649545222520828, 0.11092865467071533, 0.03579239919781685, 0.004004164133220911, 0.039861928671598434, 0.003409523982554674, 0.018107043579220772, 0.013124121353030205, 0.029684418812394142, 0.0019306481117382646, 0.0026990713085979223, 0.031234098598361015], [0.004644598811864853, 0.010405687615275383, 0.028973497450351715, 0.022142942994832993, 0.008560028858482838, 0.07152722030878067, 0.3818506896495819, 0.11891636252403259, 0.07039174437522888, 0.12092842161655426, 0.030116310343146324, 0.06720786541700363, 0.005781372077763081, 0.018018359318375587, 0.005196086596697569, 0.012626731768250465, 0.002720199292525649, 0.007275091949850321, 0.004225681535899639, 0.002614249475300312, 0.0058768861927092075], [0.021512353792786598, 0.01179467886686325, 0.014994236640632153, 0.013248820789158344, 0.00651298463344574, 0.014764555729925632, 0.2031785547733307, 0.21432659029960632, 0.18148769438266754, 0.12044792622327805, 0.04892849922180176, 0.04587751626968384, 0.017374573275446892, 0.02672438882291317, 0.009774272330105305, 0.017116745933890343, 0.005361706949770451, 0.012859932146966457, 0.005524975247681141, 0.0026173782534897327, 0.005571587011218071], [0.009796414524316788, 0.013289311900734901, 0.022748280316591263, 0.020210416987538338, 0.006371397525072098, 0.012596789747476578, 0.010621504858136177, 0.18951107561588287, 0.27397239208221436, 0.042915139347314835, 0.12521354854106903, 0.11108661442995071, 0.029463108628988266, 0.032289426773786545, 0.007060668896883726, 0.028293147683143616, 0.011632273904979229, 0.02868693321943283, 0.00556587427854538, 0.006481498945504427, 0.012194237671792507], [0.03258753940463066, 0.013184063136577606, 0.008854255080223083, 0.011257057078182697, 0.00452780444175005, 0.0037280151154845953, 0.014424685388803482, 0.061075691133737564, 0.3114588260650635, 0.11722712963819504, 0.21539205312728882, 0.04567847400903702, 0.02401943877339363, 0.04775628820061684, 0.013423606753349304, 0.014059798792004585, 0.005532827693969011, 0.031937696039676666, 0.006151002366095781, 0.0024708162527531385, 0.015252890065312386], [0.05484604835510254, 0.017106909304857254, 0.0033845105208456516, 0.0054789949208498, 0.0016837234143167734, 0.0023904279805719852, 0.0038073768373578787, 0.012342920526862144, 0.17313671112060547, 0.021911820396780968, 0.4151359498500824, 0.04947188124060631, 0.019853373989462852, 0.060022931545972824, 0.014584716409444809, 0.015922104939818382, 0.016071757301688194, 0.07074912637472153, 0.006317998748272657, 0.006257978267967701, 0.029522789642214775], [0.10639762133359909, 0.009833784773945808, 0.011350867338478565, 0.007602082099765539, 0.006063011009246111, 0.0025435753632336855, 0.013726959004998207, 0.005523138679563999, 0.05092611536383629, 0.011227100156247616, 0.19422058761119843, 0.2253710776567459, 0.14801573753356934, 0.055063601583242416, 0.023317020386457443, 0.01546139270067215, 0.009440393187105656, 0.05635088309645653, 0.011281978338956833, 0.003822844009846449, 0.03246030583977699], [0.0899212509393692, 0.021458351984620094, 0.0033946402836591005, 0.003879352705553174, 0.0011814999161288142, 0.0025886266957968473, 0.0032257791608572006, 0.007769069634377956, 0.059346552938222885, 0.005912409164011478, 0.1852891594171524, 0.05834857001900673, 0.04934004321694374, 0.1689451038837433, 0.01970372535288334, 0.02287985011935234, 0.025609096512198448, 0.16290797293186188, 0.012996893376111984, 0.017805520445108414, 0.07749659568071365], [0.012662041001021862, 0.004832793492823839, 0.010360046289861202, 0.008375799283385277, 0.0022003569174557924, 0.004107437562197447, 0.021050672978162766, 0.009492379613220692, 0.012176301330327988, 0.059179943054914474, 0.021379074081778526, 0.14078141748905182, 0.13078001141548157, 0.09569092094898224, 0.053289253264665604, 0.09949033707380295, 0.018978718668222427, 0.05072513967752457, 0.08316253125667572, 0.086521215736866, 0.07476359605789185], [0.0037955939769744873, 0.0019194252090528607, 0.016172008588910103, 0.004666774999350309, 0.0007578012300655246, 0.0018843504367396235, 0.014253731817007065, 0.008074079640209675, 0.005752640310674906, 0.051262468099594116, 0.005252052564173937, 0.11242451518774033, 0.02617919072508812, 0.05277254432439804, 0.07737582176923752, 0.24783733487129211, 0.03499547392129898, 0.02867877669632435, 0.13364849984645844, 0.105928935110569, 0.0663679912686348], [0.08831866830587387, 0.01550871878862381, 0.0024112716782838106, 0.0027286650147289038, 0.0008295979350805283, 0.0013738403795287013, 0.001960307126864791, 0.006677279714494944, 0.060751721262931824, 0.0049111065454781055, 0.05700734630227089, 0.007282776292413473, 0.005610703490674496, 0.08559877425432205, 0.02684030681848526, 0.0873323529958725, 0.07497327029705048, 0.24196591973304749, 0.019466664642095566, 0.03687038645148277, 0.1715802550315857], [0.10657412558794022, 0.009984102100133896, 0.010488542728126049, 0.0035823651123791933, 0.0008108531474135816, 0.0016003064811229706, 0.007606059778481722, 0.0019150968873873353, 0.020206931978464127, 0.015222105197608471, 0.03297148272395134, 0.032007135450839996, 0.0041974917985498905, 0.025544319301843643, 0.006827881094068289, 0.14191634953022003, 0.09924601763486862, 0.2770017385482788, 0.06194351613521576, 0.038501203060150146, 0.10185232758522034], [0.09516455978155136, 0.007553665898740292, 0.002636524848639965, 0.001521231490187347, 0.00028824902256019413, 0.0004301085136830807, 0.0012742072576656938, 0.001034801360219717, 0.009553948417305946, 0.00429981155321002, 0.023985683917999268, 0.008143882267177105, 0.0027330329176038504, 0.013288102112710476, 0.003935507033020258, 0.0427948422729969, 0.061176031827926636, 0.45757338404655457, 0.034632448107004166, 0.06092454493045807, 0.16705548763275146], [0.13505177199840546, 0.0076129441149532795, 0.007760889362543821, 0.002070385729894042, 0.0005867782747372985, 0.0005477347876876593, 0.0015404887963086367, 0.001074416097253561, 0.006709823850542307, 0.003496116027235985, 0.013540290296077728, 0.010987232439219952, 0.004704343155026436, 0.012263119220733643, 0.002147582359611988, 0.01995588280260563, 0.016957979649305344, 0.28992101550102234, 0.07803058624267578, 0.13261523842811584, 0.25242534279823303], [0.12013233453035355, 0.012547262012958527, 0.0033438168466091156, 0.0026660896837711334, 0.0007620535907335579, 0.0007660305127501488, 0.0007351589156314731, 0.001524738734588027, 0.015424663200974464, 0.000948679109569639, 0.02596801519393921, 0.004071229603141546, 0.0030943702440708876, 0.029353218153119087, 0.0036644195206463337, 0.008222052827477455, 0.015859704464673996, 0.21285922825336456, 0.030416196212172508, 0.10425683110952377, 0.4033838212490082], [0.08148211240768433, 0.004294239450246096, 0.005624204408377409, 0.0034335555974394083, 0.0013767427299171686, 0.0010514943860471249, 0.002418505260720849, 0.0011728797107934952, 0.009649727493524551, 0.0027925206813961267, 0.017255768179893494, 0.01175329927355051, 0.004699453711509705, 0.026451893150806427, 0.004851720295846462, 0.02024972252547741, 0.0057962448336184025, 0.12352257966995239, 0.029042260721325874, 0.14221049845218658, 0.5008705854415894], [0.060795195400714874, 0.002371259266510606, 0.0010930862044915557, 0.0028151182923465967, 0.0009078495786525309, 0.0010624672286212444, 0.0019209572346881032, 0.0014819309581071138, 0.004419162403792143, 0.0006426585023291409, 0.006370841059833765, 0.0015804202994331717, 0.0008301051566377282, 0.010306245647370815, 0.0013102295342832804, 0.008821188472211361, 0.004881696309894323, 0.0480281263589859, 0.009994886815547943, 0.09433338791131973, 0.7360331416130066], [0.2883453965187073, 0.014833317138254642, 0.0029787844978272915, 0.003195305820554495, 0.001572810928337276, 0.002330186776816845, 0.007092905230820179, 0.00324106402695179, 0.02785499393939972, 0.0026757437735795975, 0.03180186077952385, 0.005024096462875605, 0.0030899487901479006, 0.04120030254125595, 0.003817775985226035, 0.018752168864011765, 0.012424016371369362, 0.16123110055923462, 0.024005968123674393, 0.03599989041686058, 0.3085322976112366]], [[0.11370257288217545, 0.04443537816405296, 0.004465698264539242, 0.01522090844810009, 0.023486929014325142, 0.03223368525505066, 0.016678301617503166, 0.023005275055766106, 0.07842494547367096, 0.020246727392077446, 0.08207359910011292, 0.009653066284954548, 0.03397185355424881, 0.08945609629154205, 0.023601846769452095, 0.021894119679927826, 0.019597986713051796, 0.08134917914867401, 0.019599776715040207, 0.030246641486883163, 0.2166554480791092], [0.0488261915743351, 0.0031914659775793552, 0.0009194564772769809, 0.00018813260248862207, 0.0009539499296806753, 0.0012620523339137435, 0.0018385235453024507, 0.005562388338148594, 0.02830304577946663, 0.023058850318193436, 0.0473509281873703, 0.05678432062268257, 0.026443172246217728, 0.08222568780183792, 0.014700665138661861, 0.06174775958061218, 0.02919251099228859, 0.11431979387998581, 0.04390530660748482, 0.04111504927277565, 0.36811068654060364], [0.004522683098912239, 0.0002765892131719738, 0.026416955515742302, 1.7193527810377418e-06, 2.8946215024916455e-06, 9.75886268861359e-06, 1.2435674761945847e-05, 7.001485209912062e-05, 0.00040836731204763055, 1.6568121282034554e-05, 0.000759693153668195, 0.9584811925888062, 9.557299927109852e-05, 0.0013226697919890285, 4.374307536636479e-05, 0.0001781381870387122, 0.0003040329029317945, 0.0028151010628789663, 6.332255725283176e-05, 0.0003521410981193185, 0.003846418112516403], [0.20183034241199493, 0.04953589662909508, 0.0010266669560223818, 0.47021082043647766, 0.0001036196990753524, 0.0004045362293254584, 0.0011238136794418097, 0.0015298505313694477, 0.007467812392860651, 0.00039610653766430914, 0.010455937124788761, 0.002069952664896846, 0.00042922128341160715, 0.022898439317941666, 0.004017161205410957, 0.002144488040357828, 0.011628836393356323, 0.04633128643035889, 0.0016014296561479568, 0.017807116732001305, 0.14698664844036102], [0.22418983280658722, 0.09352938085794449, 0.004246434196829796, 0.00028916398878209293, 0.11047571897506714, 0.002704035257920623, 0.00015783353592269123, 0.002433067886158824, 0.008025623857975006, 0.0002855296479538083, 0.010992873460054398, 0.0031969568226486444, 0.23284924030303955, 0.017115982249379158, 0.00036210569669492543, 0.0022849615197628736, 0.008045619353652, 0.04008664935827255, 0.004407103639096022, 0.022440748289227486, 0.21188107132911682], [0.19474056363105774, 0.23543168604373932, 0.03984735161066055, 0.004342430736869574, 0.00701111787930131, 0.03790617361664772, 0.0029482219833880663, 0.010181228630244732, 0.011225313879549503, 0.0006422293372452259, 0.013610522262752056, 0.009536216035485268, 0.006627634633332491, 0.019235987216234207, 0.0013620881363749504, 0.0053132870234549046, 0.005518061574548483, 0.04180162400007248, 0.008579901419579983, 0.13750267028808594, 0.20663566887378693], [0.10890933126211166, 0.0977523922920227, 0.011961559765040874, 0.0046521383337676525, 0.00032989337341859937, 0.0013497305335476995, 0.6661999821662903, 0.000465257529867813, 0.0031292876228690147, 0.00018606333469506353, 0.0037915478460490704, 0.0009234106400981545, 9.114222484640777e-05, 0.005294080823659897, 3.3726646506693214e-05, 0.0007748729549348354, 0.000564963964279741, 0.01661125011742115, 0.0017288357485085726, 0.005283098202198744, 0.06996746361255646], [0.295911967754364, 0.28720077872276306, 0.056148599833250046, 0.011479360982775688, 0.012541461735963821, 0.01748279109597206, 0.0032231530640274286, 0.040572378784418106, 0.014628980308771133, 0.0007045607781037688, 0.014210839755833149, 0.003231016220524907, 0.002167101949453354, 0.01264444924890995, 0.00035751095856539905, 0.0038968941662460566, 0.009566007182002068, 0.027686430141329765, 0.008723882958292961, 0.03738134354352951, 0.14024050533771515], [0.18081171810626984, 0.21806016564369202, 0.06185309588909149, 0.023746199905872345, 0.018948378041386604, 0.023920349776744843, 0.01700536720454693, 0.008116218261420727, 0.01580754853785038, 0.005279310047626495, 0.01678639091551304, 0.004953394178301096, 0.0037979534827172756, 0.015486663207411766, 0.0025387208443135023, 0.005878163035959005, 0.00515923835337162, 0.031231239438056946, 0.023796062916517258, 0.04592953622341156, 0.2708944082260132], [0.1129726693034172, 0.07100798934698105, 0.0006058804574422538, 0.0007190689793787897, 0.0004408125823829323, 0.0004056382749695331, 0.0003881332522723824, 0.000384690792998299, 0.00626125605776906, 0.7355630397796631, 0.005945907440036535, 1.8814998838934116e-05, 4.4075961341150105e-05, 0.004251598380506039, 2.827605749189388e-05, 7.68846512073651e-05, 5.1398634241195396e-05, 0.00995821412652731, 0.0005472825141623616, 0.001277162809856236, 0.04905121028423309], [0.18107973039150238, 0.277999609708786, 0.08770851790904999, 0.03894784301519394, 0.030734693631529808, 0.03896304592490196, 0.021929187700152397, 0.012659527361392975, 0.020771972835063934, 0.007278334815055132, 0.019466830417513847, 0.004607859067618847, 0.003861803561449051, 0.014483178965747356, 0.002174440771341324, 0.004454059060662985, 0.004449157975614071, 0.02433362789452076, 0.01707637310028076, 0.031466323882341385, 0.15555386245250702], [0.005732316058129072, 0.00307654170319438, 0.9631332159042358, 0.00028900455799885094, 0.00011004581756424159, 0.000223575159907341, 0.0001294817921007052, 0.00011072914639953524, 0.00020272069377824664, 2.1161472432140727e-06, 0.00016867184604052454, 0.026103736832737923, 5.632730790239293e-06, 8.277616143459454e-05, 2.162458031307324e-06, 2.266134970341227e-06, 1.8146714864997193e-05, 0.000176453118911013, 4.7877915676508565e-06, 2.429878804832697e-05, 0.0004012390854768455], [0.06353756040334702, 0.06058473140001297, 0.009790392592549324, 0.0023813340812921524, 0.8108494281768799, 0.010225795209407806, 0.0003155600861646235, 0.0019573885947465897, 0.00356877688318491, 7.136494241422042e-05, 0.0025727571919560432, 0.000136307324282825, 0.02165914885699749, 0.001121373032219708, 3.112332706223242e-05, 5.298519681673497e-05, 0.000499542395118624, 0.0018214035080745816, 0.00013987431884743273, 0.000301183172268793, 0.00838194414973259], [0.16618071496486664, 0.2368101179599762, 0.08598075807094574, 0.06916750967502594, 0.05900620296597481, 0.06954541802406311, 0.0470096692442894, 0.02010883204638958, 0.03291427344083786, 0.011237068101763725, 0.027885764837265015, 0.004520983900874853, 0.005024002864956856, 0.01581435464322567, 0.0028710318729281425, 0.004894034005701542, 0.0039035065565258265, 0.02050788328051567, 0.011979886330664158, 0.015023281797766685, 0.08961471170186996], [0.15275289118289948, 0.1178424134850502, 0.004043864086270332, 0.06828616559505463, 0.0017378563061356544, 0.009363041259348392, 0.00024241891514975578, 0.0016323019517585635, 0.012600508518517017, 0.00010863834904739633, 0.008443127386271954, 5.9214937209617347e-05, 6.488378858193755e-05, 0.0032126714941114187, 0.6082824468612671, 1.159581074716698e-06, 1.684151175140869e-05, 0.004057401791214943, 2.464705721649807e-05, 4.896704922430217e-05, 0.007178571540862322], [0.2466682493686676, 0.25394919514656067, 0.012139960192143917, 0.013330805115401745, 0.007147016003727913, 0.019025303423404694, 0.010594997555017471, 0.019291948527097702, 0.035119932144880295, 0.0007710717036388814, 0.02699669636785984, 0.00021013591322116554, 0.00023997564858291298, 0.011659099720418453, 6.5978547354461625e-06, 0.3089866042137146, 0.004783738404512405, 0.014632238075137138, 0.00038832129212096334, 0.0012453305535018444, 0.012812824919819832], [0.10669944435358047, 0.0797257125377655, 0.03956163674592972, 0.09250624477863312, 0.06488274782896042, 0.01895146071910858, 0.0044139688834548, 0.02985365130007267, 0.014411335811018944, 0.00028152656159363687, 0.009822145104408264, 0.0007970536826178432, 0.00184950465336442, 0.004179151263087988, 4.165765130892396e-05, 0.0023556931409984827, 0.5194742679595947, 0.004010045900940895, 0.0004797979781869799, 0.0004424804646987468, 0.005260499659925699], [0.13591399788856506, 0.21885931491851807, 0.08608316630125046, 0.07260504364967346, 0.06001323089003563, 0.08767126500606537, 0.06697747856378555, 0.034171417355537415, 0.048990361392498016, 0.01573978364467621, 0.03772648051381111, 0.0072151306085288525, 0.007095895707607269, 0.01964709535241127, 0.004603624809533358, 0.004639891907572746, 0.003934473730623722, 0.018579743802547455, 0.00975660141557455, 0.01192246563732624, 0.047853611409664154], [0.10533342510461807, 0.12284684181213379, 0.004959474317729473, 0.00749156903475523, 0.00785115733742714, 0.0071589224971830845, 0.009705041535198689, 0.02117048390209675, 0.03530038520693779, 0.0041698128916323185, 0.021610716357827187, 0.00028081369237042964, 0.00048616272397339344, 0.008051364682614803, 9.935453999787569e-05, 0.0002058593527181074, 0.00043391730287112296, 0.005698209162801504, 0.6314787864685059, 0.0009487545466981828, 0.004718920215964317], [0.10941711813211441, 0.19650082290172577, 0.03937429189682007, 0.042086292058229446, 0.022159725427627563, 0.07126014679670334, 0.018753167241811752, 0.08717767149209976, 0.06084775552153587, 0.028347518295049667, 0.04049549624323845, 0.008472449146211147, 0.0052167861722409725, 0.020132767036557198, 0.0006420955178327858, 0.00623486889526248, 0.0016987670678645372, 0.012280036695301533, 0.007257258519530296, 0.21027448773384094, 0.011370469816029072], [0.08079789578914642, 0.11620431393384933, 0.03918580338358879, 0.08957867324352264, 0.08417467027902603, 0.10631239414215088, 0.06444946676492691, 0.0811321958899498, 0.0905514657497406, 0.04244343191385269, 0.06584914028644562, 0.00879566092044115, 0.018649855628609657, 0.029865266755223274, 0.008908040821552277, 0.011499998159706593, 0.0052066403441131115, 0.017598573118448257, 0.006008882075548172, 0.007430239114910364, 0.02535742148756981]], [[0.5906726121902466, 0.02069270983338356, 0.013545975089073181, 0.014910854399204254, 0.012407967820763588, 0.007950248196721077, 0.01737622544169426, 0.013388552702963352, 0.04174741730093956, 0.018251923844218254, 0.04414256289601326, 0.01953599974513054, 0.017270982265472412, 0.028194410726428032, 0.003906965721398592, 0.012206228449940681, 0.011075295507907867, 0.03216216340661049, 0.003865956561639905, 0.00718294084072113, 0.06951191276311874], [0.7127581238746643, 0.05162786319851875, 0.005043077282607555, 0.004449335392564535, 0.0029881156515330076, 0.007045217324048281, 0.006188729777932167, 0.009591097943484783, 0.05870278552174568, 0.004872631747275591, 0.05729092285037041, 0.0038379232864826918, 0.003124416805803776, 0.03266013786196709, 0.0012320188106968999, 0.006118677090853453, 0.002098186407238245, 0.02434714324772358, 0.000531398574821651, 0.0007573956390842795, 0.0047347210347652435], [0.13135011494159698, 0.4110700488090515, 0.020865613594651222, 0.04709497094154358, 0.02655094675719738, 0.03380691260099411, 0.029144177213311195, 0.023756707087159157, 0.07656365633010864, 0.017157278954982758, 0.05833990499377251, 0.0031319207046180964, 0.010035425424575806, 0.03265739604830742, 0.0042234184220433235, 0.010761412791907787, 0.005947582423686981, 0.045718591660261154, 0.0023183333687484264, 0.005227828864008188, 0.004277716390788555], [0.330956369638443, 0.3410622179508209, 0.034320294857025146, 0.009712905623018742, 0.012801624834537506, 0.008523516356945038, 0.04055541753768921, 0.021193569526076317, 0.06972517818212509, 0.008755877614021301, 0.04347630962729454, 0.003150796517729759, 0.005424154456704855, 0.022426540032029152, 0.0010306043550372124, 0.0011462507536634803, 0.0017009297152981162, 0.03730356693267822, 0.0005135926767252386, 0.001262616366147995, 0.004957711789757013], [0.12661781907081604, 0.2910081744194031, 0.2568571865558624, 0.08448834717273712, 0.017139332368969917, 0.022007955238223076, 0.060455888509750366, 0.011197211220860481, 0.04033564776182175, 0.008124018087983131, 0.02346814051270485, 0.009726675227284431, 0.0036325803957879543, 0.012609113939106464, 0.0017884935950860381, 0.0014663226902484894, 0.0016106133116409183, 0.019124632701277733, 0.000875021971296519, 0.002535938983783126, 0.004930916242301464], [0.06764034926891327, 0.22068768739700317, 0.20716875791549683, 0.16370293498039246, 0.11255838721990585, 0.029025673866271973, 0.08041190356016159, 0.011764021590352058, 0.03377031907439232, 0.01303863525390625, 0.022502947598695755, 0.007109171710908413, 0.0053670406341552734, 0.008762909099459648, 0.0010847466764971614, 0.0005126101896166801, 0.0006838492699898779, 0.007312713656574488, 0.00045735834282822907, 0.0013554788893088698, 0.00508256908506155], [0.1350080668926239, 0.1394461840391159, 0.06377274543046951, 0.14851757884025574, 0.10736852884292603, 0.12058605253696442, 0.06646565347909927, 0.03168812021613121, 0.05891744792461395, 0.01879667118191719, 0.04684080556035042, 0.008203896693885326, 0.0076929666101932526, 0.01579827256500721, 0.001617523841559887, 0.002071935450658202, 0.0010460683843120933, 0.009627016261219978, 0.0011676682624965906, 0.002344855573028326, 0.013021952472627163], [0.02236732840538025, 0.11093629896640778, 0.06901200860738754, 0.15243178606033325, 0.18775373697280884, 0.15254221856594086, 0.12320949882268906, 0.05790332704782486, 0.040491215884685516, 0.01255976501852274, 0.026285216212272644, 0.00854412466287613, 0.008008499629795551, 0.011333831585943699, 0.00183770596049726, 0.001082441653124988, 0.0006670707371085882, 0.0030758106149733067, 0.00037752435309812427, 0.0009825547458603978, 0.008598017506301403], [0.09732604026794434, 0.08666285127401352, 0.02732270210981369, 0.05509280040860176, 0.05664714425802231, 0.12901489436626434, 0.13289038836956024, 0.10206613689661026, 0.1457258015871048, 0.01668119616806507, 0.06248478963971138, 0.011151441372931004, 0.011265271343290806, 0.03524581715464592, 0.002179178409278393, 0.002144058933481574, 0.0010242793941870332, 0.01030727755278349, 0.0006080379826016724, 0.00126541405916214, 0.01289455033838749], [0.10812588781118393, 0.05232349783182144, 0.06336475908756256, 0.0619637593626976, 0.01614489033818245, 0.0920596793293953, 0.14836476743221283, 0.10329992324113846, 0.19799746572971344, 0.008200539276003838, 0.0492427833378315, 0.025245552882552147, 0.00908205471932888, 0.030077669769525528, 0.007560097612440586, 0.004048940259963274, 0.001510667148977518, 0.010791984386742115, 0.0010730710346251726, 0.0007338576833717525, 0.008788086473941803], [0.07980175316333771, 0.04655902832746506, 0.013324988074600697, 0.023118047043681145, 0.012734788469970226, 0.03566598892211914, 0.057843297719955444, 0.13468319177627563, 0.3667077124118805, 0.031522978097200394, 0.10969085246324539, 0.012862560339272022, 0.008699294179677963, 0.03583994880318642, 0.003154254052788019, 0.0037048456724733114, 0.0015479092253372073, 0.013118068687617779, 0.0008183224708773196, 0.0011015812633559108, 0.0075006140395998955], [0.012481601908802986, 0.04014069214463234, 0.010058107785880566, 0.05099955573678017, 0.03097420372068882, 0.04167528823018074, 0.10239432007074356, 0.08930493891239166, 0.28378626704216003, 0.10184324532747269, 0.14034110307693481, 0.018239617347717285, 0.02550978772342205, 0.021208371967077255, 0.004748508799821138, 0.005520347971469164, 0.002048370661213994, 0.009751047007739544, 0.0015082686441019177, 0.0029881030786782503, 0.004478125832974911], [0.018512343987822533, 0.011267676949501038, 0.030923590064048767, 0.015201271511614323, 0.006212956737726927, 0.014169332571327686, 0.16089801490306854, 0.018396418541669846, 0.111106276512146, 0.14256808161735535, 0.1442033052444458, 0.27014318108558655, 0.024347642436623573, 0.013126488775014877, 0.002715027192607522, 0.0023769810795783997, 0.0017456872155889869, 0.0066991327330470085, 0.000821962661575526, 0.0006047679926268756, 0.003959863446652889], [0.09094084799289703, 0.026901228353381157, 0.010112916119396687, 0.012867799028754234, 0.007085221353918314, 0.014428211376070976, 0.026719991117715836, 0.025695495307445526, 0.15165694057941437, 0.03615462779998779, 0.32038941979408264, 0.10046114027500153, 0.04359808564186096, 0.0699581652879715, 0.004321356303989887, 0.005873886868357658, 0.0030098615679889917, 0.03014255128800869, 0.0020380227360874414, 0.0020717205479741096, 0.015572484582662582], [0.23828448355197906, 0.017814774066209793, 0.006014696788042784, 0.008505905978381634, 0.005176125559955835, 0.006564203649759293, 0.025510210543870926, 0.008758009411394596, 0.10938362777233124, 0.028582999482750893, 0.20090410113334656, 0.08451291173696518, 0.10313960164785385, 0.11043167859315872, 0.0012416171375662088, 0.00431531947106123, 0.00134623097255826, 0.02711111307144165, 0.0011132152285426855, 0.0012324167182669044, 0.010056774131953716], [0.0533568412065506, 0.01424736063927412, 0.007698892615735531, 0.01088736206293106, 0.0061285668052732944, 0.005589754320681095, 0.022017838433384895, 0.019460516050457954, 0.09845036268234253, 0.02058127522468567, 0.12722040712833405, 0.10994920134544373, 0.17430709302425385, 0.24636638164520264, 0.0184012558311224, 0.009088778868317604, 0.004677822347730398, 0.025606239214539528, 0.0023552740458399057, 0.003904438577592373, 0.019704319536685944], [0.09042592346668243, 0.010214068926870823, 0.0037209882866591215, 0.006278557237237692, 0.0025122181978076696, 0.003609676146879792, 0.010483337566256523, 0.014228773303329945, 0.0752088725566864, 0.014327332377433777, 0.11355388909578323, 0.07259561866521835, 0.09682855010032654, 0.29337969422340393, 0.03557175397872925, 0.05215904489159584, 0.01187475211918354, 0.05051825940608978, 0.0052077132277190685, 0.00776290288195014, 0.029538026079535484], [0.08833876252174377, 0.012206372804939747, 0.0037873676046729088, 0.007245021406561136, 0.0028550822753459215, 0.00510607473552227, 0.007569085340946913, 0.012721782550215721, 0.07135796546936035, 0.020481375977396965, 0.11504040658473969, 0.058012012392282486, 0.06315313279628754, 0.20019976794719696, 0.046843722462654114, 0.08691621571779251, 0.038668178021907806, 0.09700565040111542, 0.009915468282997608, 0.007967536337673664, 0.04460900276899338], [0.04554012045264244, 0.005898145027458668, 0.00802717637270689, 0.003687341930344701, 0.002233255421742797, 0.002144628670066595, 0.011888526380062103, 0.007167553994804621, 0.029672376811504364, 0.02325918711721897, 0.05208592861890793, 0.1840156614780426, 0.12140905857086182, 0.08202461153268814, 0.04227602109313011, 0.09539876878261566, 0.0982796922326088, 0.109722800552845, 0.00817377120256424, 0.015533708967268467, 0.05156155675649643], [0.025303279981017113, 0.00747601967304945, 0.00619241688400507, 0.0022898996248841286, 0.000840742897707969, 0.0013211581390351057, 0.005077166482806206, 0.003942773211747408, 0.015431994572281837, 0.010405774228274822, 0.03404880687594414, 0.10029207170009613, 0.07569598406553268, 0.07269389182329178, 0.027413267642259598, 0.08824250847101212, 0.10188985615968704, 0.18923689424991608, 0.020066000521183014, 0.1161022037267685, 0.0960373729467392], [0.051667697727680206, 0.01149971503764391, 0.007613666821271181, 0.007104056421667337, 0.0023429691791534424, 0.0014146239263936877, 0.004522174596786499, 0.006210322957485914, 0.02485216222703457, 0.009285040199756622, 0.04521824046969414, 0.04949658364057541, 0.07188627868890762, 0.10448689758777618, 0.03150361776351929, 0.060399558395147324, 0.07583456486463547, 0.2266206294298172, 0.03119664266705513, 0.05115336552262306, 0.1256912499666214]], [[0.2435227632522583, 0.011207258328795433, 0.05625135451555252, 0.1105925664305687, 0.011176669970154762, 0.0047551486641168594, 0.06986194103956223, 0.0058793737553060055, 0.013363239355385303, 0.07838603854179382, 0.012974078767001629, 0.04093538224697113, 0.013201175257563591, 0.009906057268381119, 0.09140380471944809, 0.035450439900159836, 0.026753894984722137, 0.012802761979401112, 0.022542092949151993, 0.011510234326124191, 0.11752383410930634], [0.08380229026079178, 0.10187133401632309, 0.004453091882169247, 0.01272896584123373, 0.013030038215219975, 0.0187448151409626, 0.004442271776497364, 0.01592986285686493, 0.12611649930477142, 0.010040120221674442, 0.132333904504776, 0.0037565180100500584, 0.015805257484316826, 0.13124869763851166, 0.006593532860279083, 0.006476996932178736, 0.020862329751253128, 0.16561800241470337, 0.005675982683897018, 0.016211839392781258, 0.10425770282745361], [0.4620376229286194, 0.033360302448272705, 0.008880318142473698, 0.045422445982694626, 0.007514548487961292, 0.004622134380042553, 0.005231214687228203, 0.017253335565328598, 0.032916050404310226, 0.06191493570804596, 0.03370587155222893, 0.009247875772416592, 0.01236548088490963, 0.03146689757704735, 0.021931663155555725, 0.020205454900860786, 0.024997593834996223, 0.039861034601926804, 0.034408506006002426, 0.02168240025639534, 0.07097431272268295], [0.6063193082809448, 0.02746785804629326, 0.007275463547557592, 0.017222343012690544, 0.008422354236245155, 0.005676123313605785, 0.00487939827144146, 0.01025450136512518, 0.045128222554922104, 0.03342985734343529, 0.041940782219171524, 0.007985654287040234, 0.012588061392307281, 0.03947427496314049, 0.003351734019815922, 0.013724426738917828, 0.022914372384548187, 0.05036097764968872, 0.007510650437325239, 0.008143491111695766, 0.025930272415280342], [0.46560779213905334, 0.015397613868117332, 0.008167322725057602, 0.04364712908864021, 0.005376732908189297, 0.005526263266801834, 0.004654077813029289, 0.005561602767556906, 0.023901022970676422, 0.14018996059894562, 0.024199960753321648, 0.00942199770361185, 0.008078404702246189, 0.019295768812298775, 0.007803450804203749, 0.05210770666599274, 0.02384781278669834, 0.024459782987833023, 0.031078046187758446, 0.035333335399627686, 0.046344202011823654], [0.3487125337123871, 0.04807453230023384, 0.007306505460292101, 0.03696908429265022, 0.009878584183752537, 0.013832025229930878, 0.00414955522865057, 0.008799598552286625, 0.06007346510887146, 0.06958592683076859, 0.058375511318445206, 0.00603591138496995, 0.010355798527598381, 0.05802762135863304, 0.011108611710369587, 0.027408920228481293, 0.020742779597640038, 0.06744767725467682, 0.010869605466723442, 0.02936847321689129, 0.09287726879119873], [0.31547513604164124, 0.0239748265594244, 0.01690598949790001, 0.01795562170445919, 0.01041192002594471, 0.01274778787046671, 0.00916763860732317, 0.015638552606105804, 0.03984932228922844, 0.03803589195013046, 0.0365758053958416, 0.011740704998373985, 0.010972827672958374, 0.0362982302904129, 0.012980667874217033, 0.01811554655432701, 0.0489092618227005, 0.04878537356853485, 0.010476605035364628, 0.022948818281292915, 0.24203357100486755], [0.23623083531856537, 0.04366425424814224, 0.014098085463047028, 0.02869303524494171, 0.008723283186554909, 0.010062208399176598, 0.013010374270379543, 0.013486940413713455, 0.057029470801353455, 0.07113824039697647, 0.0542411245405674, 0.011570267379283905, 0.0095103420317173, 0.05039828270673752, 0.02082141861319542, 0.03744294494390488, 0.06793858110904694, 0.06567799299955368, 0.01922750473022461, 0.04611949622631073, 0.1209152340888977], [0.045829929411411285, 0.1260046511888504, 0.003785270731896162, 0.0068245395086705685, 0.012977012433111668, 0.025895537808537483, 0.0024680288042873144, 0.013868913054466248, 0.1435226947069168, 0.007595295086503029, 0.1408206820487976, 0.002716323360800743, 0.011224310845136642, 0.14908628165721893, 0.003991581499576569, 0.004364189691841602, 0.015096442773938179, 0.18328209221363068, 0.0034768092446029186, 0.013073700480163097, 0.0840957909822464], [0.2985653579235077, 0.04009127616882324, 0.01368381455540657, 0.04177341237664223, 0.008542019873857498, 0.0063974978402256966, 0.009970344603061676, 0.023880962282419205, 0.05281820520758629, 0.033043019473552704, 0.05922654643654823, 0.01622920297086239, 0.014559387229382992, 0.05709590017795563, 0.012935183942317963, 0.021908609196543694, 0.037745144218206406, 0.06645473092794418, 0.01491586584597826, 0.029132066294550896, 0.1410314440727234], [0.042902324348688126, 0.1289663314819336, 0.004037132952362299, 0.006637054029852152, 0.013647254556417465, 0.027635758742690086, 0.002372626680880785, 0.0141379339620471, 0.14315195381641388, 0.007605250459164381, 0.13945549726486206, 0.0028638725634664297, 0.012060187757015228, 0.15266357362270355, 0.004072616342455149, 0.004169458989053965, 0.014810721389949322, 0.18516191840171814, 0.0037852975074201822, 0.013054725714027882, 0.07680854946374893], [0.4346266984939575, 0.04011840745806694, 0.010153287090361118, 0.04392438381910324, 0.00870404951274395, 0.005772655364125967, 0.004660427570343018, 0.016970984637737274, 0.03748694434762001, 0.05764533951878548, 0.03668457642197609, 0.009585807099938393, 0.012190499342978, 0.03576035052537918, 0.02192777395248413, 0.02091527357697487, 0.02997208572924137, 0.04423113539814949, 0.029666056856513023, 0.021174974739551544, 0.07782828062772751], [0.3343135118484497, 0.022632144391536713, 0.012097381986677647, 0.050023943185806274, 0.008702329359948635, 0.010047447867691517, 0.007057143375277519, 0.008727620355784893, 0.029982812702655792, 0.12122105062007904, 0.030802082270383835, 0.013217986561357975, 0.012014270760118961, 0.025349989533424377, 0.01072545163333416, 0.07020420581102371, 0.040227629244327545, 0.031803447753190994, 0.03557978570461273, 0.04464767128229141, 0.08062218874692917], [0.05632013827562332, 0.12429062277078629, 0.004237527027726173, 0.007553343661129475, 0.013072622939944267, 0.026850150898098946, 0.002497243694961071, 0.013073844835162163, 0.13611996173858643, 0.009236780926585197, 0.1302947998046875, 0.0027368785813450813, 0.010970481671392918, 0.13614803552627563, 0.003636183449998498, 0.005894109606742859, 0.018361380323767662, 0.17588965594768524, 0.004278796259313822, 0.014355972409248352, 0.10418141633272171], [0.19010667502880096, 0.05275047570466995, 0.010371929034590721, 0.042128078639507294, 0.02069864049553871, 0.021813059225678444, 0.005487149581313133, 0.019351644441485405, 0.048354748636484146, 0.008753533475100994, 0.048440463840961456, 0.0074400510638952255, 0.01721121184527874, 0.05282948538661003, 0.0064456225372850895, 0.019533688202500343, 0.0762125551700592, 0.06314317882061005, 0.010609898716211319, 0.015037520788609982, 0.26328039169311523], [0.2976045310497284, 0.03261512145400047, 0.015613673254847527, 0.05472379922866821, 0.01040526945143938, 0.011552444659173489, 0.03560981899499893, 0.010489147156476974, 0.04857586696743965, 0.062076203525066376, 0.04631788656115532, 0.012532166205346584, 0.012056771665811539, 0.04166772961616516, 0.04898688942193985, 0.020877424627542496, 0.0311894454061985, 0.05136178061366081, 0.014956708066165447, 0.05983844771981239, 0.08094888925552368], [0.3621383011341095, 0.06320566684007645, 0.009680044837296009, 0.012609418481588364, 0.00732077844440937, 0.010437069460749626, 0.015090961940586567, 0.01425272785127163, 0.07831887155771255, 0.0301525741815567, 0.07093539834022522, 0.008439348079264164, 0.007515306584537029, 0.07224208861589432, 0.023009493947029114, 0.013557699508965015, 0.018451103940606117, 0.08664951473474503, 0.023166783154010773, 0.03236610069870949, 0.04046076163649559], [0.04155285283923149, 0.1288733035326004, 0.004416242241859436, 0.007473909296095371, 0.013236145488917828, 0.027791716158390045, 0.002679352182894945, 0.01309131272137165, 0.14075469970703125, 0.00741711538285017, 0.13715556263923645, 0.003173341043293476, 0.01165411900728941, 0.1496441811323166, 0.00410729693248868, 0.0044957357458770275, 0.015241573564708233, 0.18062126636505127, 0.004179005976766348, 0.013455024920403957, 0.08898637443780899], [0.27875009179115295, 0.04126647487282753, 0.014686604030430317, 0.052030425518751144, 0.013246677815914154, 0.008593209087848663, 0.004025633912533522, 0.0106542082503438, 0.05938981473445892, 0.030977385118603706, 0.05718725174665451, 0.013593076728284359, 0.019443316385149956, 0.06542856246232986, 0.010477755218744278, 0.031578585505485535, 0.02750362455844879, 0.06837227940559387, 0.007314308546483517, 0.038553718477487564, 0.14692698419094086], [0.12576855719089508, 0.10283108055591583, 0.007751115132123232, 0.030154168605804443, 0.014662380330264568, 0.020360266789793968, 0.009340307675302029, 0.024415070191025734, 0.11320160329341888, 0.01287567988038063, 0.10754714906215668, 0.006641411688178778, 0.01616280898451805, 0.11662359535694122, 0.011441084556281567, 0.016540704295039177, 0.03661006689071655, 0.130420982837677, 0.006930623669177294, 0.01691158302128315, 0.07280988246202469], [0.14299897849559784, 0.042900774627923965, 0.05351566895842552, 0.060365788638591766, 0.016348810866475105, 0.01223941333591938, 0.0750870555639267, 0.0162664782255888, 0.04815582558512688, 0.04620743170380592, 0.04736033454537392, 0.04282208904623985, 0.022364716976881027, 0.045098260045051575, 0.09626752138137817, 0.022483250126242638, 0.02360205538570881, 0.04937054216861725, 0.023823145776987076, 0.023931244388222694, 0.08879061043262482]], [[0.21045123040676117, 0.014814565889537334, 0.05701371282339096, 0.04212141036987305, 0.03281201049685478, 0.01066877506673336, 0.0919802114367485, 0.006031509954482317, 0.02576548047363758, 0.07030171900987625, 0.024278078228235245, 0.060798801481723785, 0.033388447016477585, 0.022066470235586166, 0.0687793642282486, 0.108225017786026, 0.018460983410477638, 0.022695017978549004, 0.04092996194958687, 0.022411465644836426, 0.016005773097276688], [0.0093473419547081, 0.08868011832237244, 0.015561778098344803, 0.01103329285979271, 0.004052497446537018, 0.007530369330197573, 0.0058541265316307545, 0.03948705643415451, 0.02985273115336895, 0.00373728945851326, 0.026012182235717773, 0.003103263210505247, 0.0011775934835895896, 0.01765557937324047, 0.002122343285009265, 0.0022304183803498745, 0.0030372911132872105, 0.013469631783664227, 0.0018511133966967463, 0.0045863850973546505, 0.709617555141449], [0.10346496105194092, 0.08451948314905167, 0.031386516988277435, 0.021885350346565247, 0.004385277163237333, 0.0210085678845644, 0.018364394083619118, 0.008083801716566086, 0.05165950208902359, 0.027200527489185333, 0.046654507517814636, 0.013174205087125301, 0.001201257691718638, 0.02401873469352722, 0.000362439954187721, 0.011597536504268646, 0.006245545577257872, 0.02251483127474785, 0.01975373923778534, 0.00254033668898046, 0.4799784719944], [0.32674121856689453, 0.03830516338348389, 0.08888101577758789, 0.10099193453788757, 0.05129939690232277, 0.012988930568099022, 0.008464610204100609, 0.009051002562046051, 0.015363202430307865, 0.008291495963931084, 0.019941657781600952, 0.07550495862960815, 0.03675643354654312, 0.014815431088209152, 0.03082980029284954, 0.022562064230442047, 0.03789403289556503, 0.016419747844338417, 0.024472754448652267, 0.014875960536301136, 0.045549314469099045], [0.07745607942342758, 0.19387376308441162, 0.015135017223656178, 0.014075209386646748, 0.005642704665660858, 0.08275483548641205, 0.025055676698684692, 0.02750553749501705, 0.11798930168151855, 0.009868677705526352, 0.12575171887874603, 0.0064385575242340565, 0.002064328407868743, 0.07642431557178497, 0.005015946459025145, 0.008517900481820107, 0.004872649442404509, 0.06529378145933151, 0.011044160462915897, 0.011684773489832878, 0.1135350689291954], [0.08073626458644867, 0.08975117653608322, 0.006818653084337711, 0.030975831672549248, 0.018488800153136253, 0.08899041265249252, 0.018541861325502396, 0.023667849600315094, 0.15014569461345673, 0.00812762975692749, 0.14183008670806885, 0.005626646801829338, 0.01049032062292099, 0.12241761386394501, 0.002947303233668208, 0.005826289299875498, 0.00968125555664301, 0.09767384082078934, 0.01218496449291706, 0.018104037269949913, 0.056973446160554886], [0.2630365192890167, 0.03898362070322037, 0.008698618039488792, 0.05386189743876457, 0.0187545046210289, 0.10106973350048065, 0.004679449833929539, 0.013318379409611225, 0.10659714788198471, 0.006685065105557442, 0.09138081222772598, 0.01012135948985815, 0.018582075834274292, 0.11434637010097504, 0.0014188300119712949, 0.0029404505621641874, 0.00884650181978941, 0.0874512791633606, 0.00823753047734499, 0.013443857431411743, 0.027546096593141556], [0.15234243869781494, 0.07047385722398758, 0.017517082393169403, 0.08526800572872162, 0.0189414881169796, 0.018969273194670677, 0.013245264068245888, 0.020880669355392456, 0.10689076781272888, 0.0219712071120739, 0.10526334494352341, 0.01912626624107361, 0.013648808002471924, 0.08588764816522598, 0.005204931832849979, 0.013534234836697578, 0.02473846822977066, 0.08002536743879318, 0.01338602602481842, 0.01223413273692131, 0.10045067220926285], [0.10720399022102356, 0.07377534359693527, 0.010639062151312828, 0.02829306200146675, 0.013296142220497131, 0.07044065743684769, 0.019570374861359596, 0.037469282746315, 0.12373188138008118, 0.012284667231142521, 0.10782665759325027, 0.008859752677381039, 0.010465724393725395, 0.10647616535425186, 0.004795876797288656, 0.0073695401661098, 0.015223534777760506, 0.09102348238229752, 0.011981901712715626, 0.0353727862238884, 0.10390014201402664], [0.10768317431211472, 0.036099210381507874, 0.005312439985573292, 0.01882789097726345, 0.009562664665281773, 0.22526869177818298, 0.00373707409016788, 0.01256777998059988, 0.10887162387371063, 0.0032110230531543493, 0.11590459942817688, 0.008843195624649525, 0.01187794841825962, 0.14500205218791962, 0.000740418559871614, 0.0032524617854505777, 0.010237064212560654, 0.10574080049991608, 0.011796573176980019, 0.0208857711404562, 0.034577567130327225], [0.12377245724201202, 0.058596350252628326, 0.009308287873864174, 0.02728130668401718, 0.01504805963486433, 0.07857543230056763, 0.01764797233045101, 0.03361159935593605, 0.1253860592842102, 0.013396909460425377, 0.11343629658222198, 0.009554607793688774, 0.013101802207529545, 0.11798149347305298, 0.007361259311437607, 0.00776134105399251, 0.015213629230856895, 0.1033463254570961, 0.014203284867107868, 0.03529030829668045, 0.060125213116407394], [0.40338677167892456, 0.036955825984478, 0.013039185665547848, 0.029603948816657066, 0.00800003670156002, 0.05123963579535484, 0.019513871520757675, 0.005167753901332617, 0.08107331395149231, 0.03387698531150818, 0.07258175313472748, 0.014900594018399715, 0.004799770191311836, 0.05401553213596344, 0.0006934826960787177, 0.01486358605325222, 0.011858892627060413, 0.05594925582408905, 0.03356711193919182, 0.005868596024811268, 0.049044106155633926], [0.1491086632013321, 0.1108095794916153, 0.011355104856193066, 0.013378926552832127, 0.005887280683964491, 0.1040852889418602, 0.025368161499500275, 0.024006541818380356, 0.11532764136791229, 0.013895298354327679, 0.11941520869731903, 0.007943939417600632, 0.0034895306453108788, 0.09703294187784195, 0.006059145089238882, 0.010363609530031681, 0.010199906304478645, 0.09081130474805832, 0.019776543602347374, 0.02125607803463936, 0.04042930155992508], [0.15783259272575378, 0.04940599948167801, 0.008151926100254059, 0.02774910256266594, 0.01595352217555046, 0.08237290382385254, 0.016922323033213615, 0.023289568722248077, 0.1257365643978119, 0.01618177443742752, 0.1105974093079567, 0.00913978647440672, 0.014726663008332253, 0.1159788966178894, 0.004908374976366758, 0.007009279448539019, 0.015423602424561977, 0.11262819916009903, 0.0162468571215868, 0.03099108673632145, 0.03875354304909706], [0.147136852145195, 0.024701368063688278, 0.0008871507016010582, 0.009395921602845192, 0.0016480005579069257, 0.1487947553396225, 0.0027090676594525576, 0.013779189437627792, 0.12851482629776, 0.0011929875472560525, 0.12239895761013031, 0.0022664894349873066, 0.002262744354084134, 0.19077739119529724, 0.0005436024512164295, 0.0018158321036025882, 0.028530996292829514, 0.1201704815030098, 0.006173169706016779, 0.0370737761259079, 0.009226341731846333], [0.1654442995786667, 0.008444953709840775, 0.0039278785698115826, 0.07484549283981323, 0.20810246467590332, 0.010188054293394089, 0.0018714420730248094, 0.0037863359320908785, 0.042252492159605026, 0.0054489499889314175, 0.039974749088287354, 0.007659744005650282, 0.29221394658088684, 0.044268861413002014, 0.004100522957742214, 0.0022269210312515497, 0.014292038045823574, 0.05321386456489563, 0.0032138258684426546, 0.005024484824389219, 0.009498681873083115], [0.322677880525589, 0.016632724553346634, 0.0039931102655828, 0.03271857649087906, 0.04536837711930275, 0.023569650948047638, 0.0033752024173736572, 0.016462424769997597, 0.08584322035312653, 0.006110962014645338, 0.07769231498241425, 0.008911492303013802, 0.06703536212444305, 0.08775355666875839, 0.0023034457117319107, 0.012289087288081646, 0.049617916345596313, 0.09596763551235199, 0.007724266964942217, 0.020759912207722664, 0.013192969374358654], [0.11752559244632721, 0.0553228035569191, 0.010356839746236801, 0.027997249737381935, 0.018104661256074905, 0.05253422260284424, 0.01908792182803154, 0.03389342501759529, 0.12174959480762482, 0.014015927910804749, 0.11074870079755783, 0.0108874486759305, 0.018074272200465202, 0.12458457052707672, 0.009094609878957272, 0.009736265987157822, 0.02093486115336418, 0.11653084307909012, 0.017430700361728668, 0.040522631257772446, 0.05086689442396164], [0.19775265455245972, 0.03435581922531128, 0.011060424149036407, 0.024346062913537025, 0.005457398947328329, 0.03069349378347397, 0.012159817852079868, 0.012484762817621231, 0.11495538800954819, 0.015855804085731506, 0.11324729025363922, 0.02086135558784008, 0.007882156409323215, 0.11234569549560547, 0.002055161166936159, 0.02106301486492157, 0.018032442778348923, 0.12483461946249008, 0.026146534830331802, 0.01893029734492302, 0.07547976821660995], [0.1149895191192627, 0.03800282999873161, 0.009835840202867985, 0.05488360673189163, 0.005683866795152426, 0.006601964123547077, 0.008541847579181194, 0.012564854696393013, 0.12074310332536697, 0.016164593398571014, 0.1269688606262207, 0.0183061882853508, 0.007646283600479364, 0.13412156701087952, 0.02977694943547249, 0.010658757761120796, 0.021710960194468498, 0.17784878611564636, 0.026442652568221092, 0.02696646749973297, 0.03154044225811958], [0.18605192005634308, 0.1610254943370819, 0.05967497080564499, 0.0682472512125969, 0.07238119840621948, 0.10721303522586823, 0.04779772832989693, 0.004620513413101435, 0.025764113292098045, 0.07425790280103683, 0.020833229646086693, 0.013320905156433582, 0.01794266514480114, 0.008543024770915508, 0.008841349743306637, 0.004759819246828556, 0.0016212917398661375, 0.008388618007302284, 0.006239039823412895, 0.003069591475650668, 0.09940639138221741]], [[0.3191049098968506, 0.03798878565430641, 0.017857268452644348, 0.021837016567587852, 0.015092449262738228, 0.010206760838627815, 0.0198760237544775, 0.01854187808930874, 0.03577557951211929, 0.0085831880569458, 0.03800800070166588, 0.021637510508298874, 0.021274004131555557, 0.028647635132074356, 0.019226854667067528, 0.012721709907054901, 0.024303825572133064, 0.04309618100523949, 0.014413234777748585, 0.023299366235733032, 0.2485077828168869], [0.14562785625457764, 0.03255145251750946, 0.026588767766952515, 0.02801263891160488, 0.027399083599448204, 0.025767775252461433, 0.025283683091402054, 0.03703974932432175, 0.044497545808553696, 0.048850350081920624, 0.059717807918787, 0.056814875453710556, 0.04615800827741623, 0.04744955524802208, 0.04737992212176323, 0.027642162516713142, 0.020703716203570366, 0.03240872547030449, 0.021547483280301094, 0.020063290372490883, 0.17849557101726532], [0.01930825039744377, 0.039462730288505554, 0.08773799240589142, 0.003919972572475672, 0.004760066978633404, 0.031964827328920364, 0.0589948445558548, 0.05690255016088486, 0.03964565321803093, 0.2030283659696579, 0.043752241879701614, 0.18650680780410767, 0.00892761629074812, 0.03632153570652008, 0.03915383294224739, 0.007912280037999153, 0.012151296250522137, 0.030286796391010284, 0.005767373833805323, 0.005052659660577774, 0.07844243943691254], [0.03724643588066101, 0.09823058545589447, 0.05977507680654526, 0.0780571848154068, 0.032583825290203094, 0.042523808777332306, 0.013967474922537804, 0.03973536938428879, 0.03580591827630997, 0.02159760147333145, 0.042747195810079575, 0.039656516164541245, 0.05175051838159561, 0.04227271303534508, 0.02130427025258541, 0.047905195504426956, 0.029892688617110252, 0.052728474140167236, 0.010836342349648476, 0.013340519741177559, 0.1880422979593277], [0.243523970246315, 0.056181780993938446, 0.11179039627313614, 0.04537680000066757, 0.005931876599788666, 0.015601102262735367, 0.014492594636976719, 0.035555869340896606, 0.03181474655866623, 0.06877671927213669, 0.02672187238931656, 0.0676737055182457, 0.016626857221126556, 0.02355540171265602, 0.010943189263343811, 0.019246939569711685, 0.017002718523144722, 0.04575404152274132, 0.03740562126040459, 0.01669624075293541, 0.0893276184797287], [0.21123525500297546, 0.051881980150938034, 0.10505597293376923, 0.04503794386982918, 0.017942996695637703, 0.008359361439943314, 0.009413541294634342, 0.02401863783597946, 0.03724323958158493, 0.04762144014239311, 0.03581931069493294, 0.05096909776329994, 0.028115542605519295, 0.02820347249507904, 0.032540399581193924, 0.012192265130579472, 0.012288115918636322, 0.03548179194331169, 0.03845169395208359, 0.03463658317923546, 0.13349154591560364], [0.04001479968428612, 0.054607097059488297, 0.030446061864495277, 0.025828968733549118, 0.03475471958518028, 0.03703974559903145, 0.03288291394710541, 0.05335057154297829, 0.05800764635205269, 0.07160045951604843, 0.08967658132314682, 0.024318218231201172, 0.01884210668504238, 0.06843988597393036, 0.08003728836774826, 0.010018302127718925, 0.005871801171451807, 0.04695911332964897, 0.007436276879161596, 0.02370772324502468, 0.1861596703529358], [0.07113286107778549, 0.03949207812547684, 0.06255507469177246, 0.04821384698152542, 0.06016368418931961, 0.04790819063782692, 0.023472001776099205, 0.03280822932720184, 0.020392615348100662, 0.011283721774816513, 0.041993916034698486, 0.053202152252197266, 0.019319819286465645, 0.029253412038087845, 0.0544562041759491, 0.018721580505371094, 0.014613216742873192, 0.0323101244866848, 0.023242786526679993, 0.07296419143676758, 0.2225002646446228], [0.1577502191066742, 0.04945783317089081, 0.04907615855336189, 0.04044468328356743, 0.04042346030473709, 0.04458093270659447, 0.043455883860588074, 0.02967011369764805, 0.026063472032546997, 0.03244996815919876, 0.04274391382932663, 0.06307230144739151, 0.04344673827290535, 0.03664484620094299, 0.03183257579803467, 0.014260564930737019, 0.018007725477218628, 0.03852945938706398, 0.027912510558962822, 0.026986459270119667, 0.14319021999835968], [0.027183329686522484, 0.08262468129396439, 0.06039312481880188, 0.003631994593888521, 0.004864396993070841, 0.0066048940643668175, 0.05206403136253357, 0.01715965010225773, 0.07259657979011536, 0.18300144374370575, 0.053681522607803345, 0.07705697417259216, 0.010053317993879318, 0.06300545483827591, 0.0017521888948976994, 0.00429185014218092, 0.0023366205859929323, 0.05771604925394058, 0.022361133247613907, 0.019650300964713097, 0.17797048389911652], [0.16992251574993134, 0.06283409893512726, 0.047181274741888046, 0.03320547938346863, 0.021713634952902794, 0.02926682122051716, 0.04095178470015526, 0.07878543436527252, 0.07324115931987762, 0.047251347452402115, 0.031726643443107605, 0.027537720277905464, 0.028274286538362503, 0.05206139385700226, 0.03732289373874664, 0.015890594571828842, 0.014777329750359058, 0.03819612041115761, 0.025226064026355743, 0.026598582044243813, 0.09803476929664612], [0.017938880249857903, 0.04475385695695877, 0.15529704093933105, 0.006867512594908476, 0.0033693655859678984, 0.02357945777475834, 0.06583242118358612, 0.08749394863843918, 0.08731453120708466, 0.21418450772762299, 0.03237367421388626, 0.08779815584421158, 0.002670207293704152, 0.030336443334817886, 0.032242704182863235, 0.0040498413145542145, 0.005512638948857784, 0.02555684931576252, 0.005436365958303213, 0.008264122530817986, 0.05912743881344795], [0.17154459655284882, 0.025276996195316315, 0.10001292079687119, 0.05855347961187363, 0.009412028826773167, 0.02579241618514061, 0.025930875912308693, 0.02700924687087536, 0.04334438219666481, 0.1677539199590683, 0.039981648325920105, 0.10032214224338531, 0.005846846848726273, 0.011324658989906311, 0.010595316998660564, 0.01990041695535183, 0.010952115058898926, 0.024478740990161896, 0.021581295877695084, 0.013930678367614746, 0.08645535260438919], [0.17697031795978546, 0.0416647270321846, 0.05801311135292053, 0.027658700942993164, 0.023078279569745064, 0.029559142887592316, 0.03295338153839111, 0.03543616086244583, 0.040078483521938324, 0.07481161504983902, 0.07126592844724655, 0.10160648822784424, 0.027972357347607613, 0.017162784934043884, 0.028398621827363968, 0.01338381227105856, 0.01693887636065483, 0.042683809995651245, 0.02702764794230461, 0.02340024523437023, 0.08993558585643768], [0.02177518792450428, 0.09787444025278091, 0.044248368591070175, 0.0449976809322834, 0.016198569908738136, 0.029193582013249397, 0.018164053559303284, 0.034434735774993896, 0.08641605824232101, 0.0159674771130085, 0.1267310529947281, 0.07391182333230972, 0.017732493579387665, 0.05540984496474266, 0.02219199202954769, 0.016615180298686028, 0.012744680047035217, 0.08716649562120438, 0.004665043205022812, 0.04107717052102089, 0.13248412311077118], [0.060833320021629333, 0.042585596442222595, 0.02140822634100914, 0.04033060744404793, 0.02113846130669117, 0.034889448434114456, 0.014498189091682434, 0.07835384458303452, 0.0532262958586216, 0.0119819650426507, 0.05051979050040245, 0.029337486252188683, 0.04870302230119705, 0.06109856814146042, 0.17805582284927368, 0.009018725715577602, 0.014605746604502201, 0.04761531576514244, 0.009611358866095543, 0.03699073940515518, 0.13519753515720367], [0.06553532928228378, 0.03799409791827202, 0.014290593564510345, 0.03012949414551258, 0.031695783138275146, 0.028752440586686134, 0.015689894556999207, 0.04164798930287361, 0.07487505674362183, 0.011995193548500538, 0.06688670068979263, 0.022948037832975388, 0.07029841095209122, 0.11770801991224289, 0.07110278308391571, 0.01696365885436535, 0.011519798077642918, 0.04196639731526375, 0.013852298259735107, 0.03351728618144989, 0.18063078820705414], [0.15436957776546478, 0.028573721647262573, 0.027542876079678535, 0.033370692282915115, 0.02938997559249401, 0.02588859386742115, 0.03590450435876846, 0.039951324462890625, 0.04872669652104378, 0.051618266850709915, 0.04837289825081825, 0.05123671516776085, 0.04434851557016373, 0.053489599376916885, 0.07597288489341736, 0.038617126643657684, 0.019511360675096512, 0.027142509818077087, 0.02349109947681427, 0.023778952658176422, 0.11870210617780685], [0.019175471737980843, 0.06133361905813217, 0.016176721081137657, 0.0048138746060431, 0.01900864578783512, 0.014865787699818611, 0.009007121436297894, 0.009267967194318771, 0.11232011765241623, 0.01994798146188259, 0.13895109295845032, 0.06193450838327408, 0.04145118594169617, 0.09315638989210129, 0.036040592938661575, 0.015228104777634144, 0.009973646141588688, 0.11164318025112152, 0.02294023521244526, 0.014833344146609306, 0.16793039441108704], [0.2249280959367752, 0.03960487246513367, 0.019871512427926064, 0.0017154566012322903, 0.006410995963960886, 0.009275038726627827, 0.026885148137807846, 0.021509844809770584, 0.042181819677352905, 0.015316748060286045, 0.05652417615056038, 0.09404750913381577, 0.024312715977430344, 0.035806261003017426, 0.039508942514657974, 0.01174592599272728, 0.015478195622563362, 0.07577435672283173, 0.02820443920791149, 0.004557967185974121, 0.2063399851322174], [0.08964408189058304, 0.07181107252836227, 0.046753205358982086, 0.04430057108402252, 0.032997436821460724, 0.02711227536201477, 0.03002476878464222, 0.058781787753105164, 0.038201119750738144, 0.024722497910261154, 0.03367564082145691, 0.044288523495197296, 0.06577079743146896, 0.03315791115164757, 0.027440426871180534, 0.03597768396139145, 0.038917962461709976, 0.05096196010708809, 0.07990573346614838, 0.020948095247149467, 0.10460644960403442]], [[0.1765449196100235, 0.09962093830108643, 0.042882610112428665, 0.04583575204014778, 0.01937706768512726, 0.01683228649199009, 0.07862894237041473, 0.04026854783296585, 0.0697881355881691, 0.04400637373328209, 0.06818981468677521, 0.02393955923616886, 0.013028684072196484, 0.03732837736606598, 0.033419862389564514, 0.01154270302504301, 0.017891209572553635, 0.05988052487373352, 0.019357526674866676, 0.017502712085843086, 0.06413348764181137], [0.03369464352726936, 0.11025654524564743, 0.05510328710079193, 0.05951402336359024, 0.011028464883565903, 0.00919096078723669, 0.048669878393411636, 0.030369415879249573, 0.08324424177408218, 0.052903592586517334, 0.08380299806594849, 0.038660477846860886, 0.012205860577523708, 0.07223625481128693, 0.06878881901502609, 0.013697492890059948, 0.02884661965072155, 0.06994672864675522, 0.02705833688378334, 0.015154390595853329, 0.07562696933746338], [0.015885023400187492, 0.06972397863864899, 0.024601999670267105, 0.01401163823902607, 0.019715188071131706, 0.04173888638615608, 0.05694759637117386, 0.01770884543657303, 0.08187385648488998, 0.09857790917158127, 0.08183418214321136, 0.020848073065280914, 0.01667063869535923, 0.07728327065706253, 0.017572592943906784, 0.03352665156126022, 0.010274581611156464, 0.06890442222356796, 0.01423539500683546, 0.03694089129567146, 0.18112432956695557], [0.016925400123000145, 0.08564198762178421, 0.0836968645453453, 0.0034689870662987232, 0.017463956028223038, 0.04270940274000168, 0.05321761593222618, 0.01489657536149025, 0.08005964756011963, 0.05874115973711014, 0.07229463756084442, 0.05629730224609375, 0.011718323454260826, 0.0594603456556797, 0.02227410487830639, 0.013968872837722301, 0.009811010211706161, 0.07242453843355179, 0.0197231937199831, 0.03522823378443718, 0.16997787356376648], [0.024043818935751915, 0.0943995863199234, 0.04408172518014908, 0.03727761656045914, 0.013062817975878716, 0.048232946544885635, 0.03774901479482651, 0.022057203575968742, 0.09653939306735992, 0.02565852366387844, 0.09639407694339752, 0.030111128464341164, 0.010611175559461117, 0.08354130387306213, 0.01955302059650421, 0.034241992980241776, 0.025087697431445122, 0.08157547563314438, 0.006049447227269411, 0.021760866045951843, 0.14797106385231018], [0.03338687866926193, 0.08945830911397934, 0.02483672834932804, 0.038927312940359116, 0.02744731865823269, 0.03462650626897812, 0.03730468079447746, 0.02533303014934063, 0.09535280615091324, 0.03499928489327431, 0.09696268290281296, 0.017098668962717056, 0.021034976467490196, 0.08372006565332413, 0.02759631909430027, 0.02007189206779003, 0.015856077894568443, 0.07727336138486862, 0.007451844867318869, 0.029440099373459816, 0.16182123124599457], [0.016221631318330765, 0.11425015330314636, 0.02867366187274456, 0.011737272143363953, 0.024675754830241203, 0.03198714181780815, 0.00705102551728487, 0.007833142764866352, 0.11828804761171341, 0.045599453151226044, 0.11137452721595764, 0.01939220353960991, 0.019609255716204643, 0.09265320748090744, 0.03918694704771042, 0.020045435056090355, 0.007132110185921192, 0.08049488067626953, 0.011387798935174942, 0.031225724145770073, 0.16118063032627106], [0.02203262411057949, 0.040161773562431335, 0.00828144047409296, 0.016620397567749023, 0.007936544716358185, 0.012967487797141075, 0.026077454909682274, 0.3369409143924713, 0.05408841744065285, 0.017951346933841705, 0.05881567671895027, 0.007642889395356178, 0.0078262435272336, 0.04378348961472511, 0.01735629327595234, 0.04598265886306763, 0.04023551195859909, 0.05470632389187813, 0.00951213575899601, 0.05434210225939751, 0.11673817783594131], [0.041114479303359985, 0.08975887298583984, 0.04443995654582977, 0.040313296020030975, 0.011056912131607533, 0.012397297658026218, 0.03743668645620346, 0.02620125189423561, 0.08377059549093246, 0.05342632532119751, 0.08559469878673553, 0.039765097200870514, 0.015530696138739586, 0.08155467361211777, 0.09598595649003983, 0.01499788835644722, 0.020082276314496994, 0.07544706761837006, 0.02452743984758854, 0.018855806440114975, 0.08774276077747345], [0.06200926750898361, 0.07844678312540054, 0.027005838230252266, 0.020661890506744385, 0.013767431490123272, 0.015533729456365108, 0.0760863795876503, 0.0030440986156463623, 0.09940717369318008, 0.012656633742153645, 0.10355335474014282, 0.02381177246570587, 0.014206333085894585, 0.07946701347827911, 0.03344864398241043, 0.010968372225761414, 0.0033618116285651922, 0.09181006252765656, 0.03678745776414871, 0.021077511832118034, 0.17288826406002045], [0.03841660916805267, 0.0849636048078537, 0.05082184821367264, 0.03977060690522194, 0.011031107045710087, 0.012624390423297882, 0.04048033058643341, 0.02323886565864086, 0.07789541035890579, 0.05201325938105583, 0.08040899783372879, 0.04616803303360939, 0.015435517765581608, 0.07761900871992111, 0.10859575867652893, 0.015539244748651981, 0.020464638248085976, 0.07550543546676636, 0.030253063887357712, 0.020514899864792824, 0.07823935896158218], [0.01533910445868969, 0.05368422716856003, 0.024136293679475784, 0.008897592313587666, 0.02115403674542904, 0.05797749012708664, 0.051022719591856, 0.01437749806791544, 0.07348702102899551, 0.0832417905330658, 0.07595743983983994, 0.024310117587447166, 0.020044326782226562, 0.07338020950555801, 0.019858550280332565, 0.038404498249292374, 0.008431680500507355, 0.06996965408325195, 0.012997168116271496, 0.0448291189968586, 0.20849940180778503], [0.026919888332486153, 0.07348468899726868, 0.05455867946147919, 0.032720666378736496, 0.014192916452884674, 0.05315648019313812, 0.043687306344509125, 0.016351107507944107, 0.08222067356109619, 0.02452167123556137, 0.08464432507753372, 0.045456789433956146, 0.013089289888739586, 0.07823304831981659, 0.03126397728919983, 0.04751632735133171, 0.023912565782666206, 0.08140761405229568, 0.00770600838586688, 0.03398124873638153, 0.1309746652841568], [0.039925072342157364, 0.07884752005338669, 0.05245162919163704, 0.038099903613328934, 0.010958093218505383, 0.012649393640458584, 0.03786569833755493, 0.018018079921603203, 0.07449838519096375, 0.042616404592990875, 0.07907460629940033, 0.05156814306974411, 0.01706002838909626, 0.07579749822616577, 0.12086622416973114, 0.01981816068291664, 0.02434968762099743, 0.07801246643066406, 0.032869987189769745, 0.024119975045323372, 0.07053294032812119], [0.023496080189943314, 0.08986271917819977, 0.04957298934459686, 0.011218818835914135, 0.02215048484504223, 0.018183929845690727, 0.042221277952194214, 0.024568310007452965, 0.10324619710445404, 0.04741312563419342, 0.10113876312971115, 0.04638891667127609, 0.02941640466451645, 0.09315492957830429, 0.0038037823978811502, 0.00843020062893629, 0.006928453221917152, 0.10253114998340607, 0.034557852894067764, 0.028980839997529984, 0.1127348244190216], [0.07150550931692123, 0.07793837785720825, 0.023013928905129433, 0.011408302932977676, 0.015019171871244907, 0.023307425901293755, 0.050259366631507874, 0.031423456966876984, 0.09301196038722992, 0.016413142904639244, 0.08983879536390305, 0.018485533073544502, 0.013503697700798512, 0.07281573861837387, 0.012505370192229748, 0.024113904684782028, 0.020528333261609077, 0.10070069134235382, 0.009566960856318474, 0.04759727045893669, 0.17704303562641144], [0.053134799003601074, 0.07800328731536865, 0.021269042044878006, 0.01719805970788002, 0.013336259871721268, 0.024962104856967926, 0.02172802947461605, 0.13810205459594727, 0.08266973495483398, 0.01242155022919178, 0.0841328576207161, 0.020884554833173752, 0.014302445575594902, 0.0659269317984581, 0.014080428518354893, 0.0610363744199276, 0.028696581721305847, 0.07812218368053436, 0.010186780244112015, 0.03855939581990242, 0.12124662101268768], [0.05322076007723808, 0.08617265522480011, 0.04532469063997269, 0.03188735619187355, 0.008687678724527359, 0.011727550998330116, 0.0398343950510025, 0.020282072946429253, 0.07767072319984436, 0.04057687520980835, 0.08035969734191895, 0.04231495410203934, 0.012978869490325451, 0.07754546403884888, 0.10765080153942108, 0.019329555332660675, 0.024779794737696648, 0.0867815762758255, 0.032269854098558426, 0.02258283644914627, 0.07802186161279678], [0.061215125024318695, 0.08470731228590012, 0.03219163045287132, 0.01760045625269413, 0.016703389585018158, 0.014661112800240517, 0.06246229261159897, 0.007933591492474079, 0.10055338591337204, 0.04626593738794327, 0.11161184310913086, 0.022054549306631088, 0.01583637297153473, 0.06897706538438797, 0.024146873503923416, 0.014810447581112385, 0.006404696963727474, 0.09983375668525696, 0.0037453933618962765, 0.01985185593366623, 0.16843289136886597], [0.0632878839969635, 0.09709114581346512, 0.03455718234181404, 0.017995761707425117, 0.012785198166966438, 0.014029378071427345, 0.038488179445266724, 0.01024108286947012, 0.08478008210659027, 0.02265232801437378, 0.0894160270690918, 0.022292369976639748, 0.010324276983737946, 0.06980711966753006, 0.021988507360219955, 0.02047526277601719, 0.013221988454461098, 0.10377086699008942, 0.02612108178436756, 0.030796680599451065, 0.19587762653827667], [0.02526244707405567, 0.09973958134651184, 0.05550875887274742, 0.047394152730703354, 0.017328793182969093, 0.012433559633791447, 0.08342859894037247, 0.03420434892177582, 0.08091258257627487, 0.05039522796869278, 0.07885942608118057, 0.04258047789335251, 0.012855084612965584, 0.06456165015697479, 0.03493316471576691, 0.02169729769229889, 0.02236972562968731, 0.07791227847337723, 0.031830016523599625, 0.0231265127658844, 0.08266624063253403]], [[0.05068463459610939, 0.04470538720488548, 0.004736180417239666, 0.02292771264910698, 0.005775543861091137, 0.007207976188510656, 0.035078756511211395, 0.0041715530678629875, 0.020140893757343292, 0.02152916043996811, 0.022604510188102722, 0.0035109729506075382, 0.006080665625631809, 0.026959339156746864, 0.012776253744959831, 0.017119476571679115, 0.010080887004733086, 0.017375554889440536, 0.00918087549507618, 0.009832438081502914, 0.6475212574005127], [0.1688292771577835, 0.05798397958278656, 0.027495449408888817, 0.038101449608802795, 0.017418354749679565, 0.02523842640221119, 0.012594754807651043, 0.040949199348688126, 0.09241779148578644, 0.02294214442372322, 0.08508949726819992, 0.027037566527724266, 0.018295489251613617, 0.08884436637163162, 0.013384779915213585, 0.021826352924108505, 0.012760385870933533, 0.1040610745549202, 0.009715785272419453, 0.021189944818615913, 0.0938238725066185], [0.13658227026462555, 0.051057156175374985, 0.019697733223438263, 0.016043193638324738, 0.01851428672671318, 0.013469814322888851, 0.01487849373370409, 0.04648209363222122, 0.06746933609247208, 0.03367788344621658, 0.07248657941818237, 0.01960381679236889, 0.015961172059178352, 0.04892443120479584, 0.00592893548309803, 0.03206166997551918, 0.03073488548398018, 0.08580230921506882, 0.007106007542461157, 0.03752558305859566, 0.2259923666715622], [0.2982407808303833, 0.029418960213661194, 0.030396169051527977, 0.013268020004034042, 0.012073312886059284, 0.009897461161017418, 0.015498630702495575, 0.10206560045480728, 0.03999342769384384, 0.009814595803618431, 0.03676751255989075, 0.019101370126008987, 0.004465065430849791, 0.024095309898257256, 0.004446014761924744, 0.021725358441472054, 0.014361509121954441, 0.04780026897788048, 0.0005061232368461788, 0.009168329648673534, 0.25689613819122314], [0.12638792395591736, 0.078650563955307, 0.01809641718864441, 0.033272407948970795, 0.01990935020148754, 0.040712274610996246, 0.01124414149671793, 0.05586325749754906, 0.09349080175161362, 0.007109018974006176, 0.09071291238069534, 0.017438475042581558, 0.016659393906593323, 0.07459009438753128, 0.007559886667877436, 0.029176784679293633, 0.0185546912252903, 0.10580461472272873, 0.006633015815168619, 0.0234411358833313, 0.1246928870677948], [0.1456645131111145, 0.06419120728969574, 0.02555341273546219, 0.03603071719408035, 0.011764317750930786, 0.01492115668952465, 0.01068365853279829, 0.08292405307292938, 0.09908107668161392, 0.020986085757613182, 0.09981761872768402, 0.027108697220683098, 0.010060829110443592, 0.06346876174211502, 0.0157285388559103, 0.02627248875796795, 0.03112570196390152, 0.1024836003780365, 0.010066013783216476, 0.016116561368107796, 0.08595094084739685], [0.1330113559961319, 0.0536612831056118, 0.017557566985487938, 0.02464251220226288, 0.02220681682229042, 0.04002536088228226, 0.02465004287660122, 0.15970323979854584, 0.0771186351776123, 0.027324635535478592, 0.07504607737064362, 0.015037750825285912, 0.011772243306040764, 0.0353030301630497, 0.0065498086623847485, 0.03725321218371391, 0.043088167905807495, 0.0726836696267128, 0.00811850931495428, 0.02088034152984619, 0.09436582773923874], [0.11494116485118866, 0.08154048025608063, 0.016793973743915558, 0.02158973552286625, 0.016007959842681885, 0.015275642275810242, 0.03547779470682144, 0.05135355144739151, 0.06992638111114502, 0.016932424157857895, 0.07369738817214966, 0.013198737055063248, 0.013227907940745354, 0.0652402862906456, 0.008778402581810951, 0.02478918246924877, 0.019488519057631493, 0.06613856554031372, 0.006585327908396721, 0.0325138196349144, 0.2365027517080307], [0.14753419160842896, 0.06362781673669815, 0.03634233772754669, 0.0377432256937027, 0.01951172575354576, 0.029074648395180702, 0.016548385843634605, 0.05373702570796013, 0.09495898336172104, 0.02823295071721077, 0.08650790899991989, 0.03331308811903, 0.016271626576781273, 0.078493632376194, 0.013224301859736443, 0.023169593885540962, 0.014357746578752995, 0.10126547515392303, 0.007116769906133413, 0.024371284991502762, 0.07459741085767746], [0.10618069022893906, 0.04394963011145592, 0.02819208614528179, 0.05503067746758461, 0.016308560967445374, 0.025731833651661873, 0.026944385841488838, 0.032317500561475754, 0.04856707528233528, 0.018210161477327347, 0.052146587520837784, 0.024040939286351204, 0.011530723422765732, 0.04960089921951294, 0.026548011228442192, 0.06824959069490433, 0.03151391074061394, 0.0521455854177475, 0.009051889181137085, 0.017868371680378914, 0.25587090849876404], [0.1312166154384613, 0.062468308955430984, 0.03368294611573219, 0.03922729566693306, 0.021237295120954514, 0.03403746336698532, 0.012984351254999638, 0.047533754259347916, 0.10199093818664551, 0.023643001914024353, 0.08895247429609299, 0.032406363636255264, 0.02015889622271061, 0.08634783327579498, 0.014921355061233044, 0.02205313928425312, 0.013233990408480167, 0.1067432090640068, 0.008715308271348476, 0.02676410973072052, 0.07168141007423401], [0.1273813545703888, 0.04800676554441452, 0.026296183466911316, 0.017751870676875114, 0.022117065265774727, 0.016911549493670464, 0.015012524090707302, 0.05450758337974548, 0.07050027698278427, 0.03767382726073265, 0.07424742728471756, 0.025791358202695847, 0.01737021468579769, 0.048112902790308, 0.0066357203759253025, 0.029101315885782242, 0.03468616306781769, 0.08770189434289932, 0.007630625739693642, 0.04562919959425926, 0.18693417310714722], [0.11462391912937164, 0.06795413792133331, 0.024009184911847115, 0.03701939061284065, 0.02389642223715782, 0.052551209926605225, 0.013326150365173817, 0.05259105563163757, 0.08774521201848984, 0.00853226613253355, 0.08443919569253922, 0.0233792532235384, 0.01743263565003872, 0.06803246587514877, 0.008860286325216293, 0.029646847397089005, 0.023252146318554878, 0.10150942951440811, 0.010110585950314999, 0.02286798320710659, 0.12822021543979645], [0.1247791051864624, 0.05588545277714729, 0.04790821671485901, 0.03936208039522171, 0.023107795044779778, 0.03138863295316696, 0.013932967558503151, 0.07023375481367111, 0.09330524504184723, 0.027204999700188637, 0.08072825521230698, 0.043810512870550156, 0.019569260999560356, 0.07439238578081131, 0.019495103508234024, 0.022272393107414246, 0.019849885255098343, 0.10154668986797333, 0.013135877437889576, 0.026921985670924187, 0.05116933211684227], [0.22930437326431274, 0.02890181727707386, 0.008731121197342873, 0.032211918383836746, 0.03043060004711151, 0.02779538370668888, 0.0206027589738369, 0.027078814804553986, 0.053621407598257065, 0.034971777349710464, 0.05084076523780823, 0.009732852689921856, 0.015499397180974483, 0.03622700646519661, 0.0020896391943097115, 0.01849687471985817, 0.0186653733253479, 0.0684867799282074, 0.007772667799144983, 0.025807730853557587, 0.2527309060096741], [0.09793435037136078, 0.09826601296663284, 0.002286833245307207, 0.004544822499155998, 0.008417727425694466, 0.0068933237344026566, 0.0077806212939321995, 0.009370718151330948, 0.17299440503120422, 0.002594150137156248, 0.16332438588142395, 0.0023906033020466566, 0.009444898925721645, 0.15348263084888458, 0.0016325461911037564, 0.0047287060879170895, 0.015705840662121773, 0.12182749062776566, 0.010025924071669579, 0.010493196547031403, 0.09586084634065628], [0.0813845843076706, 0.08313722908496857, 0.021943483501672745, 0.0238974466919899, 0.019260505214333534, 0.03598419576883316, 0.030131645500659943, 0.035992737859487534, 0.06441809237003326, 0.013765312731266022, 0.0684533417224884, 0.016173364594578743, 0.015114821493625641, 0.08451856672763824, 0.008706546388566494, 0.02468162402510643, 0.011081819422543049, 0.05611387640237808, 0.004556044936180115, 0.03435022011399269, 0.26633456349372864], [0.1349429488182068, 0.06614847481250763, 0.03718002513051033, 0.03258763626217842, 0.01887541078031063, 0.027740806341171265, 0.01776367612183094, 0.04653292894363403, 0.0984664335846901, 0.02421466074883938, 0.0897212103009224, 0.03364132344722748, 0.016543500125408173, 0.08774439245462418, 0.015128441154956818, 0.0203336663544178, 0.013334846124053001, 0.10446389764547348, 0.008204651065170765, 0.026632031425833702, 0.07979901134967804], [0.10013221204280853, 0.05960388109087944, 0.02355593629181385, 0.049470771104097366, 0.01390031911432743, 0.010483479127287865, 0.01610410213470459, 0.010672410950064659, 0.05078115314245224, 0.02041144296526909, 0.05478103831410408, 0.02153708040714264, 0.010714659467339516, 0.053834423422813416, 0.010780968703329563, 0.020911140367388725, 0.01119990274310112, 0.05136936157941818, 0.0062385848723351955, 0.01371586974710226, 0.38980117440223694], [0.06955235451459885, 0.10291319340467453, 0.009129599668085575, 0.030141396448016167, 0.019727906212210655, 0.027081061154603958, 0.01490683201700449, 0.013597396202385426, 0.11701734364032745, 0.007539124693721533, 0.11092495918273926, 0.008708546869456768, 0.018219297751784325, 0.12718971073627472, 0.005193891003727913, 0.016389722004532814, 0.005729027558118105, 0.10848910361528397, 0.004764714278280735, 0.016642948612570763, 0.16614191234111786], [0.0568704791367054, 0.05583152174949646, 0.019073378294706345, 0.12755252420902252, 0.022247008979320526, 0.02406076341867447, 0.023203309625387192, 0.020663442090153694, 0.05144194886088371, 0.038282230496406555, 0.05352194979786873, 0.02647564932703972, 0.0415039025247097, 0.06855117529630661, 0.03727681189775467, 0.013535287231206894, 0.005534055642783642, 0.05979965999722481, 0.015582879073917866, 0.02787526324391365, 0.21111677587032318]], [[0.5831865072250366, 0.03430921956896782, 0.013026326894760132, 0.008912529796361923, 0.005059265065938234, 0.010765696875751019, 0.006391964387148619, 0.006357121281325817, 0.03214982897043228, 0.010517628863453865, 0.04419862851500511, 0.009825888089835644, 0.006775337737053633, 0.03920099139213562, 0.0055527943186461926, 0.008902854286134243, 0.007272273302078247, 0.06817299127578735, 0.008912546560168266, 0.024224596098065376, 0.06628503650426865], [0.598061203956604, 0.16293346881866455, 0.013805925846099854, 0.003878201823681593, 0.005104706156998873, 0.01485683023929596, 0.03140841796994209, 0.015293692238628864, 0.014963284134864807, 0.0032544408459216356, 0.01365442480891943, 0.003076020861044526, 0.008414170704782009, 0.011939452029764652, 0.0016931947320699692, 0.00526499655097723, 0.007031697779893875, 0.07682740688323975, 0.0012726810527965426, 0.002061102306470275, 0.0052046868950128555], [0.18224668502807617, 0.5726820230484009, 0.015774594619870186, 0.00792204961180687, 0.017919812351465225, 0.0501941554248333, 0.014562109485268593, 0.025520404800772667, 0.010936258360743523, 0.01663072593510151, 0.0035581395495682955, 0.00018434622325003147, 0.018761247396469116, 0.006311715580523014, 0.00014977181854192168, 0.0005275146686471999, 0.0075659435242414474, 0.03358052670955658, 0.003423743648454547, 0.007812383584678173, 0.0037359280977398157], [0.39799004793167114, 0.3021232783794403, 0.08538614213466644, 0.006849776022136211, 0.00437029218301177, 0.019066881388425827, 0.004352697636932135, 0.009212701581418514, 0.0406179279088974, 0.0007742306916043162, 0.01657807268202305, 0.00038065636181272566, 0.0004900536732748151, 0.029286911711096764, 0.000937870005145669, 0.0014302411582320929, 0.00031527664395980537, 0.030895758420228958, 0.0019147505518049002, 0.035989485681056976, 0.011036948300898075], [0.5536134243011475, 0.12997527420520782, 0.02004135400056839, 0.0467982143163681, 0.002713721478357911, 0.12935969233512878, 0.005942733492702246, 0.0014650512021034956, 0.03252364322543144, 0.004419898614287376, 0.032281652092933655, 7.674895459786057e-05, 8.479553798679262e-06, 0.007576822303235531, 0.0006811051280237734, 6.61235026200302e-05, 6.597431365662487e-06, 0.004543962422758341, 4.238349720253609e-05, 0.008609975688159466, 0.0192531980574131], [0.2481600046157837, 0.05271192640066147, 0.0013742356095463037, 0.1141514852643013, 0.42936864495277405, 0.04273803159594536, 0.0028758349362760782, 0.0019753340166062117, 0.01736917719244957, 0.0043950448743999004, 0.05685241147875786, 0.0001783896586857736, 0.0014031112659722567, 0.010003939270973206, 5.963086005067453e-05, 0.0005352578009478748, 0.00013701939315069467, 0.0039038050454109907, 0.00033644255017861724, 0.00042847954318858683, 0.011041699908673763], [0.07144350558519363, 0.018565034493803978, 0.006757046096026897, 0.007957210764288902, 0.022383039817214012, 0.805355429649353, 0.005484736990183592, 0.017471233382821083, 0.014323853887617588, 0.0007544844411313534, 0.013538137078285217, 0.0028951652348041534, 0.0008693205891177058, 0.0075574107468128204, 7.930388528620824e-05, 6.0213322285562754e-05, 0.00011935252405237406, 0.0027990504167973995, 5.171279553906061e-05, 0.00014631105295848101, 0.0013885393273085356], [0.017059389501810074, 0.01654830574989319, 0.01141646970063448, 0.003945174161344767, 0.0009678313508629799, 0.1434682011604309, 0.7321872115135193, 0.017812199890613556, 0.027623550966382027, 0.000936820637434721, 0.0031475049909204245, 0.0064904820173978806, 0.0004603762354236096, 0.015467922203242779, 0.00026309199165552855, 6.954921263968572e-05, 7.682806426601019e-06, 0.001592002809047699, 0.0001693357335170731, 6.250168371479958e-05, 0.00030442970455624163], [0.09004662930965424, 0.008159954100847244, 0.005657058674842119, 0.003407298820093274, 0.0048242127522826195, 0.026342172175645828, 0.28442248702049255, 0.3411932587623596, 0.1848296970129013, 0.009937365539371967, 0.004620198160409927, 0.001735006459057331, 0.00716392882168293, 0.020036639645695686, 0.0026142634451389313, 0.0007213722565211356, 0.00022816204000264406, 0.0019899564795196056, 0.0002161518787033856, 0.0002655643620528281, 0.0015886484179645777], [0.22696761786937714, 0.005213127937167883, 0.018582433462142944, 0.0008632803801447153, 0.0008364339591935277, 0.004234374966472387, 0.3606048822402954, 0.12382548302412033, 0.21005190908908844, 0.010973683558404446, 0.015446989797055721, 0.00932757742702961, 0.0004981087986379862, 0.006728795822709799, 0.001128355972468853, 0.0004200362600386143, 0.00010279339767294005, 0.0020294066052883863, 7.35817666281946e-05, 0.00029058114159852266, 0.0018004770390689373], [0.19352668523788452, 0.004924630746245384, 0.0054635158739984035, 0.005219269078224897, 0.01062796451151371, 0.008956048637628555, 0.0434773825109005, 0.024488387629389763, 0.18751579523086548, 0.18100932240486145, 0.2451273500919342, 0.03453034162521362, 0.009795076213777065, 0.006594559643417597, 0.007845995016396046, 0.008017403073608875, 0.002770653460174799, 0.008123236708343029, 0.001004295307211578, 0.001369819394312799, 0.009612232446670532], [0.06754245609045029, 0.002589811570942402, 0.00026874925242736936, 0.0009166472591459751, 0.008165260776877403, 0.0397932194173336, 0.01637367159128189, 0.0050787958316504955, 0.016583070158958435, 0.40032660961151123, 0.2457229048013687, 0.03444014862179756, 0.13011124730110168, 0.0038404460065066814, 0.0006232686573639512, 0.0016955630853772163, 0.011279831640422344, 0.006677402649074793, 0.0014129275223240256, 0.0009617843898013234, 0.00559621537104249], [0.32126230001449585, 0.00830934103578329, 0.00035352149279788136, 0.0002690966066438705, 7.208200258901343e-06, 0.01405003760010004, 0.01349834818392992, 0.0028467513620853424, 0.02210228331387043, 0.0187182929366827, 0.4646720290184021, 0.06868946552276611, 0.0014308517565950751, 0.033218350261449814, 0.0018923049792647362, 0.0002774123568087816, 0.0001735804253257811, 0.023214729502797127, 0.00022331561194732785, 0.0007351898238994181, 0.004055657424032688], [0.14520293474197388, 0.005728446412831545, 0.0018058598507195711, 0.0017414840403944254, 0.0009755503269843757, 0.0022803053725510836, 0.019526559859514236, 0.009050277993083, 0.017682498320937157, 0.0028375976253300905, 0.04165026545524597, 0.05782994255423546, 0.2949046790599823, 0.34458720684051514, 0.012382173910737038, 0.002052668482065201, 0.0006769724423065782, 0.02049786038696766, 0.003921194933354855, 0.003534184768795967, 0.011131295002996922], [0.15739087760448456, 0.0016404901398345828, 0.0017346686217933893, 0.00041452638106420636, 1.8054419342661276e-05, 0.0014585646567866206, 0.0020280040334910154, 0.005710810422897339, 0.03943754360079765, 0.0010269962949678302, 0.021169424057006836, 0.03025011532008648, 0.0027448409236967564, 0.36849743127822876, 0.002699443604797125, 0.27111634612083435, 0.04432129114866257, 0.01616606116294861, 0.0019339818973094225, 0.015355845913290977, 0.014884752221405506], [0.011256291531026363, 0.00020830616995226592, 0.00010499554628040642, 0.0004253577208146453, 0.00022780572180636227, 0.00036702200304716825, 0.002105361083522439, 0.0005540271522477269, 0.007198903243988752, 0.001989790704101324, 0.006789166945964098, 0.0032816713210195303, 0.00714013259857893, 0.11458282917737961, 0.8214908838272095, 0.008379613980650902, 0.002312789671123028, 0.004043801221996546, 0.0013585911365225911, 0.000898165802937001, 0.005284542683511972], [0.00754934037104249, 0.0007971027516759932, 1.2649186828639358e-05, 0.00038781960029155016, 4.514899410423823e-05, 0.0007744588074274361, 0.0014578459085896611, 6.274501356529072e-05, 0.0030271292198449373, 0.0009668519487604499, 0.011790947057306767, 0.000456683716038242, 0.000355075258994475, 0.01972874626517296, 0.21831922233104706, 0.6882674098014832, 0.0035647551994770765, 0.0375811867415905, 0.001845073071308434, 0.0005370831349864602, 0.002472706139087677], [0.16382546722888947, 0.009643514640629292, 0.0008876461652107537, 0.000330830313032493, 0.000667996471747756, 0.0020752092823386192, 0.011838635429739952, 0.0025781462900340557, 0.00793983694165945, 0.0042592310346663, 0.02958473563194275, 0.01931142248213291, 0.027770468965172768, 0.03176973760128021, 0.046312686055898666, 0.11361784487962723, 0.13423357903957367, 0.33252039551734924, 0.01439980510622263, 0.005999957211315632, 0.040432874113321304], [0.12056029587984085, 0.007862632162868977, 0.0034302007406949997, 0.00022385995544027537, 3.2970474421745166e-05, 0.00019312884251121432, 0.0006361978012137115, 0.00279975519515574, 0.004019730258733034, 0.012231341563165188, 0.008347292430698872, 0.04196091741323471, 0.013226374983787537, 0.013421501033008099, 0.0030715251341462135, 0.018863748759031296, 0.2621942460536957, 0.3526929020881653, 0.011212684214115143, 0.1009618490934372, 0.022056924179196358], [0.1392292082309723, 0.008416722528636456, 0.011684158816933632, 0.0007743982714600861, 6.057260179659352e-05, 4.685203020926565e-05, 0.0002938901598099619, 0.0012497981078922749, 0.003435838967561722, 8.898367377696559e-05, 0.005036333575844765, 0.01233674120157957, 0.005616785958409309, 0.025235988199710846, 0.0031492726411670446, 0.010663880035281181, 0.07663542032241821, 0.34279677271842957, 0.19945965707302094, 0.037854596972465515, 0.11593419313430786], [0.1677437424659729, 0.0049659134820103645, 0.0003739445237442851, 0.000997096416540444, 0.0003259190998505801, 0.00014529877807945013, 0.00018264785467181355, 0.0001301660668104887, 0.007291572168469429, 8.544000593246892e-05, 0.02341466024518013, 0.00048626819625496864, 0.0021952050738036633, 0.053655169904232025, 0.0075735910795629025, 0.004594785161316395, 0.010772757232189178, 0.3408975899219513, 0.014931678771972656, 0.1940002590417862, 0.16523638367652893]], [[0.4938642382621765, 0.016479745507240295, 0.011380036361515522, 0.03849176689982414, 0.004164293874055147, 0.0020358150359243155, 0.05789542198181152, 0.021212605759501457, 0.01966479979455471, 0.024210290983319283, 0.012627623043954372, 0.0063043637201189995, 0.003345801029354334, 0.013696638867259026, 0.02315373532474041, 0.021175052970647812, 0.008487393148243427, 0.016472799703478813, 0.08464980125427246, 0.013715912587940693, 0.10697183758020401], [0.1461569219827652, 0.040246766060590744, 0.022932130843400955, 0.06483352184295654, 0.01355596724897623, 0.018448134884238243, 0.057306837290525436, 0.02405571937561035, 0.04179872199892998, 0.046395592391490936, 0.03525368869304657, 0.015680043026804924, 0.012367350049316883, 0.03533778339624405, 0.0848364606499672, 0.0256953202188015, 0.03254229947924614, 0.0407966673374176, 0.030882297083735466, 0.05169479548931122, 0.15918293595314026], [0.07630658149719238, 0.03977631777524948, 0.003163228277117014, 0.024612702429294586, 0.011968962848186493, 0.025382118299603462, 0.02963174693286419, 0.016052106395363808, 0.032240282744169235, 0.07370003312826157, 0.027621589601039886, 0.0019736126996576786, 0.009971881285309792, 0.02934182435274124, 0.021746158599853516, 0.028235582634806633, 0.0365058071911335, 0.03644056245684624, 0.02782595157623291, 0.16223101317882538, 0.2852720320224762], [0.18616250157356262, 0.02760675735771656, 0.011972280219197273, 0.009435312822461128, 0.01706097461283207, 0.01210031844675541, 0.031130412593483925, 0.009165537543594837, 0.02740137279033661, 0.05448686331510544, 0.02947295270860195, 0.009716399945318699, 0.019891012459993362, 0.028741879388689995, 0.01018434576690197, 0.03236154466867447, 0.014388308860361576, 0.0329272523522377, 0.03527279570698738, 0.026877809315919876, 0.37364333868026733], [0.2301417738199234, 0.03387347236275673, 0.020832695066928864, 0.034626707434654236, 0.016093242913484573, 0.024055248126387596, 0.031919918954372406, 0.011214694008231163, 0.03285175561904907, 0.024023214355111122, 0.031975988298654556, 0.013153408654034138, 0.014799158088862896, 0.028879350051283836, 0.015102582052350044, 0.019981632009148598, 0.01909497193992138, 0.036681853234767914, 0.012993939220905304, 0.05398815870285034, 0.29371631145477295], [0.15312936902046204, 0.03761962428689003, 0.016374904662370682, 0.0727771520614624, 0.02060670219361782, 0.03279225900769234, 0.03452451527118683, 0.019246049225330353, 0.03404031693935394, 0.04613981768488884, 0.032576192170381546, 0.012037615291774273, 0.01997804269194603, 0.03060917556285858, 0.026217220351099968, 0.019965428858995438, 0.0372614748775959, 0.03345892205834389, 0.026080308482050896, 0.06453409790992737, 0.23003070056438446], [0.06775639206171036, 0.007879121229052544, 0.012247522361576557, 0.04409508779644966, 0.03662673383951187, 0.019847024232149124, 0.0039292387664318085, 0.0684337466955185, 0.006934370845556259, 0.08518115431070328, 0.00758455041795969, 0.015062576159834862, 0.048291467130184174, 0.009074595756828785, 0.0515148788690567, 0.0683867558836937, 0.08634229004383087, 0.010137022472918034, 0.050536587834358215, 0.08098073303699493, 0.21915815770626068], [0.17966951429843903, 0.03754671290516853, 0.03208315372467041, 0.03793250396847725, 0.021829282864928246, 0.015569762326776981, 0.042980778962373734, 0.016467101871967316, 0.0376475490629673, 0.019624214619398117, 0.03646237775683403, 0.022131551057100296, 0.022379878908395767, 0.03203324228525162, 0.02566184476017952, 0.035709548741579056, 0.04274241253733635, 0.03387654945254326, 0.028291283175349236, 0.043092671781778336, 0.23626808822155], [0.11633747071027756, 0.03077094256877899, 0.026228267699480057, 0.06360457092523575, 0.01945517584681511, 0.025004064664244652, 0.03744504600763321, 0.03505245968699455, 0.030511118471622467, 0.056864652782678604, 0.027732007205486298, 0.023995118215680122, 0.021602390334010124, 0.027593696489930153, 0.06514480710029602, 0.026058413088321686, 0.033683668822050095, 0.03146390989422798, 0.03707921877503395, 0.054339535534381866, 0.21003346145153046], [0.18101155757904053, 0.03500627726316452, 0.06464289873838425, 0.029206199571490288, 0.02232883870601654, 0.012286338023841381, 0.03471923992037773, 0.01580912061035633, 0.026257876306772232, 0.010920499451458454, 0.029542487114667892, 0.04158222675323486, 0.022521276026964188, 0.02509933151304722, 0.060332976281642914, 0.038965556770563126, 0.03030989319086075, 0.023312032222747803, 0.029487550258636475, 0.034261081367731094, 0.23239685595035553], [0.1078547015786171, 0.03173355385661125, 0.027014954015612602, 0.06215735897421837, 0.01872672140598297, 0.027662836015224457, 0.04066308215260506, 0.03837183862924576, 0.03161018714308739, 0.05554479733109474, 0.027974288910627365, 0.025876007974147797, 0.020665951073169708, 0.02843845635652542, 0.07439741492271423, 0.02748730778694153, 0.03363823518157005, 0.03301892802119255, 0.045286793261766434, 0.060915879905223846, 0.1809607446193695], [0.05711614340543747, 0.03207746893167496, 0.0031562696676701307, 0.028168777003884315, 0.01380064059048891, 0.032767411321401596, 0.02169939875602722, 0.025652164593338966, 0.026022769510746002, 0.08887737989425659, 0.023430999368429184, 0.002362556289881468, 0.013322662562131882, 0.024737907573580742, 0.017993059009313583, 0.03453696891665459, 0.047895897179841995, 0.03184070438146591, 0.03628288209438324, 0.15865996479988098, 0.27959802746772766], [0.1761164367198944, 0.02432650700211525, 0.026449846103787422, 0.03614507615566254, 0.01492602750658989, 0.021027062088251114, 0.02993285283446312, 0.017444537952542305, 0.02479904145002365, 0.04199075326323509, 0.025076473131775856, 0.020284174010157585, 0.01747795380651951, 0.02372105047106743, 0.028935113921761513, 0.028330348432064056, 0.02390710636973381, 0.031500495970249176, 0.020589226856827736, 0.048221196979284286, 0.318798691034317], [0.12253443151712418, 0.03292287886142731, 0.027382196858525276, 0.061533115804195404, 0.018737630918622017, 0.02977803349494934, 0.03767282888293266, 0.0367429293692112, 0.0337352529168129, 0.05725986883044243, 0.030493220314383507, 0.027274539694190025, 0.02210920862853527, 0.03005334362387657, 0.07229933887720108, 0.022852841764688492, 0.028390277177095413, 0.035772811621427536, 0.0373285673558712, 0.04842231050133705, 0.1867043673992157], [0.12158798426389694, 0.058869488537311554, 0.02323659509420395, 0.03957768902182579, 0.015398925170302391, 0.018307140097022057, 0.05299355834722519, 0.03436727821826935, 0.055301979184150696, 0.06788961589336395, 0.05134785920381546, 0.018023738637566566, 0.018803875893354416, 0.05372926592826843, 0.005225575529038906, 0.0702347680926323, 0.03910304605960846, 0.046820223331451416, 0.06143289804458618, 0.030964333564043045, 0.11678414046764374], [0.17716732621192932, 0.022215329110622406, 0.025718290358781815, 0.047580085694789886, 0.0247061625123024, 0.02610252983868122, 0.035770900547504425, 0.041223958134651184, 0.022833285853266716, 0.04716220870614052, 0.022916626185178757, 0.023011580109596252, 0.023508286103606224, 0.020699329674243927, 0.03300869092345238, 0.046760957688093185, 0.03981916606426239, 0.025443091988563538, 0.022923069074749947, 0.031604744493961334, 0.2398243546485901], [0.14586138725280762, 0.01909923180937767, 0.024244602769613266, 0.022304782643914223, 0.03195616230368614, 0.027030253782868385, 0.01534019224345684, 0.01837053894996643, 0.01724988967180252, 0.020398534834384918, 0.019719794392585754, 0.02079232782125473, 0.03558625653386116, 0.018596911802887917, 0.012053950689733028, 0.040420711040496826, 0.028476104140281677, 0.021893644705414772, 0.016359293833374977, 0.02395469695329666, 0.4202907383441925], [0.14785926043987274, 0.029109427705407143, 0.03175961598753929, 0.05470849946141243, 0.020347919315099716, 0.023716287687420845, 0.03856176137924194, 0.029213640838861465, 0.02911520190536976, 0.046547163277864456, 0.0269065722823143, 0.027592744678258896, 0.02360597439110279, 0.027258824557065964, 0.06301196664571762, 0.02804403193295002, 0.025837767869234085, 0.031170746311545372, 0.03395753353834152, 0.040508024394512177, 0.22116702795028687], [0.1395353227853775, 0.03909824416041374, 0.10060004144906998, 0.04238640516996384, 0.020842690020799637, 0.019129561260342598, 0.037289272993803024, 0.01348756905645132, 0.03148730471730232, 0.04675166308879852, 0.033809006214141846, 0.06230910122394562, 0.022389542311429977, 0.030133457854390144, 0.08183233439922333, 0.03361394256353378, 0.02099650353193283, 0.025025667622685432, 0.009798893705010414, 0.02575042098760605, 0.16373296082019806], [0.1253349483013153, 0.02528463490307331, 0.023862550035119057, 0.04084201529622078, 0.021519238129258156, 0.0321267768740654, 0.044957391917705536, 0.036239590495824814, 0.02451283298432827, 0.06359396129846573, 0.023252269253134727, 0.0206053014844656, 0.02756771259009838, 0.02259710058569908, 0.02555457316339016, 0.03568349778652191, 0.034481555223464966, 0.02719198912382126, 0.04359646514058113, 0.06585119664669037, 0.23534439504146576], [0.17637281119823456, 0.016004638746380806, 0.03386750817298889, 0.0707552433013916, 0.03992890939116478, 0.02647002786397934, 0.048383817076683044, 0.035852786153554916, 0.017534928396344185, 0.06448883563280106, 0.01513955183327198, 0.02777215838432312, 0.04803251102566719, 0.014831788837909698, 0.06665653735399246, 0.023049525916576385, 0.033789291977882385, 0.01762361079454422, 0.043408967554569244, 0.037742942571640015, 0.14229363203048706]], [[0.07636402547359467, 0.03735540062189102, 0.03190639615058899, 0.07283788919448853, 0.04415776580572128, 0.019114499911665916, 0.015605995431542397, 0.015447004698216915, 0.06951399892568588, 0.02844754233956337, 0.07296113669872284, 0.03652440756559372, 0.07545024901628494, 0.057847000658512115, 0.015270368196070194, 0.03654840588569641, 0.03134341910481453, 0.07706179469823837, 0.0378284715116024, 0.017538834363222122, 0.13087551295757294], [0.002899740356951952, 0.07779262959957123, 0.01690537855029106, 0.012643381021916866, 0.02663731947541237, 0.06662910431623459, 0.006594337522983551, 0.05944502353668213, 0.12539660930633545, 0.019381100311875343, 0.12074150890111923, 0.020065151154994965, 0.03474738076329231, 0.12428785860538483, 0.010046979412436485, 0.013271705247461796, 0.013924069702625275, 0.13278289139270782, 0.01456895936280489, 0.05698614567518234, 0.04425274208188057], [0.002764678094536066, 0.029072031378746033, 0.05497833341360092, 0.024940166622400284, 0.0055657499469816685, 0.005018977448344231, 0.038426827639341354, 0.03410210832953453, 0.030588112771511078, 0.4179881811141968, 0.03165224567055702, 0.07073434442281723, 0.010170280933380127, 0.029229123145341873, 0.019252341240644455, 0.006376689299941063, 0.013773426413536072, 0.036257192492485046, 0.05426498502492905, 0.032724808901548386, 0.05211932957172394], [0.01905614510178566, 0.040047116577625275, 0.07609085738658905, 0.05906004458665848, 0.04755250737071037, 0.022576522082090378, 0.03722679987549782, 0.02956697903573513, 0.03964973986148834, 0.05379623547196388, 0.0498349703848362, 0.09282265603542328, 0.07297258079051971, 0.04371119663119316, 0.059611883014440536, 0.025792239233851433, 0.03011411614716053, 0.05796042084693909, 0.030784446746110916, 0.02164125069975853, 0.0901312381029129], [0.014003871940076351, 0.06686575710773468, 0.053397681564092636, 0.04372905567288399, 0.03991501405835152, 0.0391077846288681, 0.01606343872845173, 0.027687538415193558, 0.06582140177488327, 0.08033852279186249, 0.07371844351291656, 0.06971757113933563, 0.05241677910089493, 0.07201110571622849, 0.026773834601044655, 0.012059066444635391, 0.025724029168486595, 0.09033139795064926, 0.041877612471580505, 0.02696153149008751, 0.06147857382893562], [0.016581188887357712, 0.0722789466381073, 0.022775454446673393, 0.022019540891051292, 0.05160235986113548, 0.042194169014692307, 0.01777278259396553, 0.050522081553936005, 0.08822640776634216, 0.037219081073999405, 0.08946923911571503, 0.028709448873996735, 0.06261979788541794, 0.09234645217657089, 0.01670374721288681, 0.023056035861372948, 0.029420025646686554, 0.1067248284816742, 0.037055499851703644, 0.0383119061589241, 0.05439109355211258], [0.023890545591711998, 0.03478654474020004, 0.046865273267030716, 0.0769771933555603, 0.018989747390151024, 0.041843559592962265, 0.005978716537356377, 0.05262099951505661, 0.052400365471839905, 0.0969228446483612, 0.06496147066354752, 0.07214894890785217, 0.02915414609014988, 0.04480667784810066, 0.02957606315612793, 0.02114393375813961, 0.038600437343120575, 0.08253972977399826, 0.06313944607973099, 0.04476064443588257, 0.05789276957511902], [0.01586201973259449, 0.05647548660635948, 0.04586220160126686, 0.06000043824315071, 0.017915084958076477, 0.017961839213967323, 0.015328748151659966, 0.13913457095623016, 0.05224574729800224, 0.06106237694621086, 0.0620114766061306, 0.04858904704451561, 0.024153361096978188, 0.05264956131577492, 0.024114295840263367, 0.02097141183912754, 0.036347728222608566, 0.06525008380413055, 0.02690155990421772, 0.06834299862384796, 0.08881998807191849], [0.004729264881461859, 0.08190669119358063, 0.01300029270350933, 0.011643483303487301, 0.024375569075345993, 0.0867115706205368, 0.006209999322891235, 0.04778918996453285, 0.13926899433135986, 0.013633403927087784, 0.12797875702381134, 0.013867665082216263, 0.02634618431329727, 0.1268599033355713, 0.010052821598947048, 0.01409789640456438, 0.01370504405349493, 0.13971693813800812, 0.014153407886624336, 0.059886906296014786, 0.024066109210252762], [0.01238964032381773, 0.015216028317809105, 0.12009451538324356, 0.05724673718214035, 0.011515065096318722, 0.0065837730653584, 0.029782680794596672, 0.011708436533808708, 0.01315118744969368, 0.2522217631340027, 0.015482602640986443, 0.1267802119255066, 0.021607859060168266, 0.014491652138531208, 0.07974670827388763, 0.012300687842071056, 0.009888567961752415, 0.017802488058805466, 0.09837763756513596, 0.02107228711247444, 0.05253954976797104], [0.0043752361088991165, 0.08082892000675201, 0.012305347248911858, 0.010165974497795105, 0.022667275741696358, 0.09147394448518753, 0.006823133677244186, 0.052902717143297195, 0.1419551819562912, 0.013243310153484344, 0.12543009221553802, 0.013394063338637352, 0.024759352207183838, 0.1299799233675003, 0.009714728221297264, 0.013494782149791718, 0.012849574908614159, 0.1353679895401001, 0.013625825755298138, 0.06484726816415787, 0.01979542337357998], [0.003566366620361805, 0.028203273192048073, 0.06632692366838455, 0.03313179686665535, 0.005289503373205662, 0.0054728868417441845, 0.04789365455508232, 0.02948029525578022, 0.026575157418847084, 0.4191954433917999, 0.026485618203878403, 0.06681634485721588, 0.0077870688401162624, 0.02318744547665119, 0.024196241050958633, 0.0061636692844331264, 0.013935226947069168, 0.028142591938376427, 0.06628920137882233, 0.0325794480741024, 0.03928190842270851], [0.013407327234745026, 0.04128965362906456, 0.09244593232870102, 0.06608627736568451, 0.037139054387807846, 0.04224276915192604, 0.02971939742565155, 0.025168346241116524, 0.03653677552938461, 0.12545813620090485, 0.03945239260792732, 0.10294878482818604, 0.04235551133751869, 0.034735653549432755, 0.036710988730192184, 0.016052262857556343, 0.026990294456481934, 0.04252948611974716, 0.06172068789601326, 0.03132347762584686, 0.05568678304553032], [0.0037235876079648733, 0.0822683647274971, 0.014106301590800285, 0.01146700233221054, 0.02186182513833046, 0.0860707089304924, 0.008593492209911346, 0.05673401057720184, 0.13969488441944122, 0.01582476496696472, 0.12323537468910217, 0.014824416488409042, 0.023102881386876106, 0.12192535400390625, 0.012500970624387264, 0.01537510845810175, 0.014304372482001781, 0.12775662541389465, 0.018549704924225807, 0.06948678940534592, 0.01859343610703945], [0.03959660977125168, 0.02101631462574005, 0.11270296573638916, 0.07173629850149155, 0.02407902479171753, 0.027465710416436195, 0.03932489454746246, 0.030026018619537354, 0.028855236247181892, 0.1052834540605545, 0.031687501817941666, 0.13593509793281555, 0.03207086771726608, 0.024033954367041588, 0.03178539499640465, 0.022280745208263397, 0.0209518875926733, 0.036215104162693024, 0.0568123422563076, 0.032777875661849976, 0.07536260038614273], [0.037383247166872025, 0.06552564352750778, 0.023088591173291206, 0.05032504349946976, 0.011266774497926235, 0.016145944595336914, 0.012120007537305355, 0.11220113188028336, 0.07191196084022522, 0.027503354474902153, 0.07836175709962845, 0.020778778940439224, 0.013346787542104721, 0.07224724441766739, 0.024402901530265808, 0.017926670610904694, 0.02982110157608986, 0.09139584004878998, 0.026188842952251434, 0.09007947891950607, 0.10797887295484543], [0.030684782192111015, 0.054071828722953796, 0.04563910514116287, 0.03930577263236046, 0.01592911407351494, 0.013782340101897717, 0.019291507080197334, 0.08632311969995499, 0.06975843012332916, 0.0372106172144413, 0.07608585059642792, 0.04213045537471771, 0.020660826936364174, 0.07224763929843903, 0.0324605330824852, 0.01791377179324627, 0.01705288514494896, 0.09013069421052933, 0.034222546964883804, 0.06298083066940308, 0.12211737781763077], [0.0044282893650233746, 0.08218304812908173, 0.01677476428449154, 0.0142446244135499, 0.026596879586577415, 0.08777634799480438, 0.01020587794482708, 0.05062437802553177, 0.13824044167995453, 0.016283143311738968, 0.12326416373252869, 0.017443187534809113, 0.02714134193956852, 0.11854871362447739, 0.012893390841782093, 0.016976522281765938, 0.014365624636411667, 0.12021498382091522, 0.016806235536932945, 0.06375992298126221, 0.021228237077593803], [0.006597318220883608, 0.014730662107467651, 0.05013880133628845, 0.027021054178476334, 0.003313239198178053, 0.003096178872510791, 0.028357738628983498, 0.016540903598070145, 0.01567676104605198, 0.4771929383277893, 0.016806386411190033, 0.06831567734479904, 0.007160024251788855, 0.01917245052754879, 0.051625046879053116, 0.005134066101163626, 0.008183537982404232, 0.024560032412409782, 0.08563391119241714, 0.03296692296862602, 0.03777623921632767], [0.016184967011213303, 0.033992841839790344, 0.06453940272331238, 0.029648426920175552, 0.014151476323604584, 0.022692600265145302, 0.038465097546577454, 0.10065092146396637, 0.03781112655997276, 0.06748475134372711, 0.039646077901124954, 0.08216934651136398, 0.021661905571818352, 0.03403015434741974, 0.031077230349183083, 0.02872469276189804, 0.031129131093621254, 0.04396022483706474, 0.03114672377705574, 0.14709706604480743, 0.083735890686512], [0.01638624258339405, 0.06476092338562012, 0.046660471707582474, 0.08309560269117355, 0.033076945692300797, 0.019058948382735252, 0.023612074553966522, 0.04525908827781677, 0.0788576677441597, 0.037812426686286926, 0.08512008190155029, 0.04644671455025673, 0.04687964543700218, 0.06162730231881142, 0.01874634250998497, 0.015784090384840965, 0.02606901526451111, 0.07680122554302216, 0.05394894257187843, 0.02910515107214451, 0.09089108556509018]], [[0.19180963933467865, 0.10422913730144501, 0.008085586130619049, 0.007426404859870672, 0.0015585768269374967, 0.01010521873831749, 0.013314100913703442, 0.003468579612672329, 0.10985136032104492, 0.017061075195670128, 0.1379062384366989, 0.0051897671073675156, 0.0011877879733219743, 0.08464957028627396, 0.006711218971759081, 0.013346975669264793, 0.00264637335203588, 0.12257733196020126, 0.00277766864746809, 0.014042031951248646, 0.14205536246299744], [0.08468060195446014, 0.08301077783107758, 0.040882959961891174, 0.03572290763258934, 0.011713703162968159, 0.01976783759891987, 0.02532925270497799, 0.017784055322408676, 0.08015862107276917, 0.04476287588477135, 0.08679843693971634, 0.034726135432720184, 0.011465195566415787, 0.06249681115150452, 0.041468843817710876, 0.01913517899811268, 0.013236097060143948, 0.08788084238767624, 0.016806824132800102, 0.03526967763900757, 0.14690223336219788], [0.1000916063785553, 0.12140524387359619, 0.010114328004419804, 0.008715604431927204, 0.01436493918299675, 0.015554733574390411, 0.040137335658073425, 0.025182444602251053, 0.1032407134771347, 0.0317155160009861, 0.10476980358362198, 0.007741890847682953, 0.016961442306637764, 0.10321332514286041, 0.008106931112706661, 0.024183448404073715, 0.004100909922271967, 0.09000067412853241, 0.0170026496052742, 0.04606156423687935, 0.10733485966920853], [0.16860201954841614, 0.11941859871149063, 0.005982811097055674, 0.0014262581244111061, 0.0067788390442729, 0.01810750551521778, 0.03405110538005829, 0.02170751616358757, 0.10811266303062439, 0.028192533180117607, 0.12733158469200134, 0.006155443377792835, 0.00719600822776556, 0.10879641771316528, 0.00371926068328321, 0.010377265512943268, 0.005138640757650137, 0.11530515551567078, 0.01664596237242222, 0.02220074273645878, 0.06475365161895752], [0.17971639335155487, 0.11938034743070602, 0.02697972021996975, 0.01738799549639225, 0.01238345354795456, 0.02435910515487194, 0.03638589382171631, 0.024405360221862793, 0.07280535995960236, 0.027762779965996742, 0.09743469208478928, 0.026219317689538002, 0.012737041339278221, 0.08353227376937866, 0.019769132137298584, 0.03848057612776756, 0.00749250641092658, 0.08038190007209778, 0.009041388519108295, 0.036420486867427826, 0.046924248337745667], [0.06734926998615265, 0.09174192696809769, 0.027800533920526505, 0.02286720462143421, 0.03247075900435448, 0.058855388313531876, 0.03309693560004234, 0.016315504908561707, 0.07817620784044266, 0.02640518918633461, 0.10017099231481552, 0.03159038722515106, 0.03887973353266716, 0.08997582644224167, 0.019919531419873238, 0.012024041265249252, 0.015648221597075462, 0.09833048284053802, 0.029547465965151787, 0.035727500915527344, 0.07310692965984344], [0.036304768174886703, 0.09339728206396103, 0.013498567044734955, 0.01951679214835167, 0.008108828216791153, 0.031362324953079224, 0.005043404176831245, 0.02447420544922352, 0.10951009392738342, 0.15576326847076416, 0.11902416497468948, 0.010801783762872219, 0.009198958985507488, 0.09808088093996048, 0.003958164714276791, 0.011005723848938942, 0.005295449402183294, 0.09464019536972046, 0.032194316387176514, 0.03008732944726944, 0.0887334868311882], [0.04874167591333389, 0.0910455584526062, 0.05840514600276947, 0.035478174686431885, 0.022285491228103638, 0.0275314562022686, 0.02901235595345497, 0.010452096350491047, 0.07965953648090363, 0.06048225611448288, 0.08676780760288239, 0.050713032484054565, 0.01832435466349125, 0.07578649371862411, 0.017382724210619926, 0.022189036011695862, 0.0056234668008983135, 0.07684312760829926, 0.017275439575314522, 0.027776570990681648, 0.13822431862354279], [0.06211807206273079, 0.08678173273801804, 0.05864586681127548, 0.053625304251909256, 0.021457543596625328, 0.031437285244464874, 0.01905052922666073, 0.021132316440343857, 0.08287332952022552, 0.05228351429104805, 0.0901520624756813, 0.051567837595939636, 0.021579846739768982, 0.06889346987009048, 0.03820011764764786, 0.015359900891780853, 0.015540258958935738, 0.07893207669258118, 0.021331727504730225, 0.03248296305537224, 0.07655421644449234], [0.1075543463230133, 0.15464277565479279, 0.015965553000569344, 0.011798507533967495, 0.004041865933686495, 0.01347645279020071, 0.04303295165300369, 0.007832388393580914, 0.15910087525844574, 0.005864917766302824, 0.13058136403560638, 0.010012141428887844, 0.0036390144377946854, 0.11956233531236649, 0.0014414306497201324, 0.004063457250595093, 0.003052974585443735, 0.11305418610572815, 0.0059334770776331425, 0.007606290280818939, 0.07774278521537781], [0.05426188185811043, 0.08562900871038437, 0.05825319513678551, 0.05301699414849281, 0.022739533334970474, 0.0336313433945179, 0.01915774866938591, 0.018471989780664444, 0.08565448224544525, 0.05208253115415573, 0.09103580564260483, 0.05287403613328934, 0.023335911333560944, 0.0701780617237091, 0.035774681717157364, 0.01429472491145134, 0.01840943470597267, 0.08095916360616684, 0.022652320563793182, 0.0327242836356163, 0.07486289739608765], [0.06811008602380753, 0.11787519603967667, 0.012436243705451488, 0.012927912175655365, 0.02506154775619507, 0.02422534115612507, 0.035808149725198746, 0.030245734378695488, 0.1038428321480751, 0.031734876334667206, 0.10632004588842392, 0.010434169322252274, 0.03240905702114105, 0.10527564585208893, 0.00790629256516695, 0.022745944559574127, 0.006341472268104553, 0.08883709460496902, 0.01746355928480625, 0.052487172186374664, 0.08751169592142105], [0.16415144503116608, 0.11671435087919235, 0.027562184259295464, 0.0225669015198946, 0.013677909970283508, 0.022933844476938248, 0.033189672976732254, 0.0248979814350605, 0.07745395600795746, 0.03183678537607193, 0.10564162582159042, 0.028607971966266632, 0.01452259998768568, 0.0897422507405281, 0.016628658398985863, 0.03410457819700241, 0.007507640402764082, 0.08383853733539581, 0.008197803050279617, 0.03552313894033432, 0.04070024564862251], [0.048246972262859344, 0.08624665439128876, 0.06386486440896988, 0.05978948622941971, 0.020516905933618546, 0.02723289094865322, 0.018884772434830666, 0.019943155348300934, 0.08326210826635361, 0.05920470878481865, 0.09145021438598633, 0.058147720992565155, 0.02125612087547779, 0.07071030884981155, 0.03739791736006737, 0.013679023832082748, 0.02187768928706646, 0.08014141023159027, 0.022642262279987335, 0.03207835555076599, 0.06342649459838867], [0.04438621923327446, 0.08712149411439896, 0.0056801182217895985, 0.006472806446254253, 0.012406863272190094, 0.023299695923924446, 0.0057360040955245495, 0.008117049932479858, 0.15698650479316711, 0.041593942791223526, 0.15852110087871552, 0.007814095355570316, 0.02003997191786766, 0.11182284355163574, 0.0005560438730753958, 0.003379235742613673, 0.006111971568316221, 0.10736081749200821, 0.010232582688331604, 0.016494637355208397, 0.16586589813232422], [0.05356110632419586, 0.07761184126138687, 0.03438161686062813, 0.02774299494922161, 0.013188807293772697, 0.03744862228631973, 0.01925758458673954, 0.012060283683240414, 0.08222201466560364, 0.0652122050523758, 0.10319310426712036, 0.03830976039171219, 0.015834324061870575, 0.08203286677598953, 0.015466629527509212, 0.01233045756816864, 0.012486866675317287, 0.09518766403198242, 0.015544592402875423, 0.05107050761580467, 0.13585622608661652], [0.057968031615018845, 0.06645215302705765, 0.03456559404730797, 0.0260432418435812, 0.035401877015829086, 0.06049705669283867, 0.024331778287887573, 0.011723434552550316, 0.06726935505867004, 0.07707235962152481, 0.08822225779294968, 0.03665979579091072, 0.03541289269924164, 0.06954316049814224, 0.01608981564640999, 0.02148171328008175, 0.006551824510097504, 0.0843806192278862, 0.018100107088685036, 0.04522310197353363, 0.11700978130102158], [0.06263672560453415, 0.08766284584999084, 0.06290267407894135, 0.05186469107866287, 0.022065170109272003, 0.03004462458193302, 0.018927479162812233, 0.01767137087881565, 0.08241802453994751, 0.044440411031246185, 0.08973255008459091, 0.05420732498168945, 0.02172921411693096, 0.067511186003685, 0.039606526494026184, 0.01737060956656933, 0.020444059744477272, 0.08016537129878998, 0.018365919589996338, 0.032448552548885345, 0.07778458297252655], [0.08259715139865875, 0.1339457929134369, 0.027247900143265724, 0.01780177466571331, 0.012656942009925842, 0.014416764490306377, 0.019407840445637703, 0.018799826502799988, 0.11961027979850769, 0.04284515976905823, 0.12884186208248138, 0.02032550424337387, 0.012791972607374191, 0.10199932008981705, 0.012239888310432434, 0.015146302990615368, 0.007223113905638456, 0.10481274873018265, 0.0032168717589229345, 0.0222800113260746, 0.0817929059267044], [0.07302053272724152, 0.11602003872394562, 0.045365288853645325, 0.02570585161447525, 0.022731849923729897, 0.03625478222966194, 0.024331722408533096, 0.011498386971652508, 0.08169420808553696, 0.0422637052834034, 0.12153537571430206, 0.04205107316374779, 0.022036049515008926, 0.08564462512731552, 0.00869480986148119, 0.020197832956910133, 0.008134521543979645, 0.09740955382585526, 0.009048192761838436, 0.044851381331682205, 0.061510320752859116], [0.12704050540924072, 0.1100192740559578, 0.015061415731906891, 0.010542002506554127, 0.0126304617151618, 0.025209050625562668, 0.017489375546574593, 0.012229284271597862, 0.11717968434095383, 0.043439265340566635, 0.13601237535476685, 0.013562796637415886, 0.012210900895297527, 0.10127336531877518, 0.017306368798017502, 0.020886877551674843, 0.0046874904073774815, 0.1234460100531578, 0.008615091443061829, 0.017652280628681183, 0.053506117314100266]]], [[[0.15127085149288177, 0.0474507212638855, 0.022915856912732124, 0.04699847474694252, 0.01359223760664463, 0.013925128616392612, 0.030522402375936508, 0.02832583524286747, 0.06013406440615654, 0.03902251645922661, 0.060086704790592194, 0.030510136857628822, 0.023421060293912888, 0.07048898190259933, 0.02425907365977764, 0.017152270302176476, 0.03242558613419533, 0.07151004672050476, 0.06951149553060532, 0.03781672567129135, 0.10865984112024307], [0.06605610996484756, 0.06467414647340775, 0.03479835391044617, 0.09369222819805145, 0.01515054702758789, 0.019544027745723724, 0.024782398715615273, 0.026471566408872604, 0.06183740496635437, 0.11253037303686142, 0.05996831879019737, 0.02551516890525818, 0.016187990084290504, 0.06127826124429703, 0.04826893284916878, 0.018530501052737236, 0.024933023378252983, 0.06807176023721695, 0.07014279067516327, 0.030126072466373444, 0.057440176606178284], [0.04723973944783211, 0.10636316239833832, 0.008069361560046673, 0.01631953753530979, 0.020591048523783684, 0.015462694689631462, 0.00812038965523243, 0.036461278796195984, 0.06807757914066315, 0.028922010213136673, 0.05140327662229538, 0.005018864292651415, 0.020211026072502136, 0.08324165642261505, 0.007733956445008516, 0.010359182953834534, 0.009216644801199436, 0.07353992760181427, 0.07270101457834244, 0.012894252315163612, 0.2980533242225647], [0.09181901812553406, 0.08965171128511429, 0.03659365698695183, 0.004926519934087992, 0.011556030251085758, 0.011357652023434639, 0.01968415081501007, 0.0342412143945694, 0.05451510101556778, 0.1358902007341385, 0.0513923242688179, 0.024983813986182213, 0.017041800543665886, 0.05870579555630684, 0.030053013935685158, 0.011470086872577667, 0.01410676259547472, 0.062061857432127, 0.06763049215078354, 0.02469855733215809, 0.14762036502361298], [0.0420699417591095, 0.13774609565734863, 0.027687562629580498, 0.019587423652410507, 0.01293092779815197, 0.04170728847384453, 0.012016890570521355, 0.012611673213541508, 0.10084788501262665, 0.05510909482836723, 0.08654814958572388, 0.023590683937072754, 0.016738513484597206, 0.10323680937290192, 0.013088333420455456, 0.02643272839486599, 0.013726862147450447, 0.10400059819221497, 0.04003596305847168, 0.037256017327308655, 0.07303044199943542], [0.06752004474401474, 0.09436600655317307, 0.03305918350815773, 0.025363855063915253, 0.019208544865250587, 0.025500962510704994, 0.011184393428266048, 0.017629602923989296, 0.08717526495456696, 0.0511883869767189, 0.08453148603439331, 0.025554096326231956, 0.021542269736528397, 0.0935833603143692, 0.018884053453803062, 0.025418788194656372, 0.016725555062294006, 0.10863297432661057, 0.051487959921360016, 0.03850216418504715, 0.08294106274843216], [0.026719871908426285, 0.11229027062654495, 0.057433079928159714, 0.08720230311155319, 0.023533182218670845, 0.027971239760518074, 0.0008808554266579449, 0.023840317502617836, 0.07558729499578476, 0.05794866383075714, 0.061310093849897385, 0.041777756065130234, 0.025490062311291695, 0.08194883912801743, 0.01950564607977867, 0.006598035339266062, 0.007348040118813515, 0.08330834656953812, 0.042241714894771576, 0.02595079503953457, 0.1111135184764862], [0.030434532091021538, 0.0745682418346405, 0.07578302919864655, 0.02948841266334057, 0.03061140514910221, 0.024181844666600227, 0.014146438799798489, 0.01692512072622776, 0.050269436091184616, 0.052918847650289536, 0.04878507927060127, 0.07506929337978363, 0.03439255431294441, 0.0483739860355854, 0.030674220994114876, 0.02646608091890812, 0.012060403823852539, 0.058971092104911804, 0.12110018730163574, 0.06019749492406845, 0.08458223938941956], [0.09775931388139725, 0.07354369014501572, 0.03317825868725777, 0.05594519153237343, 0.0158945694565773, 0.015909353271126747, 0.023372801020741463, 0.01915881596505642, 0.07279891520738602, 0.07039066404104233, 0.07081637531518936, 0.02583232894539833, 0.017767248675227165, 0.07091882079839706, 0.05492538958787918, 0.023869723081588745, 0.026807943359017372, 0.08728691190481186, 0.05066780745983124, 0.03209918364882469, 0.06105678901076317], [0.04955305904150009, 0.0646602064371109, 0.015810182318091393, 0.049631357192993164, 0.10571214556694031, 0.031161893159151077, 0.004844232462346554, 0.017082195729017258, 0.056726329028606415, 0.002652111230418086, 0.049519121646881104, 0.014847340993583202, 0.1124311238527298, 0.08495733886957169, 0.017553821206092834, 0.00985836610198021, 0.010840185917913914, 0.06956998258829117, 0.03277561068534851, 0.016304632648825645, 0.18350887298583984], [0.11734087020158768, 0.07083912938833237, 0.03340698406100273, 0.05057437717914581, 0.014072855934500694, 0.014940538443624973, 0.021805593743920326, 0.016734348610043526, 0.07034939527511597, 0.07722482830286026, 0.06772460043430328, 0.026798594743013382, 0.017544155940413475, 0.07445517927408218, 0.04015165939927101, 0.022575100883841515, 0.021293610334396362, 0.08858716487884521, 0.05401438847184181, 0.03028564341366291, 0.06928092241287231], [0.05794639140367508, 0.10297014564275742, 0.00703602097928524, 0.011017325334250927, 0.026322312653064728, 0.017649736255407333, 0.009371357969939709, 0.03372706100344658, 0.07097190618515015, 0.022261129692196846, 0.05457887053489685, 0.003998914733529091, 0.023730382323265076, 0.09244401007890701, 0.00979132391512394, 0.010377919301390648, 0.00957444030791521, 0.07967186719179153, 0.06207188591361046, 0.014029117301106453, 0.28045788407325745], [0.04547136276960373, 0.13656799495220184, 0.020323844626545906, 0.012965294532477856, 0.017837125808000565, 0.04682311788201332, 0.012394979596138, 0.01457388699054718, 0.09860283881425858, 0.03579308092594147, 0.08373613655567169, 0.01663942262530327, 0.020867271348834038, 0.11181773245334625, 0.014278484508395195, 0.025240300223231316, 0.015537752769887447, 0.10655511915683746, 0.044655878096818924, 0.03643474355340004, 0.0828835740685463], [0.11402063816785812, 0.0774058923125267, 0.029543694108724594, 0.05105012282729149, 0.009922402910888195, 0.013508962467312813, 0.019442908465862274, 0.01865221932530403, 0.07751692086458206, 0.06723164767026901, 0.07660803943872452, 0.024506354704499245, 0.013364641927182674, 0.0775597020983696, 0.04408968985080719, 0.021918414160609245, 0.027507899329066277, 0.09357643127441406, 0.05125392600893974, 0.028609588742256165, 0.06270986050367355], [0.2635037899017334, 0.051609985530376434, 0.009292948059737682, 0.01101379282772541, 0.006521061062812805, 0.0061338720843195915, 0.01595138944685459, 0.01233211625367403, 0.049398887902498245, 0.04686431586742401, 0.050300147384405136, 0.010210792534053326, 0.012189916335046291, 0.08208800852298737, 0.005701743066310883, 0.010520180687308311, 0.006995555013418198, 0.07695027440786362, 0.09767328202724457, 0.030440980568528175, 0.14430701732635498], [0.10197872668504715, 0.06320761144161224, 0.01319862436503172, 0.006157036870718002, 0.07297861576080322, 0.012614990584552288, 0.008880109526216984, 0.009754016064107418, 0.08878950774669647, 0.018534788861870766, 0.07908798009157181, 0.014903412200510502, 0.12164988368749619, 0.102292001247406, 0.010397558100521564, 0.009027916006743908, 0.006420769728720188, 0.10405357927083969, 0.06741304695606232, 0.02437260001897812, 0.06428726762533188], [0.10261724889278412, 0.063065305352211, 0.03085942752659321, 0.008088498376309872, 0.04863365739583969, 0.011393814347684383, 0.009125249460339546, 0.01495189219713211, 0.06069380044937134, 0.05965837091207504, 0.062038060277700424, 0.03426314890384674, 0.07623335719108582, 0.06594640761613846, 0.016517557203769684, 0.019028695300221443, 0.004580432083457708, 0.08212511241436005, 0.1195688247680664, 0.03830118477344513, 0.07230999320745468], [0.12279119342565536, 0.07884193956851959, 0.029091816395521164, 0.037519995123147964, 0.009281017817556858, 0.011581836268305779, 0.01650349050760269, 0.012621209025382996, 0.07890176773071289, 0.07438226044178009, 0.07850965112447739, 0.02493295446038246, 0.013972416520118713, 0.08363794535398483, 0.03990403935313225, 0.01936251111328602, 0.018875857815146446, 0.10225038230419159, 0.04834085702896118, 0.028408270329236984, 0.0702885091304779], [0.0817340761423111, 0.09574596583843231, 0.03238160163164139, 0.04637454077601433, 0.009566606022417545, 0.01595420576632023, 0.004687209147959948, 0.01888914965093136, 0.054209332913160324, 0.02506672963500023, 0.055222928524017334, 0.02231322042644024, 0.01085133757442236, 0.06298108398914337, 0.06183027848601341, 0.008778195828199387, 0.010666870512068272, 0.06493047624826431, 0.004822955932468176, 0.011779372580349445, 0.30121392011642456], [0.12008513510227203, 0.07316146790981293, 0.03140413016080856, 0.01859397068619728, 0.010137476027011871, 0.010246633552014828, 0.016087397933006287, 0.041990168392658234, 0.048967618495225906, 0.04151881858706474, 0.047321733087301254, 0.022147363051772118, 0.013361654244363308, 0.05400802195072174, 0.019310209900140762, 0.023620128631591797, 0.026529354974627495, 0.06997153162956238, 0.0819229930639267, 0.02475571818649769, 0.2048584371805191], [0.06061742082238197, 0.05849728733301163, 0.06399521976709366, 0.06443476676940918, 0.03405405953526497, 0.03839084506034851, 0.03449660912156105, 0.04310391843318939, 0.05144592747092247, 0.100798100233078, 0.04817313700914383, 0.04760732501745224, 0.03757365420460701, 0.05231942981481552, 0.016659922897815704, 0.0155899403616786, 0.016641031950712204, 0.04774627089500427, 0.06297712028026581, 0.018511569127440453, 0.08636648207902908]], [[0.48342299461364746, 0.027744727209210396, 0.008313124068081379, 0.02299552597105503, 0.010999067686498165, 0.015527836978435516, 0.006581948138773441, 0.015431143343448639, 0.028078706935048103, 0.021787067875266075, 0.032247766852378845, 0.009688206017017365, 0.02943519875407219, 0.03697194531559944, 0.024600127711892128, 0.03054174967110157, 0.04963250458240509, 0.04368308186531067, 0.030852634459733963, 0.015399899333715439, 0.05606478452682495], [0.042216137051582336, 0.08370546251535416, 0.022289302200078964, 0.036469604820013046, 0.07148787379264832, 0.09222980588674545, 0.023075468838214874, 0.030601264908909798, 0.08990748226642609, 0.02046896331012249, 0.06973979622125626, 0.015296797268092632, 0.06101732701063156, 0.09109669923782349, 0.020320408046245575, 0.02312536910176277, 0.012463458813726902, 0.07922612130641937, 0.02802897058427334, 0.01536115538328886, 0.0718725323677063], [0.015719657763838768, 0.013807891868054867, 0.01881636306643486, 0.027029501274228096, 0.009161848574876785, 0.01696062460541725, 0.029874209314584732, 0.021202843636274338, 0.01476631686091423, 0.2567741870880127, 0.017389513552188873, 0.01975402794778347, 0.021024469286203384, 0.019486339762806892, 0.05031229555606842, 0.015114064328372478, 0.008857322856783867, 0.020815230906009674, 0.3342101275920868, 0.055945731699466705, 0.012977327220141888], [0.038747694343328476, 0.0487154945731163, 0.04300426319241524, 0.03480272367596626, 0.022727880626916885, 0.023623285815119743, 0.05055050924420357, 0.045357219874858856, 0.04504217207431793, 0.052482955157756805, 0.053921137005090714, 0.04298354685306549, 0.03025093302130699, 0.04676790162920952, 0.06175437942147255, 0.04485701024532318, 0.05169111490249634, 0.0562543123960495, 0.05764003470540047, 0.0674818754196167, 0.08134350180625916], [0.019053375348448753, 0.06178048625588417, 0.05136071518063545, 0.03541918098926544, 0.016138551756739616, 0.028483524918556213, 0.12785254418849945, 0.028382116928696632, 0.05367177352309227, 0.06933587789535522, 0.0557398684322834, 0.04705682396888733, 0.019935956224799156, 0.08547987043857574, 0.042668044567108154, 0.03476758673787117, 0.016827743500471115, 0.06117669865489006, 0.07455579936504364, 0.029952384531497955, 0.04036102816462517], [0.021902533248066902, 0.054779402911663055, 0.039945609867572784, 0.049941737204790115, 0.04949745163321495, 0.04846037179231644, 0.05966348946094513, 0.039841827005147934, 0.06394226849079132, 0.04971468076109886, 0.05831930786371231, 0.03372908756136894, 0.05384470149874687, 0.07321436703205109, 0.051831867545843124, 0.03876795992255211, 0.021482840180397034, 0.060094285756349564, 0.06482421606779099, 0.034492094069719315, 0.03170996904373169], [0.030154449865221977, 0.026725905016064644, 0.01660309173166752, 0.03718871623277664, 0.017661448568105698, 0.017470860853791237, 0.018582995980978012, 0.022740934044122696, 0.02844867669045925, 0.2817276120185852, 0.026835570111870766, 0.017016300931572914, 0.030104009434580803, 0.03564641252160072, 0.0728754922747612, 0.013618874363601208, 0.012544318102300167, 0.038825858384370804, 0.16380807757377625, 0.042485687881708145, 0.04893464222550392], [0.01409428846091032, 0.042256321758031845, 0.03135349601507187, 0.029227757826447487, 0.015378911979496479, 0.020789727568626404, 0.04673462733626366, 0.025804396718740463, 0.04318081960082054, 0.13621503114700317, 0.04778680205345154, 0.02647765725851059, 0.01925569772720337, 0.040107689797878265, 0.07351240515708923, 0.03213481977581978, 0.03439155966043472, 0.040243469178676605, 0.20136110484600067, 0.05635492876172066, 0.023338468745350838], [0.044884733855724335, 0.09506324678659439, 0.014414085075259209, 0.022747371345758438, 0.06567315757274628, 0.09440179914236069, 0.014573944732546806, 0.018783535808324814, 0.10700412839651108, 0.011853986419737339, 0.08109629899263382, 0.011384432204067707, 0.06569135934114456, 0.11113227158784866, 0.015437283553183079, 0.020200887694954872, 0.007523799315094948, 0.09422215819358826, 0.016533495858311653, 0.011688842438161373, 0.07568906992673874], [0.026285234838724136, 0.01967776007950306, 0.0250665545463562, 0.012273453176021576, 0.006461217533797026, 0.009681008756160736, 0.04869409278035164, 0.01559522282332182, 0.022836683318018913, 0.09881225228309631, 0.02823432721197605, 0.02985641360282898, 0.031134774908423424, 0.03732860088348389, 0.051938384771347046, 0.016543613746762276, 0.012477545998990536, 0.035525280982255936, 0.3813047707080841, 0.05045085400342941, 0.039821919053792953], [0.047658879309892654, 0.08848392963409424, 0.014864963479340076, 0.023235905915498734, 0.06218787282705307, 0.08472632616758347, 0.016159886494278908, 0.02011324092745781, 0.10166152566671371, 0.0139096574857831, 0.07639860361814499, 0.01213968638330698, 0.06872864812612534, 0.10715192556381226, 0.018534421920776367, 0.021768856793642044, 0.010047799907624722, 0.09268002957105637, 0.02060719020664692, 0.014053266495466232, 0.08488739281892776], [0.01173786073923111, 0.008500726893544197, 0.015156746841967106, 0.015091177076101303, 0.005432950798422098, 0.011538628488779068, 0.034383855760097504, 0.014031448401510715, 0.009714198298752308, 0.3033258616924286, 0.011739516630768776, 0.019652418792247772, 0.017253171652555466, 0.012961937114596367, 0.04365823417901993, 0.0117781488224864, 0.007777868770062923, 0.014455125667154789, 0.3548908829689026, 0.06293735653162003, 0.013981807045638561], [0.019770661368966103, 0.02949214167892933, 0.03826862946152687, 0.020407041534781456, 0.006366318557411432, 0.01353295985609293, 0.08578460663557053, 0.017563849687576294, 0.03138354793190956, 0.12501096725463867, 0.038191940635442734, 0.04925272986292839, 0.018506482243537903, 0.0575951412320137, 0.06705454736948013, 0.030166851356625557, 0.015540885739028454, 0.0472816564142704, 0.19947905838489532, 0.046559881418943405, 0.04279010742902756], [0.04680927097797394, 0.08426538854837418, 0.01333205308765173, 0.021103767678141594, 0.07099363952875137, 0.10755757242441177, 0.012421348132193089, 0.01949983462691307, 0.09972135722637177, 0.013326323591172695, 0.07648172974586487, 0.01090399269014597, 0.07893583178520203, 0.09939495474100113, 0.01656585931777954, 0.021484673023223877, 0.008541762828826904, 0.0925469622015953, 0.021132508292794228, 0.012694510631263256, 0.07228662818670273], [0.07060901075601578, 0.03637856990098953, 0.01032930240035057, 0.01922294870018959, 0.014317131601274014, 0.011163908056914806, 0.02703866921365261, 0.03269461542367935, 0.044108107686042786, 0.054154377430677414, 0.048565663397312164, 0.012874417938292027, 0.055179961025714874, 0.06097908318042755, 0.019778553396463394, 0.022359127178788185, 0.03538835048675537, 0.08439947664737701, 0.16339166462421417, 0.07933253794908524, 0.09773442894220352], [0.032759130001068115, 0.07027232646942139, 0.019352883100509644, 0.05813388526439667, 0.02417728304862976, 0.04103752598166466, 0.011092274449765682, 0.024617547169327736, 0.06763818114995956, 0.05980865657329559, 0.06363103538751602, 0.015149532817304134, 0.04356927424669266, 0.08927421271800995, 0.09037001430988312, 0.018825219944119453, 0.019973527640104294, 0.08098076283931732, 0.09990976750850677, 0.025984210893511772, 0.0434427335858345], [0.033374130725860596, 0.060690637677907944, 0.028608206659555435, 0.04903240501880646, 0.020671170204877853, 0.03840017318725586, 0.025761131197214127, 0.028119098395109177, 0.05533076450228691, 0.06255976110696793, 0.05529200658202171, 0.024083083495497704, 0.035776298493146896, 0.07039906084537506, 0.07304167747497559, 0.030492207035422325, 0.013438879512250423, 0.0687757059931755, 0.11937741190195084, 0.04011593759059906, 0.06666034460067749], [0.05066271126270294, 0.0847380980849266, 0.013971303589642048, 0.024546487256884575, 0.0725533664226532, 0.09660743921995163, 0.012716608121991158, 0.017291108146309853, 0.09412400424480438, 0.011859115213155746, 0.07232913374900818, 0.011249381117522717, 0.08008448034524918, 0.09782592952251434, 0.01791476272046566, 0.02059672586619854, 0.009929019957780838, 0.08746590465307236, 0.017768649384379387, 0.012638338841497898, 0.09312745928764343], [0.01187799870967865, 0.01565251126885414, 0.014919743873178959, 0.0190600398927927, 0.004886934999376535, 0.004692873917520046, 0.03550976142287254, 0.009711576625704765, 0.015912631526589394, 0.08208870887756348, 0.016844574362039566, 0.016424357891082764, 0.025212226435542107, 0.0283367857336998, 0.05495902895927429, 0.012782248668372631, 0.017790120095014572, 0.027135608717799187, 0.4114915728569031, 0.07342158257961273, 0.10128913074731827], [0.011290783062577248, 0.015536842867732048, 0.01758081652224064, 0.02997448667883873, 0.009170795790851116, 0.011605294421315193, 0.02158999815583229, 0.021524082869291306, 0.01711769588291645, 0.13483355939388275, 0.019846301525831223, 0.020140700042247772, 0.03218955546617508, 0.023896075785160065, 0.05070151761174202, 0.01944114826619625, 0.018076838925480843, 0.02466343156993389, 0.4365650415420532, 0.039028968662023544, 0.025225983932614326], [0.010764921084046364, 0.033362921327352524, 0.07679210603237152, 0.07705841958522797, 0.02821597456932068, 0.03112802654504776, 0.07937680929899216, 0.024469897150993347, 0.02528461068868637, 0.14522157609462738, 0.02724800631403923, 0.06344011425971985, 0.027585454285144806, 0.026656202971935272, 0.07471134513616562, 0.020941944792866707, 0.031962793320417404, 0.02470996603369713, 0.12284243851900101, 0.023910941556096077, 0.024315480142831802]], [[0.03864803910255432, 0.1130942702293396, 0.015183134004473686, 0.0905788466334343, 0.003248157212510705, 0.00533605832606554, 0.007963511161506176, 0.007324689067900181, 0.11029054969549179, 0.03554088622331619, 0.10393082350492477, 0.015465552918612957, 0.004774224944412708, 0.12368449568748474, 0.0823407843708992, 0.03190317749977112, 0.03431476280093193, 0.11926289647817612, 0.022434089332818985, 0.02694416604936123, 0.007736793253570795], [0.0911291316151619, 0.10294819623231888, 0.03855368494987488, 0.041476283222436905, 0.017769938334822655, 0.014690778218209743, 0.01962142623960972, 0.014655892737209797, 0.08311573415994644, 0.04442800208926201, 0.07696863263845444, 0.033214271068573, 0.021787403151392937, 0.09117681533098221, 0.04483434185385704, 0.02508649043738842, 0.0277045089751482, 0.08998045325279236, 0.025561146438121796, 0.03866742551326752, 0.056629475206136703], [0.13097023963928223, 0.07444673776626587, 0.023568429052829742, 0.0076906695030629635, 0.02137776091694832, 0.03311312943696976, 0.03137435391545296, 0.021845415234565735, 0.06454335898160934, 0.022022338584065437, 0.0596604198217392, 0.01935390941798687, 0.031709935516119, 0.07679301500320435, 0.012248683720827103, 0.03033924102783203, 0.020417379215359688, 0.07745447754859924, 0.04111531376838684, 0.038977667689323425, 0.16097743809223175], [0.15435266494750977, 0.09733503311872482, 0.030509039759635925, 0.0022379178553819656, 0.02205430157482624, 0.04266443848609924, 0.02971595712006092, 0.04584868624806404, 0.06719015538692474, 0.014222203753888607, 0.05980933457612991, 0.021985404193401337, 0.02344440668821335, 0.06305284053087234, 0.04676806554198265, 0.07845631241798401, 0.036263417452573776, 0.07150678336620331, 0.025263512507081032, 0.029683250933885574, 0.0376361720263958], [0.12196318060159683, 0.09590020775794983, 0.06463958323001862, 0.008789444342255592, 0.01123689953237772, 0.016836784780025482, 0.04063214734196663, 0.02353115752339363, 0.07323730736970901, 0.014428453519940376, 0.06285586953163147, 0.05789890140295029, 0.014896857552230358, 0.09492811560630798, 0.010982843115925789, 0.07056794315576553, 0.027604607865214348, 0.07596283406019211, 0.009416915476322174, 0.03516226261854172, 0.0685277134180069], [0.13922788202762604, 0.057802241295576096, 0.05128272622823715, 0.008140751160681248, 0.03263726457953453, 0.03961286321282387, 0.06336548179388046, 0.027567002922296524, 0.07178843021392822, 0.0203681793063879, 0.05455709621310234, 0.03978189826011658, 0.043353121727705, 0.07976602762937546, 0.014470272697508335, 0.03526739031076431, 0.025978030636906624, 0.06589732319116592, 0.031156349927186966, 0.03237801045179367, 0.06560167670249939], [0.02644910290837288, 0.07020110636949539, 0.05833034589886665, 0.021535325795412064, 0.011629492975771427, 0.05694248154759407, 0.004335450939834118, 0.037075646221637726, 0.05800946056842804, 0.1278046816587448, 0.056343093514442444, 0.04354115575551987, 0.013151940889656544, 0.052876174449920654, 0.029412293806672096, 0.025844356045126915, 0.01799849420785904, 0.06468531489372253, 0.028965376317501068, 0.06864145398139954, 0.12622728943824768], [0.11269298195838928, 0.07762794196605682, 0.03712322562932968, 0.00885345321148634, 0.012495918199419975, 0.03257434815168381, 0.011079843156039715, 0.011539610102772713, 0.0716095045208931, 0.02022615633904934, 0.07020946592092514, 0.031819719821214676, 0.020774250850081444, 0.07886181026697159, 0.01701444759964943, 0.02970460057258606, 0.016219662502408028, 0.08168865740299225, 0.040096402168273926, 0.04818391799926758, 0.16960403323173523], [0.08193342387676239, 0.10269584506750107, 0.028375687077641487, 0.025419743731617928, 0.02091650664806366, 0.020832356065511703, 0.018075454980134964, 0.018320521339774132, 0.08914528787136078, 0.02500205487012863, 0.08158282190561295, 0.024917587637901306, 0.02611655741930008, 0.10204149782657623, 0.02696145325899124, 0.018842874094843864, 0.019402459263801575, 0.09883314371109009, 0.0271519273519516, 0.04131530225276947, 0.10211756080389023], [0.21093295514583588, 0.04714556783437729, 0.005453550722450018, 0.002935046562924981, 0.006348441820591688, 0.017080165445804596, 0.005476007238030434, 0.008521638810634613, 0.06849604845046997, 0.0019046446541324258, 0.07449744641780853, 0.008580915629863739, 0.02295588329434395, 0.07597384601831436, 0.013169700279831886, 0.02923981286585331, 0.008915727958083153, 0.08157463371753693, 0.1841374635696411, 0.044604238122701645, 0.0820561945438385], [0.07943861186504364, 0.10130701214075089, 0.03355957567691803, 0.028221534565091133, 0.021519575268030167, 0.01970123127102852, 0.021109580993652344, 0.01972438022494316, 0.09146697074174881, 0.024420393630862236, 0.08098805695772171, 0.029632320627570152, 0.025571104139089584, 0.10410870611667633, 0.022813335061073303, 0.02121247909963131, 0.01978348195552826, 0.0991891399025917, 0.025711920112371445, 0.04272453859448433, 0.08779603242874146], [0.13119587302207947, 0.07045888155698776, 0.025958029553294182, 0.006361781619489193, 0.022439168766140938, 0.031835202127695084, 0.02755092829465866, 0.022444967180490494, 0.06055891513824463, 0.021974343806505203, 0.056315045803785324, 0.019605714827775955, 0.034013018012046814, 0.07145276665687561, 0.0119285574182868, 0.022746432572603226, 0.017663531005382538, 0.07530634850263596, 0.04547033831477165, 0.033478643745183945, 0.19124159216880798], [0.14452168345451355, 0.10172039270401001, 0.052108440548181534, 0.009457944892346859, 0.00999381672590971, 0.013915881514549255, 0.030613424256443977, 0.021066712215542793, 0.07756402343511581, 0.01659242808818817, 0.06806840747594833, 0.04761459305882454, 0.01292885560542345, 0.09418691694736481, 0.008123926818370819, 0.057120416313409805, 0.023155229166150093, 0.08398671448230743, 0.010332449339330196, 0.03589504212141037, 0.08103273808956146], [0.0755854994058609, 0.099295474588871, 0.03677746653556824, 0.03272685781121254, 0.022560006007552147, 0.02410244755446911, 0.019325193017721176, 0.016262121498584747, 0.08479110896587372, 0.0321488082408905, 0.07697222381830215, 0.029521068558096886, 0.026779066771268845, 0.09322727471590042, 0.03054184280335903, 0.016045553609728813, 0.01820073276758194, 0.09444236010313034, 0.028298968449234962, 0.03955184668302536, 0.10284411907196045], [0.058290574699640274, 0.09796761721372604, 0.017481748014688492, 0.04455340653657913, 0.020142843946814537, 0.016614411026239395, 0.013173003681004047, 0.02482544630765915, 0.09249448776245117, 0.033513665199279785, 0.08136667311191559, 0.014398477971553802, 0.01712704636156559, 0.10260948538780212, 0.004040037747472525, 0.015005683526396751, 0.02196633256971836, 0.0902070701122284, 0.01181069016456604, 0.019856438040733337, 0.2025548666715622], [0.06065615266561508, 0.0976107269525528, 0.037118665874004364, 0.026569535955786705, 0.028690563514828682, 0.026515774428844452, 0.012995375320315361, 0.024912703782320023, 0.07567203789949417, 0.009765609167516232, 0.07412329316139221, 0.02741902321577072, 0.03347580507397652, 0.11161380261182785, 0.009110060520470142, 0.01570345088839531, 0.014341773465275764, 0.09223770350217819, 0.023268233984708786, 0.029890958219766617, 0.16830870509147644], [0.13382241129875183, 0.12591499090194702, 0.026152344420552254, 0.019540540874004364, 0.012136879377067089, 0.016522644087672234, 0.021503645926713943, 0.012461559846997261, 0.08870907872915268, 0.02157699689269066, 0.07610262930393219, 0.020280160009860992, 0.013638628646731377, 0.10383819043636322, 0.01402433030307293, 0.04394858703017235, 0.014848909340798855, 0.10796204954385757, 0.016708888113498688, 0.0568864643573761, 0.053420018404722214], [0.07363707572221756, 0.10826954990625381, 0.030674125999212265, 0.039637722074985504, 0.020430322736501694, 0.018492966890335083, 0.018615789711475372, 0.016057094559073448, 0.09223584830760956, 0.029157858341932297, 0.08354339748620987, 0.026453420519828796, 0.024091802537441254, 0.10133782029151917, 0.03031405806541443, 0.020045354962348938, 0.019896777346730232, 0.1043122187256813, 0.028786281123757362, 0.04158661514520645, 0.07242389023303986], [0.03584069013595581, 0.11513835936784744, 0.029467927291989326, 0.0695885568857193, 0.010093155317008495, 0.024973483756184578, 0.010673296637833118, 0.018531102687120438, 0.10818054527044296, 0.04588017985224724, 0.09644953906536102, 0.02263881452381611, 0.013041996397078037, 0.1052260473370552, 0.007850484922528267, 0.04678797349333763, 0.02856886386871338, 0.11273184418678284, 0.019012676551938057, 0.026327628642320633, 0.05299682170152664], [0.07314763963222504, 0.0894806832075119, 0.027464305981993675, 0.027083735913038254, 0.022554272785782814, 0.02126947045326233, 0.02652418240904808, 0.028487948700785637, 0.08019724488258362, 0.028680184856057167, 0.07993024587631226, 0.024947967380285263, 0.033265307545661926, 0.08816360682249069, 0.013773915357887745, 0.0636201724410057, 0.029946666210889816, 0.09021028131246567, 0.06321945786476135, 0.03395659103989601, 0.05407610535621643], [0.16770029067993164, 0.09375716745853424, 0.05295289680361748, 0.030863767489790916, 0.003272054251283407, 0.0035727755166590214, 0.012867926619946957, 0.006331710144877434, 0.06846553087234497, 0.07726667821407318, 0.056306324899196625, 0.03837067261338234, 0.004760992247611284, 0.06712261587381363, 0.09799401462078094, 0.06877125799655914, 0.04108036309480667, 0.06660909950733185, 0.011073332279920578, 0.027371346950531006, 0.0034892840776592493]], [[0.062492579221725464, 0.07000460475683212, 0.013617383316159248, 0.0319177471101284, 0.0314314104616642, 0.01615428924560547, 0.012343671172857285, 0.027090756222605705, 0.042876679450273514, 0.013196642510592937, 0.04616951197385788, 0.00904843769967556, 0.019852517172694206, 0.04732014611363411, 0.01669277250766754, 0.01759308949112892, 0.021055860444903374, 0.04186411574482918, 0.012718994170427322, 0.019329790025949478, 0.42722904682159424], [0.056990109384059906, 0.10591971129179001, 0.008057308383286, 0.01745704561471939, 0.01555370632559061, 0.04971886798739433, 0.012037922628223896, 0.035056497901678085, 0.13483551144599915, 0.019638750702142715, 0.11424833536148071, 0.007252836599946022, 0.015831703320145607, 0.14250604808330536, 0.020757358521223068, 0.017727486789226532, 0.025797424837946892, 0.13866810500621796, 0.01551029086112976, 0.02967665158212185, 0.016758311539888382], [0.031961675733327866, 0.08932757377624512, 0.015840725973248482, 0.14413227140903473, 0.0098782479763031, 0.007290943991392851, 0.02308460883796215, 0.013123368844389915, 0.04950232803821564, 0.060509245842695236, 0.05381356552243233, 0.010821730829775333, 0.0060831839218735695, 0.052987582981586456, 0.03219614923000336, 0.0032737362198531628, 0.004834144841879606, 0.05072100833058357, 0.02757999114692211, 0.01413048803806305, 0.29890745878219604], [0.03602995350956917, 0.10488902777433395, 0.029238155111670494, 0.06758445501327515, 0.05855622887611389, 0.027418013662099838, 0.019727125763893127, 0.016410063952207565, 0.05014157295227051, 0.021592067554593086, 0.04808832332491875, 0.020983342081308365, 0.024953417479991913, 0.06569792330265045, 0.027423085644841194, 0.020781278610229492, 0.04331136494874954, 0.051843322813510895, 0.02920323610305786, 0.0086896400898695, 0.22743840515613556], [0.051567934453487396, 0.14830166101455688, 0.016760509461164474, 0.06194902956485748, 0.026341956108808517, 0.01606707088649273, 0.01417945884168148, 0.018739871680736542, 0.06763976067304611, 0.011402170173823833, 0.06965630501508713, 0.00917782261967659, 0.011073238216340542, 0.07972301542758942, 0.014614486135542393, 0.005160395987331867, 0.011379802599549294, 0.07264102250337601, 0.009758968837559223, 0.009998752735555172, 0.27386677265167236], [0.05621406435966492, 0.1759006828069687, 0.020192235708236694, 0.04924561083316803, 0.029126347973942757, 0.01737358048558235, 0.009454905055463314, 0.01860879920423031, 0.10665147006511688, 0.009133854880928993, 0.10072135925292969, 0.01324422936886549, 0.012288161553442478, 0.11355506628751755, 0.019218310713768005, 0.007575221359729767, 0.014553829096257687, 0.10268768668174744, 0.008043087087571621, 0.010966253466904163, 0.10524523258209229], [0.03667997568845749, 0.10744952410459518, 0.031338177621364594, 0.10566701740026474, 0.0342574268579483, 0.031130356714129448, 0.014096958562731743, 0.024829015135765076, 0.06050766631960869, 0.03686686232686043, 0.05618423596024513, 0.017937490716576576, 0.02044040337204933, 0.06931930780410767, 0.029058460146188736, 0.007675467059016228, 0.008470832370221615, 0.060822684317827225, 0.022962843999266624, 0.036522526293992996, 0.18778274953365326], [0.049375902861356735, 0.11519742012023926, 0.018039969727396965, 0.21588937938213348, 0.03538988530635834, 0.02513878233730793, 0.014028274454176426, 0.01340498123317957, 0.05581633746623993, 0.009145448915660381, 0.05929262936115265, 0.011851784773170948, 0.017014095559716225, 0.059781402349472046, 0.01491461880505085, 0.00937237311154604, 0.01582440361380577, 0.058330416679382324, 0.012476859614253044, 0.018269920721650124, 0.1714451014995575], [0.06466227024793625, 0.0961526557803154, 0.005666655953973532, 0.025917574763298035, 0.01327525731176138, 0.06694478541612625, 0.011292983777821064, 0.032419659197330475, 0.13891738653182983, 0.012914415448904037, 0.10365021973848343, 0.0052719381637871265, 0.01466534286737442, 0.15690237283706665, 0.01825973019003868, 0.01790803298354149, 0.028880508616566658, 0.13742123544216156, 0.010890484787523746, 0.02816564217209816, 0.009820820763707161], [0.04573022201657295, 0.08889678120613098, 0.08749472349882126, 0.029423488304018974, 0.016056835651397705, 0.014054778032004833, 0.08834348618984222, 0.010129431262612343, 0.038154006004333496, 0.09845920652151108, 0.03954795375466347, 0.056179821491241455, 0.011943838559091091, 0.04442368820309639, 0.046303290873765945, 0.0034196937922388315, 0.006177375093102455, 0.03576730564236641, 0.1049606129527092, 0.020681055262684822, 0.11385241895914078], [0.06816242635250092, 0.10222160816192627, 0.005530614871531725, 0.021408848464488983, 0.01147193368524313, 0.05989012494683266, 0.01344540435820818, 0.03246457502245903, 0.14438022673130035, 0.013618672266602516, 0.10513322055339813, 0.005049558822065592, 0.012191537767648697, 0.1620284765958786, 0.019741343334317207, 0.01511924434453249, 0.022863784804940224, 0.13851676881313324, 0.009669839404523373, 0.02632739581167698, 0.010764449834823608], [0.02776421047747135, 0.07048118859529495, 0.015980791300535202, 0.21237392723560333, 0.007441012654453516, 0.006173730827867985, 0.04067761451005936, 0.013602066785097122, 0.04116417095065117, 0.08291745185852051, 0.042619187384843826, 0.011011521331965923, 0.004524208605289459, 0.04049472510814667, 0.04743707552552223, 0.0029173437505960464, 0.003846772015094757, 0.03954189270734787, 0.033792894333601, 0.015023034065961838, 0.24021528661251068], [0.045938268303871155, 0.09946431964635849, 0.03329276666045189, 0.07037178426980972, 0.018968096002936363, 0.015538825653493404, 0.0333544947206974, 0.02415621094405651, 0.05228041857481003, 0.06886757165193558, 0.05404573306441307, 0.020475957542657852, 0.010523559525609016, 0.06311310827732086, 0.03273826465010643, 0.006023456808179617, 0.012940182350575924, 0.056744568049907684, 0.04281306266784668, 0.01518003735691309, 0.22316929697990417], [0.06649137288331985, 0.0864778384566307, 0.007399686146527529, 0.017328623682260513, 0.013239669613540173, 0.0631384626030922, 0.012678285129368305, 0.039561524987220764, 0.1383446455001831, 0.02630445919930935, 0.10460064560174942, 0.00678635248914361, 0.014878670684993267, 0.14755494892597198, 0.020476851612329483, 0.01654544472694397, 0.02879156917333603, 0.1336071938276291, 0.017753615975379944, 0.02961263619363308, 0.008427520282566547], [0.05849672481417656, 0.09235041588544846, 0.042567163705825806, 0.05125981196761131, 0.01991868019104004, 0.007530171889811754, 0.023665718734264374, 0.02607141062617302, 0.04737362265586853, 0.1192423477768898, 0.045242562890052795, 0.030063455924391747, 0.01146291196346283, 0.06278251856565475, 0.02334916777908802, 0.01577029377222061, 0.02313069999217987, 0.05657142028212547, 0.0381847582757473, 0.01296844519674778, 0.19199763238430023], [0.0839070975780487, 0.12346933782100677, 0.007936504669487476, 0.15142498910427094, 0.015509633347392082, 0.02300450950860977, 0.005508089438080788, 0.02304171957075596, 0.08057774603366852, 0.008816923014819622, 0.07145969569683075, 0.005521801766008139, 0.010212193243205547, 0.09762014448642731, 0.011881940998136997, 0.02647099643945694, 0.02965504489839077, 0.0900256559252739, 0.009104521945118904, 0.01786196418106556, 0.10698952525854111], [0.03893449530005455, 0.08121827989816666, 0.012504395097494125, 0.21537594497203827, 0.03575097396969795, 0.032309889793395996, 0.012169530615210533, 0.024565057829022408, 0.06626712530851364, 0.012792696245014668, 0.06828389316797256, 0.010672601871192455, 0.024991502985358238, 0.0817597284913063, 0.029613373801112175, 0.020322294905781746, 0.025293191894888878, 0.070881687104702, 0.015149313025176525, 0.02215588465332985, 0.09898810088634491], [0.06322309374809265, 0.09278808534145355, 0.007254522759467363, 0.02629411220550537, 0.013278653845191002, 0.06328481435775757, 0.013192827813327312, 0.034673094749450684, 0.13498809933662415, 0.01831941306591034, 0.09946506470441818, 0.006837122142314911, 0.015277800150215626, 0.15809327363967896, 0.022381674498319626, 0.01996167190372944, 0.030575638636946678, 0.12918075919151306, 0.013091548345983028, 0.027163762599229813, 0.010674902237951756], [0.016539590433239937, 0.04347994178533554, 0.062143657356500626, 0.038872674107551575, 0.021409515291452408, 0.013932881876826286, 0.04618702456355095, 0.014444421045482159, 0.019611690193414688, 0.27437901496887207, 0.020238053053617477, 0.03653828799724579, 0.015565378591418266, 0.026460574939846992, 0.041059114038944244, 0.0044244155287742615, 0.009756474755704403, 0.02204589545726776, 0.06985718011856079, 0.02138773538172245, 0.1816665083169937], [0.026962872594594955, 0.08984295278787613, 0.035969171673059464, 0.19837938249111176, 0.018635133281350136, 0.012903496623039246, 0.030295927077531815, 0.015348241664469242, 0.0413227342069149, 0.042473938316106796, 0.04263196513056755, 0.02356467768549919, 0.01064305193722248, 0.04678613319993019, 0.029038868844509125, 0.007125629112124443, 0.014487789943814278, 0.04489904269576073, 0.037436433136463165, 0.01370448712259531, 0.21754813194274902], [0.03802388533949852, 0.17720343172550201, 0.016642430797219276, 0.05308527499437332, 0.03910478949546814, 0.014706870540976524, 0.018162734806537628, 0.020085811614990234, 0.0949263796210289, 0.011174439452588558, 0.10198911279439926, 0.010775125585496426, 0.015682561323046684, 0.09281641244888306, 0.010551318526268005, 0.009493067860603333, 0.016386032104492188, 0.07974961400032043, 0.011887640692293644, 0.014727761968970299, 0.1528252810239792]], [[0.13437268137931824, 0.05244304612278938, 0.048543352633714676, 0.031268514692783356, 0.016135089099407196, 0.014835906215012074, 0.018924757838249207, 0.0133721474558115, 0.02660573460161686, 0.0664142519235611, 0.07888771593570709, 0.09899880737066269, 0.0341574065387249, 0.029109301045536995, 0.012041468173265457, 0.06334391236305237, 0.06327170133590698, 0.05154619738459587, 0.049606144428253174, 0.05351729691028595, 0.04260455071926117], [0.05126015096902847, 0.03235861286520958, 0.8601829409599304, 0.006686871871352196, 5.1092425565002486e-05, 1.012988832371775e-05, 0.0003736782819032669, 0.0033198792953044176, 0.0013511762954294682, 0.0033347425051033497, 0.00010489075066288933, 0.000285129965050146, 0.0004418079333845526, 0.00042051420314237475, 4.7243891458492726e-05, 6.42818713458837e-06, 0.00014792305591981858, 0.002874264493584633, 0.0216990876942873, 0.014364862814545631, 0.0006784043507650495], [0.06797903776168823, 0.003865259001031518, 0.05669817328453064, 0.7278748750686646, 0.0059471637941896915, 5.5245356634259224e-05, 4.6485285565722734e-05, 6.30490540061146e-05, 0.0042296042665839195, 0.003266306361183524, 0.0008716436568647623, 6.7128835326002445e-06, 2.0713729099952616e-05, 0.0022872374393045902, 0.00016295873501803726, 7.207238923001569e-06, 6.700919357172097e-07, 0.00010047938849311322, 0.001804775558412075, 0.12258559465408325, 0.0021267379634082317], [0.016363561153411865, 7.106484554242343e-05, 0.0023211331572383642, 0.003558953758329153, 0.9595041275024414, 0.006997223477810621, 9.739301458466798e-05, 2.8347212719381787e-06, 0.00013681617565453053, 0.0011697241570800543, 0.0017139749834313989, 0.0005684469942934811, 2.608912473078817e-05, 0.00146053999196738, 0.0011902280384674668, 4.927505870000459e-05, 6.731830126227578e-06, 7.246720088005532e-06, 8.336955033882987e-06, 0.00046859277063049376, 0.0042776125483214855], [0.0005535201635211706, 1.8086651607518434e-06, 6.871285336274013e-07, 2.2848598746350035e-05, 0.011122353374958038, 0.986518919467926, 0.0015840110136196017, 1.6814064451864397e-07, 1.1605261818203871e-07, 9.602803402231075e-06, 2.459304960211739e-05, 7.814566197339445e-05, 1.9243273641222913e-07, 4.812521183339413e-06, 1.1885085768881254e-05, 3.486554487608373e-05, 1.012702568914392e-06, 4.0615154262013675e-07, 8.557954345178587e-09, 8.708438414828379e-09, 3.011439366673585e-05], [0.0006212645093910396, 9.726333519211039e-05, 8.608798225395731e-07, 3.0626810598732845e-07, 1.165711091744015e-05, 0.007871399633586407, 0.9895740151405334, 0.0017460089875385165, 2.868609044526238e-06, 1.2661176924666506e-06, 1.1089244935647002e-06, 1.3627361113321967e-05, 1.8790215108310804e-05, 1.9661707483464852e-05, 8.670561442158942e-07, 1.9333836576151953e-07, 1.4824325944573502e-06, 1.699237327557057e-05, 3.2739069411036326e-07, 3.256420411101857e-10, 4.354261662342651e-08], [0.0005870932363905013, 0.0008711972623132169, 0.0001672189828241244, 1.081678692571586e-05, 2.842649109879858e-06, 0.00012822615099139512, 0.0020036036148667336, 0.9862167835235596, 0.008810771629214287, 0.00020432408200576901, 5.347048499970697e-06, 7.3246319516329095e-06, 0.000321763422107324, 0.0005196307902224362, 1.1241426363994833e-05, 1.5762266230012756e-06, 4.416267529450124e-06, 0.00011932323104701936, 5.3026346904516686e-06, 6.415768893930363e-07, 6.139228503343475e-07], [0.003979839850217104, 0.0005842372193001211, 0.0036971650552004576, 8.338836050825194e-05, 9.434087644422107e-08, 5.405320280260639e-08, 0.00020027287246193737, 0.02842041105031967, 0.9361615180969238, 0.026138028129935265, 1.3071480680082459e-05, 4.6917315899008827e-07, 3.1292190669773845e-06, 0.000484257034258917, 0.000129688109154813, 2.3645759483770235e-06, 3.528535330588056e-07, 4.446085949894041e-05, 4.30161198892165e-05, 1.1231424650759436e-05, 2.930783466581488e-06], [0.009338087402284145, 3.100446338066831e-05, 0.0012822035932913423, 0.0005098074907436967, 1.4207106687535997e-05, 2.0825915214572888e-07, 4.809143320017029e-06, 0.00021818037203047425, 0.029184682294726372, 0.9538779854774475, 0.0023708443623036146, 0.00010755782568594441, 2.116659970852197e-06, 2.475899782439228e-05, 0.0009232750162482262, 0.0011675120331346989, 0.00011542153515620157, 2.0860941731370986e-05, 0.00014584610471501946, 0.0005238791927695274, 0.0001367855875287205], [0.2137443572282791, 0.00027263941592536867, 5.248323213891126e-05, 2.7276048058411106e-05, 5.067500751465559e-05, 3.0339192562678363e-06, 5.138618234923342e-06, 5.096001700621855e-07, 0.001994995167478919, 0.009517262689769268, 0.7636091113090515, 0.007470904849469662, 9.311954272561707e-06, 8.097086538327858e-05, 1.0327476957172621e-05, 0.0004285115282982588, 0.0004093151947017759, 0.0016395084094256163, 0.00014723105414304882, 1.4464498235611245e-05, 0.0005119334091432393], [0.023463184013962746, 4.704066668637097e-05, 2.8672027838183567e-05, 2.4707145712454803e-05, 0.00016044107906054705, 0.00024440744891762733, 6.393864168785512e-05, 1.0041170526164933e-06, 2.899521859944798e-06, 0.0023222416639328003, 0.035268425941467285, 0.9285061359405518, 0.006995299365371466, 3.7586010876111686e-05, 1.3725052667723503e-05, 0.000195300264749676, 0.001089144847355783, 0.000546302180737257, 0.0004093892057426274, 0.00010138878133147955, 0.00047863315558061004], [0.021072586998343468, 0.00027279031928628683, 2.7594110179052223e-06, 1.860584961832501e-05, 6.20985338173341e-06, 0.0014782571233808994, 0.0018959804438054562, 4.8153837269637734e-05, 8.76748345035594e-06, 2.9536324291257188e-05, 0.0032257833518087864, 0.1206628829240799, 0.813215970993042, 0.033729568123817444, 0.0001047748010023497, 5.3217532695271075e-05, 6.999789911787957e-05, 0.0024221863131970167, 0.0014786145184189081, 0.0001217442550114356, 8.158554555848241e-05], [0.0033815267961472273, 2.8347782063065097e-05, 0.00016574151231907308, 7.40135001251474e-05, 2.514995287583588e-07, 3.0295523174572736e-05, 0.000480580230941996, 0.00048174551920965314, 5.536829849006608e-05, 4.6485773054882884e-05, 4.180696123512462e-06, 0.004398450721055269, 0.033412862569093704, 0.8366386890411377, 0.12013423442840576, 0.0001374514540657401, 1.7578564666109742e-06, 4.0116909076459706e-05, 0.0002973896625917405, 0.00010595082130748779, 8.455501665594056e-05], [0.019511748105287552, 2.2250062102102675e-05, 0.00017924154235515743, 0.000651398440822959, 5.174340549274348e-05, 1.1210590855625924e-05, 8.627409260952845e-05, 0.0009202011860907078, 0.001602517208084464, 0.0014361528446897864, 1.3119439245201647e-05, 6.883908645249903e-05, 0.002037681872025132, 0.07466184347867966, 0.8647962808609009, 0.028997989371418953, 0.00021546125935856253, 3.308768282295205e-05, 0.00019372686801943928, 0.0030575841665267944, 0.0014516053488478065], [0.01389394048601389, 1.4287777048593853e-05, 7.958016681186564e-07, 6.639391813223483e-06, 8.593687380198389e-05, 1.6962696918199072e-06, 1.599007191543933e-06, 3.875700713251717e-06, 0.0017620637081563473, 0.0013526492984965444, 0.0012571505503728986, 2.04461448447546e-05, 1.551596687932033e-05, 0.003868394996970892, 0.010109830647706985, 0.9294261336326599, 0.035141631960868835, 0.0015789404278621078, 0.0001133255209424533, 9.261654486181214e-05, 0.0012525205966085196], [0.007125699892640114, 3.3352825994370505e-05, 1.7780945427148254e-07, 6.094848714610634e-08, 3.855280738207512e-06, 2.021713044086937e-05, 1.1969476645390387e-06, 8.08110030448006e-07, 1.4290744729805738e-05, 0.00018394998915027827, 0.0008173570968210697, 9.647573460824788e-05, 3.14076919494255e-06, 5.139876975590596e-06, 0.00010832399857463315, 0.015719380229711533, 0.9620232582092285, 0.013657741248607635, 7.435541192535311e-05, 7.380167517112568e-07, 0.00011051107139792293], [0.022338788956403732, 0.0045729330740869045, 7.385422213701531e-05, 4.634509878087556e-07, 1.700423410966323e-07, 3.4362358292128192e-06, 2.0452191165531985e-05, 3.7458978567883605e-06, 1.4533638022840023e-05, 0.0001241993304574862, 0.0008436421630904078, 0.001517763128504157, 8.14133818494156e-05, 1.3927005966252182e-05, 3.1516437957179733e-06, 0.0016434165881946683, 0.05447376146912575, 0.8448587656021118, 0.06913495808839798, 6.041636152076535e-05, 0.00021621388441417366], [0.030712492763996124, 0.00495503842830658, 0.01171067077666521, 0.0001023356307996437, 5.260627062853018e-07, 1.1591556585699436e-06, 3.956614818889648e-05, 0.00024592343834228814, 8.077969687292352e-05, 0.0005680015310645103, 0.0002055153454421088, 0.0021123490296304226, 0.001381589681841433, 0.00020051616593264043, 5.0836893933592364e-05, 8.777321636443958e-05, 0.007796875666826963, 0.07094436138868332, 0.7824488878250122, 0.08416764438152313, 0.0021871435455977917], [0.02630043588578701, 0.002659511985257268, 0.0022030998952686787, 0.0013396021677181125, 4.956175416737096e-07, 3.274384141604969e-08, 1.3911534324506647e-07, 2.272404117320548e-06, 0.00037761294515803456, 0.00011037119111279026, 0.0005818885401822627, 7.018208998488262e-05, 6.0443249822128564e-05, 0.005095466040074825, 6.860106077510864e-05, 3.5684242902789265e-05, 5.03140217915643e-05, 0.020290421321988106, 0.04256647825241089, 0.8780069947242737, 0.020179903134703636], [0.08894654363393784, 1.355136282654712e-05, 0.00025166140403598547, 0.008473488502204418, 0.002792853396385908, 1.7909503640112234e-06, 1.7110410510667862e-07, 8.845910315358196e-08, 1.900702773127705e-05, 4.776502828462981e-05, 0.00023515187785960734, 5.201435851631686e-05, 6.861313886474818e-05, 0.0026104850694537163, 0.0009244973189197481, 0.00026457803323864937, 3.20350045512896e-05, 0.0003031568485312164, 0.0061722006648778915, 0.05687738209962845, 0.8319128155708313], [0.7708826065063477, 0.00039378931978717446, 4.731466469820589e-05, 0.00044029729906469584, 0.009719855152070522, 0.006270716432482004, 0.00012564746430143714, 3.026612603207468e-06, 5.077192327007651e-05, 0.00042245048098266125, 0.0029723728075623512, 0.0009193648002110422, 0.000382659345632419, 0.004432082176208496, 0.0012632770230993629, 0.0023737188894301653, 0.002418614225462079, 0.006669644732028246, 0.002833633916452527, 0.008004199713468552, 0.17937399446964264]], [[0.03253920003771782, 0.008607573807239532, 0.009997980669140816, 0.01089461613446474, 0.010065000504255295, 0.00496207270771265, 0.022287629544734955, 0.003235688665881753, 0.005231874529272318, 0.032603468745946884, 0.006945207715034485, 0.0055009350180625916, 0.008042814210057259, 0.005489340517669916, 0.014642775990068913, 0.0063432203605771065, 0.028786780312657356, 0.009269943460822105, 0.02746722847223282, 0.00889681652188301, 0.7381898760795593], [0.10279756784439087, 0.07509423047304153, 0.009730969555675983, 0.026778627187013626, 0.010641769506037235, 0.031039554625749588, 0.007687578443437815, 0.012810688465833664, 0.12723416090011597, 0.010988600552082062, 0.11291319876909256, 0.011578098870813847, 0.014431510120630264, 0.12138117849826813, 0.030479755252599716, 0.020201431587338448, 0.024520162492990494, 0.15384045243263245, 0.0194698479026556, 0.03795578330755234, 0.03842484578490257], [0.17601712048053741, 0.05133001506328583, 0.001989529700949788, 0.02146524377167225, 0.00716306921094656, 0.009625988081097603, 0.005805134307593107, 0.00894502829760313, 0.05375012010335922, 0.008209099993109703, 0.05979364365339279, 0.0019199901726096869, 0.008251803927123547, 0.06052708253264427, 0.008746950887143612, 0.01722402311861515, 0.06645862758159637, 0.09791411459445953, 0.025706596672534943, 0.02879575453698635, 0.28036099672317505], [0.2733822464942932, 0.036416664719581604, 0.00418399041518569, 0.04848021641373634, 0.009025835432112217, 0.007764381822198629, 0.008063720539212227, 0.008514619432389736, 0.031763289123773575, 0.0032504552509635687, 0.03399164602160454, 0.005049964878708124, 0.012786050327122211, 0.04130404442548752, 0.022137030959129333, 0.01089858915656805, 0.08656372874975204, 0.05759764835238457, 0.02186664752662182, 0.014540677890181541, 0.2624185383319855], [0.27753159403800964, 0.034791845828294754, 0.0016521601937711239, 0.013521497137844563, 0.00494376290589571, 0.014168178662657738, 0.006294554099440575, 0.005236569792032242, 0.028697198256850243, 0.003745337249711156, 0.034083202481269836, 0.001744345179758966, 0.006472477223724127, 0.04097435995936394, 0.006431506015360355, 0.02441641502082348, 0.10099082440137863, 0.05517057329416275, 0.021779702976346016, 0.015657927840948105, 0.30169591307640076], [0.19413265585899353, 0.05807873234152794, 0.019188951700925827, 0.03115364909172058, 0.020899983122944832, 0.02638888545334339, 0.011578685604035854, 0.0171623844653368, 0.09065630286931992, 0.02451520413160324, 0.08393725007772446, 0.021939145401120186, 0.021914109587669373, 0.07955002784729004, 0.023142768070101738, 0.022752758115530014, 0.043561432510614395, 0.09680210053920746, 0.03810333088040352, 0.024438582360744476, 0.050103046000003815], [0.08537216484546661, 0.0715099424123764, 0.006627462804317474, 0.035810522735118866, 0.014910686761140823, 0.024920038878917694, 0.0022952030412852764, 0.013368585146963596, 0.11417820304632187, 0.0062441518530249596, 0.11916503310203552, 0.00913420133292675, 0.01744944229722023, 0.11139807850122452, 0.013349753804504871, 0.03656983748078346, 0.04750191792845726, 0.16212208569049835, 0.012110961601138115, 0.03924375772476196, 0.05671810358762741], [0.23302951455116272, 0.0430675745010376, 0.002821342321112752, 0.017604706808924675, 0.0058795432560145855, 0.011050306260585785, 0.001651167869567871, 0.004088991787284613, 0.06194927543401718, 0.0023609870113432407, 0.06670908629894257, 0.0031914538703858852, 0.006981627084314823, 0.06371864676475525, 0.00823709461838007, 0.04392290115356445, 0.2419876605272293, 0.09392677247524261, 0.015033728443086147, 0.015546712093055248, 0.05724087730050087], [0.06918195635080338, 0.09081031382083893, 0.008803434669971466, 0.020663751289248466, 0.007348059210926294, 0.0408252514898777, 0.00620232755318284, 0.017386388033628464, 0.14819279313087463, 0.0072668781504035, 0.1176806166768074, 0.011426428332924843, 0.010341186076402664, 0.1515897661447525, 0.021522920578718185, 0.01965589076280594, 0.015410828404128551, 0.16083334386348724, 0.013436151668429375, 0.04272088408470154, 0.018700921908020973], [0.14623713493347168, 0.09331221133470535, 0.006336660590022802, 0.009552604518830776, 0.012471524998545647, 0.007591140456497669, 0.011962835676968098, 0.011357751674950123, 0.08204462379217148, 0.008822581730782986, 0.08316832035779953, 0.006446178536862135, 0.017149873077869415, 0.11159446090459824, 0.005800274666398764, 0.03606843575835228, 0.03712838888168335, 0.1401626318693161, 0.022062178701162338, 0.04951161891222, 0.10121853649616241], [0.06839456409215927, 0.08958635479211807, 0.010011060163378716, 0.017226414754986763, 0.007714012172073126, 0.04024914279580116, 0.007973884232342243, 0.017466485500335693, 0.15454502403736115, 0.008620819076895714, 0.11524616181850433, 0.011930033564567566, 0.01106257550418377, 0.1508401334285736, 0.020011592656373978, 0.019187988713383675, 0.015003509819507599, 0.1582716703414917, 0.017493445426225662, 0.04260949417948723, 0.016555622220039368], [0.12758943438529968, 0.06225491315126419, 0.002836441621184349, 0.026113485917448997, 0.007758109364658594, 0.011015084572136402, 0.007352209184318781, 0.012715513817965984, 0.06905590742826462, 0.010328388772904873, 0.0662938579916954, 0.002368939109146595, 0.008934425190091133, 0.07379746437072754, 0.01273829210549593, 0.020113470032811165, 0.061641331762075424, 0.10976435244083405, 0.030822934582829475, 0.04272446408867836, 0.23378093540668488], [0.266522079706192, 0.04165587201714516, 0.0031511636916548014, 0.018555939197540283, 0.00560451066121459, 0.012642616406083107, 0.008281076326966286, 0.006060067098587751, 0.031926050782203674, 0.007320024538785219, 0.03634759038686752, 0.0030370091553777456, 0.00664972560480237, 0.04421579837799072, 0.008977016434073448, 0.02442188374698162, 0.05948840454220772, 0.057202138006687164, 0.027024343609809875, 0.01811351627111435, 0.31280311942100525], [0.06341637670993805, 0.08785592764616013, 0.010950474068522453, 0.019747797399759293, 0.007965793833136559, 0.03554900735616684, 0.006057125981897116, 0.01810801587998867, 0.15525877475738525, 0.00978959072381258, 0.12235669791698456, 0.014130346477031708, 0.010949471034109592, 0.14320312440395355, 0.024067694321274757, 0.019640136510133743, 0.01444752886891365, 0.16415227949619293, 0.01519860327243805, 0.041277769953012466, 0.01587744429707527], [0.3031489849090576, 0.07365643978118896, 0.002365863649174571, 0.01046548318117857, 0.0030305502004921436, 0.008711589500308037, 0.0037186057306826115, 0.0052275992929935455, 0.06967487931251526, 0.001797393662855029, 0.06769850850105286, 0.002847560215741396, 0.004718591924756765, 0.09489351511001587, 0.004696351010352373, 0.02227778732776642, 0.025244832038879395, 0.1291579306125641, 0.013442471623420715, 0.014817401766777039, 0.13840754330158234], [0.2832840085029602, 0.06895533204078674, 0.005385529715567827, 0.02749806083738804, 0.0051368288695812225, 0.012394113466143608, 0.003105130046606064, 0.009588818065822124, 0.08010143786668777, 0.0056868987157940865, 0.07909143716096878, 0.006087896879762411, 0.005820768419653177, 0.0846920758485794, 0.00966678000986576, 0.016103653237223625, 0.05297503247857094, 0.11926460266113281, 0.013751732185482979, 0.023090815171599388, 0.08831915259361267], [0.22629082202911377, 0.04957975074648857, 0.005952124483883381, 0.032150719314813614, 0.009625346399843693, 0.011971245519816875, 0.005208219867199659, 0.007483033463358879, 0.07235383242368698, 0.006023304536938667, 0.06901866942644119, 0.005718805827200413, 0.011420894414186478, 0.07697676122188568, 0.019617633894085884, 0.031838953495025635, 0.12428653985261917, 0.10156122595071793, 0.026164529845118523, 0.026145773008465767, 0.08061175793409348], [0.07214890420436859, 0.08890789747238159, 0.012556355446577072, 0.02398848533630371, 0.008741701021790504, 0.03515293821692467, 0.00812758319079876, 0.017524780705571175, 0.14721167087554932, 0.010591686703264713, 0.11378104984760284, 0.016095375642180443, 0.01230578776448965, 0.14453695714473724, 0.025787172839045525, 0.021700125187635422, 0.014577440917491913, 0.1516302078962326, 0.017683565616607666, 0.04095231741666794, 0.015997927635908127], [0.19523222744464874, 0.09032570570707321, 0.01425154972821474, 0.033137038350105286, 0.009447232820093632, 0.008336426690220833, 0.0072546349838376045, 0.01007083710283041, 0.07064300775527954, 0.018896091729402542, 0.07956253737211227, 0.014256378635764122, 0.011773091740906239, 0.08916699886322021, 0.01754823513329029, 0.02306213229894638, 0.038270965218544006, 0.11894458532333374, 0.011349096894264221, 0.029735581949353218, 0.10873556137084961], [0.19689401984214783, 0.07280870527029037, 0.007243160158395767, 0.011901122517883778, 0.00749760027974844, 0.01029092539101839, 0.005312064662575722, 0.006819042842835188, 0.08167640119791031, 0.011470961384475231, 0.07709325850009918, 0.007606399245560169, 0.010347946546971798, 0.093182273209095, 0.013560675084590912, 0.027764149010181427, 0.049291715025901794, 0.1309235543012619, 0.017592107877135277, 0.02023361437022686, 0.14049027860164642], [0.3837842643260956, 0.012358293868601322, 0.006287137977778912, 0.01065195631235838, 0.006217826157808304, 0.0016590772429481149, 0.011612212285399437, 0.00142741110175848, 0.007604881655424833, 0.033951565623283386, 0.009491348639130592, 0.004392808303236961, 0.006428368855267763, 0.008264411240816116, 0.022617923095822334, 0.0076360576786100864, 0.0468374565243721, 0.015460616908967495, 0.04449373483657837, 0.006146564614027739, 0.35267606377601624]], [[0.20103925466537476, 0.09001655131578445, 0.02573699876666069, 0.012604784220457077, 0.013823539018630981, 0.03683217242360115, 0.006189348176121712, 0.03138275071978569, 0.10037156939506531, 0.007907272316515446, 0.08014833182096481, 0.018731972202658653, 0.014397919178009033, 0.10372860729694366, 0.019577817991375923, 0.017618805170059204, 0.04443872720003128, 0.071424201130867, 0.008477775380015373, 0.021345900371670723, 0.07420568913221359], [0.08943919837474823, 0.10267960280179977, 0.010169820860028267, 0.021835608407855034, 0.01039297878742218, 0.016747336834669113, 0.011081510223448277, 0.04070475697517395, 0.11972323805093765, 0.03544244170188904, 0.10925929248332977, 0.011734587140381336, 0.010436133481562138, 0.12623433768749237, 0.03221328929066658, 0.01442456804215908, 0.017503852024674416, 0.11329569667577744, 0.03030296415090561, 0.03369750827550888, 0.04268120974302292], [0.019683154299855232, 0.11455971002578735, 0.004714748356491327, 0.0013147267745807767, 0.019012369215488434, 0.09505660831928253, 0.004701843485236168, 0.052954383194446564, 0.09169821441173553, 0.013938860967755318, 0.07781334966421127, 0.0034695568028837442, 0.025833459571003914, 0.11176494508981705, 0.00046344741713255644, 0.01571051776409149, 0.01744493469595909, 0.11451667547225952, 0.0028065189253538847, 0.025592900812625885, 0.18694913387298584], [0.03880004584789276, 0.15973040461540222, 0.002270851284265518, 0.0018869644263759255, 0.002730708569288254, 0.012682405300438404, 0.0013816290302202106, 0.05263809487223625, 0.15637443959712982, 0.0026873587630689144, 0.11213995516300201, 0.0017246886854991317, 0.0033317178022116423, 0.16468995809555054, 0.001549061737023294, 0.014961129054427147, 0.02447332814335823, 0.16660234332084656, 0.0008926556911319494, 0.023840412497520447, 0.054611969739198685], [0.04898407682776451, 0.12471923977136612, 0.002194128232076764, 0.002901304978877306, 0.009885603561997414, 0.028116408735513687, 0.0011666304199025035, 0.03011425957083702, 0.12655848264694214, 0.0026456862688064575, 0.10200958698987961, 0.0014627180062234402, 0.012287130579352379, 0.15280672907829285, 0.0004504169337451458, 0.02554585412144661, 0.02403605543076992, 0.12203431874513626, 0.0005841944948770106, 0.03345582261681557, 0.1480412483215332], [0.050372473895549774, 0.14031493663787842, 0.005850822664797306, 0.007064893841743469, 0.013783767819404602, 0.016250435262918472, 0.0030470036435872316, 0.042387932538986206, 0.13839180767536163, 0.008865736424922943, 0.10535555332899094, 0.004977641627192497, 0.014425016939640045, 0.15883511304855347, 0.0027500074356794357, 0.013275734148919582, 0.023483455181121826, 0.1314121037721634, 0.004832844715565443, 0.03991961479187012, 0.07440298050642014], [0.059632137417793274, 0.11687325686216354, 0.0061785574071109295, 0.007080928888171911, 0.007353296037763357, 0.018486665561795235, 0.0017402541125193238, 0.07445972412824631, 0.11035389453172684, 0.01960880495607853, 0.10174579918384552, 0.004511280916631222, 0.008352423086762428, 0.09056505560874939, 0.0047600422985851765, 0.017796184867620468, 0.038290031254291534, 0.11480668187141418, 0.01641613245010376, 0.057266220450401306, 0.12372249364852905], [0.030020447447896004, 0.13097301125526428, 0.004322614520788193, 0.004382906015962362, 0.011043072678148746, 0.019278215244412422, 0.0028762228321284056, 0.10288987308740616, 0.11817348003387451, 0.006218250375241041, 0.10031787306070328, 0.0039006639271974564, 0.012674213387072086, 0.1318863034248352, 0.002557676285505295, 0.022733177989721298, 0.0380917526781559, 0.12913592159748077, 0.00768397469073534, 0.03940576687455177, 0.08143454790115356], [0.10480052977800369, 0.1015806570649147, 0.008267219178378582, 0.03465663641691208, 0.007199397310614586, 0.012460144236683846, 0.009751786477863789, 0.02059301920235157, 0.12122452259063721, 0.022851018235087395, 0.10761546343564987, 0.00942563358694315, 0.007122202310711145, 0.13711382448673248, 0.03411136195063591, 0.021219251677393913, 0.01997082494199276, 0.1179242953658104, 0.02353266067802906, 0.04463479295372963, 0.03394472971558571], [0.0437157042324543, 0.14493945240974426, 0.006049003452062607, 0.0035891984589397907, 0.004573724698275328, 0.02843608520925045, 0.00774792954325676, 0.04222112521529198, 0.11151018738746643, 0.01373191550374031, 0.10541214048862457, 0.004026583395898342, 0.005864162929356098, 0.12569281458854675, 0.0011315729934722185, 0.0275955218821764, 0.04243882745504379, 0.1253325492143631, 0.0068461219780147076, 0.05915788188576698, 0.08998753130435944], [0.11628568172454834, 0.11122872680425644, 0.008590673096477985, 0.029401248320937157, 0.005070522893220186, 0.010349160060286522, 0.0086683239787817, 0.015908490866422653, 0.1276663988828659, 0.02017311193048954, 0.10915271192789078, 0.009610017761588097, 0.005251646041870117, 0.1484948992729187, 0.026788605377078056, 0.014721724204719067, 0.014928319491446018, 0.12409751117229462, 0.02149922214448452, 0.03995843604207039, 0.03215460479259491], [0.02472831681370735, 0.1199561357498169, 0.007573802024126053, 0.0014287938829511404, 0.014979511499404907, 0.0693918913602829, 0.007762389723211527, 0.04750606045126915, 0.09051686525344849, 0.01805455982685089, 0.07622876018285751, 0.005583474412560463, 0.02324930764734745, 0.11211562156677246, 0.0006564806099049747, 0.014520430006086826, 0.020202262327075005, 0.11841002106666565, 0.0048874965868890285, 0.03282541781663895, 0.18942250311374664], [0.05531520023941994, 0.11813894659280777, 0.004006925970315933, 0.003596212947741151, 0.0087346863001585, 0.028224335983395576, 0.003147668670862913, 0.030219780281186104, 0.11865223199129105, 0.0049943155609071255, 0.09464059770107269, 0.00255323457531631, 0.0116512356325984, 0.1508866548538208, 0.0009265993721783161, 0.041590094566345215, 0.03849320486187935, 0.11651968955993652, 0.0014329139376059175, 0.04329133406281471, 0.12298408150672913], [0.11709840595722198, 0.10530055314302444, 0.007244857493788004, 0.031486622989177704, 0.0038593877106904984, 0.008504427969455719, 0.009935186244547367, 0.013920009136199951, 0.13005556166172028, 0.02576233632862568, 0.11048837006092072, 0.00780271552503109, 0.003681115573272109, 0.14925169944763184, 0.034310974180698395, 0.01612219586968422, 0.014538333751261234, 0.12374356389045715, 0.026337498798966408, 0.03761216253042221, 0.022943908348679543], [0.11406367272138596, 0.12790408730506897, 0.0010179432574659586, 0.0039018115494400263, 0.0010436399606987834, 0.003575321054086089, 0.0015711314044892788, 0.012850118800997734, 0.14950771629810333, 0.0038002680521458387, 0.12147684395313263, 0.0009519053273834288, 0.001692316378466785, 0.15130166709423065, 0.0010801195167005062, 0.017121747136116028, 0.03425215184688568, 0.16682657599449158, 0.0044262041337788105, 0.028049558401107788, 0.053585175424814224], [0.031591035425662994, 0.15661753714084625, 0.0019213928608223796, 0.003284954931586981, 0.0015892707742750645, 0.018309110775589943, 0.002343852771446109, 0.02117902599275112, 0.16617538034915924, 0.002089220564812422, 0.14629563689231873, 0.0017002056119963527, 0.0017086606239899993, 0.15811090171337128, 0.003069972852244973, 0.007591703906655312, 0.017163995653390884, 0.19943098723888397, 0.005284682381898165, 0.026125652715563774, 0.028416840359568596], [0.028576228767633438, 0.11465387046337128, 0.00495846988633275, 0.005897216498851776, 0.005743852816522121, 0.035177938640117645, 0.008084443397819996, 0.05079285427927971, 0.13212326169013977, 0.005979880224913359, 0.12073540687561035, 0.005156221799552441, 0.006834847386926413, 0.14085394144058228, 0.0031566829420626163, 0.02279646508395672, 0.04157261550426483, 0.15478157997131348, 0.006284960079938173, 0.06004874035716057, 0.04579060524702072], [0.08845391869544983, 0.11462225019931793, 0.006610535550862551, 0.032204922288656235, 0.00305375293828547, 0.007205608766525984, 0.009609614498913288, 0.012265530414879322, 0.1349894404411316, 0.018778586760163307, 0.11175548285245895, 0.007390567101538181, 0.0029805353842675686, 0.16467303037643433, 0.03283006697893143, 0.015075480565428734, 0.015184805728495121, 0.1316862255334854, 0.028325935825705528, 0.041207145899534225, 0.02109655737876892], [0.03300360590219498, 0.18635161221027374, 0.020389586687088013, 0.006410256959497929, 0.002275946782901883, 0.006823762785643339, 0.011677855625748634, 0.040947504341602325, 0.11849924176931381, 0.029845047742128372, 0.0912032276391983, 0.013202711939811707, 0.002742993412539363, 0.12648016214370728, 0.008770284242928028, 0.008984492160379887, 0.05064846947789192, 0.12345490604639053, 0.026409277692437172, 0.0616881363093853, 0.03019094094634056], [0.02673552744090557, 0.13576386868953705, 0.013858336955308914, 0.005617720540612936, 0.004296088125556707, 0.010063177905976772, 0.007819092832505703, 0.08555471897125244, 0.11251530796289444, 0.015771985054016113, 0.09739097207784653, 0.016681533306837082, 0.006845925468951464, 0.1143898293375969, 0.006033557932823896, 0.01382132712751627, 0.056631311774253845, 0.12786586582660675, 0.02357037365436554, 0.0693562924861908, 0.04941720515489578], [0.04022185504436493, 0.15862755477428436, 0.042025525122880936, 0.008973016403615475, 0.01689586602151394, 0.038101375102996826, 0.00967264361679554, 0.02233821526169777, 0.10112737864255905, 0.010460076853632927, 0.08268524706363678, 0.04302924871444702, 0.024872103706002235, 0.11300940066576004, 0.005255709867924452, 0.0076041496358811855, 0.02179693430662155, 0.09733079373836517, 0.014778566546738148, 0.03382748365402222, 0.10736676305532455]], [[0.04678596556186676, 0.012891874648630619, 0.00030487545882351696, 0.000423068820964545, 0.00020761822815984488, 0.0002551591023802757, 0.00016238012176472694, 0.001023025717586279, 0.016233932226896286, 0.0022619967348873615, 0.013191752135753632, 0.0002467195154167712, 0.00023378657351713628, 0.012605707161128521, 0.0006900503649376333, 0.000773794308770448, 0.000597540580201894, 0.013792697340250015, 0.0015661342767998576, 0.0016518256161361933, 0.8741000294685364], [0.03870074078440666, 0.0919625461101532, 0.018377073109149933, 0.011394481174647808, 0.007673919666558504, 0.01292762067168951, 0.0071346755139529705, 0.007537995930761099, 0.10468373447656631, 0.03041967563331127, 0.10070271790027618, 0.014742821455001831, 0.005650163162499666, 0.11801112443208694, 0.01831313781440258, 0.009388986974954605, 0.004841457586735487, 0.1089019849896431, 0.028232529759407043, 0.015510131604969501, 0.24489252269268036], [0.07050656527280807, 0.08267519623041153, 0.002438452560454607, 0.005339884664863348, 0.0014497205847874284, 0.021818172186613083, 0.005892184562981129, 0.005789433605968952, 0.1541004776954651, 0.010748750530183315, 0.12860696017742157, 0.00296984426677227, 0.003527606837451458, 0.18276827037334442, 0.0035629423800855875, 0.010649509727954865, 0.0023921325337141752, 0.15819711983203888, 0.014957760460674763, 0.04490599036216736, 0.08670299500226974], [0.16620264947414398, 0.09712055325508118, 0.0017072485061362386, 0.0024567819200456142, 0.00244180578738451, 0.008977600373327732, 0.005667869001626968, 0.008130718022584915, 0.12744104862213135, 0.005712172947824001, 0.10587777197360992, 0.001957685686647892, 0.004285604692995548, 0.1421147733926773, 0.00535856606438756, 0.02757381647825241, 0.01924017444252968, 0.15178987383842468, 0.0030346857383847237, 0.011169621720910072, 0.10173900425434113], [0.036606062203645706, 0.08858638256788254, 0.0037256868090480566, 0.004090691916644573, 0.0009781413245946169, 0.020895931869745255, 0.002403323072940111, 0.0023872973397374153, 0.17390193045139313, 0.011760779656469822, 0.13487310707569122, 0.004393789451569319, 0.0016644807765260339, 0.26546594500541687, 0.00543574895709753, 0.008606640622019768, 0.0010494260350242257, 0.18349748849868774, 0.0048724692314863205, 0.022930361330509186, 0.02187424898147583], [0.08824023604393005, 0.08320533484220505, 0.010582144372165203, 0.010249311104416847, 0.0028043303173035383, 0.021786948665976524, 0.0029979569371789694, 0.006544442381709814, 0.14123763144016266, 0.015771357342600822, 0.12136904895305634, 0.012297325767576694, 0.005284210667014122, 0.16382329165935516, 0.009200342930853367, 0.01578175462782383, 0.003295646281912923, 0.15589043498039246, 0.007753162644803524, 0.029890261590480804, 0.09199490398168564], [0.05453171953558922, 0.08360239863395691, 0.02980918437242508, 0.04284025356173515, 0.01017917413264513, 0.05080041661858559, 0.002861731918528676, 0.01053518708795309, 0.09759250283241272, 0.06750202924013138, 0.09679365158081055, 0.031879425048828125, 0.018315710127353668, 0.10093235969543457, 0.014642233029007912, 0.008173476904630661, 0.0029422235675156116, 0.10954567790031433, 0.015498475171625614, 0.11576052755117416, 0.035261668264865875], [0.02885504625737667, 0.07054290920495987, 0.002904642606154084, 0.0068979039788246155, 0.0029415299650281668, 0.01587962731719017, 0.0034021646715700626, 0.005109183024615049, 0.14076416194438934, 0.004096056334674358, 0.1251642107963562, 0.003915807232260704, 0.005695936270058155, 0.16639016568660736, 0.004318664316087961, 0.02582690306007862, 0.0069857132621109486, 0.1356353759765625, 0.004996655974537134, 0.04777471721172333, 0.19190260767936707], [0.030583800747990608, 0.10676193237304688, 0.034052956849336624, 0.01883535645902157, 0.015525948256254196, 0.017312297597527504, 0.008261955343186855, 0.008584396913647652, 0.10092537105083466, 0.026166090741753578, 0.10280100256204605, 0.026872465386986732, 0.010754433460533619, 0.11831138283014297, 0.03192359581589699, 0.009530037641525269, 0.005358726717531681, 0.1148364469408989, 0.03153480961918831, 0.025027897208929062, 0.15603916347026825], [0.11350283771753311, 0.04549790918827057, 0.03889050707221031, 0.04017152637243271, 0.004574794787913561, 0.10813111066818237, 0.006510735955089331, 0.005814299453049898, 0.07273253798484802, 0.030723998323082924, 0.06491290032863617, 0.05147019773721695, 0.010052955709397793, 0.07853881269693375, 0.049482040107250214, 0.012659871019423008, 0.003561945864930749, 0.0848616287112236, 0.0780242383480072, 0.0914425328373909, 0.008442672900855541], [0.03730432689189911, 0.10404800623655319, 0.041482701897621155, 0.022499946877360344, 0.017941029742360115, 0.02360321395099163, 0.010428672656416893, 0.011187532916665077, 0.0998838022351265, 0.0278017558157444, 0.09701250493526459, 0.032498497515916824, 0.013105425052344799, 0.11689285188913345, 0.02728991024196148, 0.01397294458001852, 0.007549280300736427, 0.11390450596809387, 0.030282536521553993, 0.02597205899655819, 0.12533846497535706], [0.0606575571000576, 0.0807511955499649, 0.005132446996867657, 0.008038075640797615, 0.0030481668654829264, 0.040617894381284714, 0.009350870735943317, 0.007211672607809305, 0.13428539037704468, 0.01832789182662964, 0.11300427466630936, 0.006435592658817768, 0.00725517375394702, 0.1583600789308548, 0.006239091046154499, 0.014452077448368073, 0.0029279030859470367, 0.14508625864982605, 0.01557940524071455, 0.08333732187747955, 0.07990161329507828], [0.05701281502842903, 0.09329754114151001, 0.005367845296859741, 0.0037025047931820154, 0.0010102310916408896, 0.019308097660541534, 0.001727545983158052, 0.0030772776808589697, 0.16506792604923248, 0.018068907782435417, 0.12625426054000854, 0.006530935410410166, 0.0019024594221264124, 0.24388165771961212, 0.004926948808133602, 0.00925226230174303, 0.0014818134950473905, 0.18123823404312134, 0.0051947119645774364, 0.020655956119298935, 0.031040245667099953], [0.03457101061940193, 0.11761650443077087, 0.03412259370088577, 0.01438947394490242, 0.010109753347933292, 0.015405936166644096, 0.006977742537856102, 0.008923209272325039, 0.10603784024715424, 0.03166499733924866, 0.10242802649736404, 0.026203028857707977, 0.007104542106389999, 0.12619341909885406, 0.03060479275882244, 0.007979949936270714, 0.004195850808173418, 0.12369420379400253, 0.03254546597599983, 0.019511960446834564, 0.13971981406211853], [0.16549301147460938, 0.08041474223136902, 0.005942194722592831, 0.006898402702063322, 0.0014071210753172636, 0.010350136086344719, 0.0012970748357474804, 0.004581031855195761, 0.15291638672351837, 0.007927793078124523, 0.11619892716407776, 0.007424496114253998, 0.0035507765132933855, 0.1691349744796753, 0.0021468037739396095, 0.021801209077239037, 0.006138987839221954, 0.18137021362781525, 0.004288854543119669, 0.026403173804283142, 0.024313731119036674], [0.06449078023433685, 0.11346440762281418, 0.004352636635303497, 0.004903899505734444, 0.0032105918508023024, 0.009747047908604145, 0.0015569414244964719, 0.014278968796133995, 0.14585140347480774, 0.00562235526740551, 0.11810792237520218, 0.004071557428687811, 0.004149432294070721, 0.1849353015422821, 0.006218551658093929, 0.026557674631476402, 0.010602964088320732, 0.18513257801532745, 0.00406265864148736, 0.0173597801476717, 0.07132257521152496], [0.07838393747806549, 0.1042572408914566, 0.004700724501162767, 0.005196621175855398, 0.003285061102360487, 0.012489959597587585, 0.0023836856707930565, 0.016289927065372467, 0.1458396166563034, 0.006401094142347574, 0.11943097412586212, 0.004233375657349825, 0.004934669006615877, 0.16615095734596252, 0.006915265694260597, 0.031538140028715134, 0.01134859211742878, 0.16828617453575134, 0.0013075334718450904, 0.017618348821997643, 0.08900805562734604], [0.03981572017073631, 0.11280015110969543, 0.03246421739459038, 0.018425654619932175, 0.015677612274885178, 0.017476944252848625, 0.007722994312644005, 0.010893993079662323, 0.100588358938694, 0.023134296759963036, 0.09601044654846191, 0.023749832063913345, 0.010616186074912548, 0.1170801892876625, 0.02673272229731083, 0.010438724420964718, 0.0073030199855566025, 0.1180756688117981, 0.026711732149124146, 0.020353564992547035, 0.16392791271209717], [0.2171538919210434, 0.07818203419446945, 0.007207841612398624, 0.01304453145712614, 0.0025154869072139263, 0.015204834751784801, 0.0020989926997572184, 0.004596070386469364, 0.10904588550329208, 0.015376324765384197, 0.09831764549016953, 0.0074165198020637035, 0.004682638216763735, 0.11508230119943619, 0.019831961020827293, 0.006683574058115482, 0.0037620575167238712, 0.1294829398393631, 0.009295584633946419, 0.03449157625436783, 0.10652726143598557], [0.10660573840141296, 0.06474332511425018, 0.005087634082883596, 0.005853664129972458, 0.004127961117774248, 0.008941623382270336, 0.0014696670696139336, 0.006801004521548748, 0.10452062636613846, 0.006419321522116661, 0.089828260242939, 0.006801826413720846, 0.00966387428343296, 0.11647336930036545, 0.0031565851531922817, 0.014963215216994286, 0.01094483770430088, 0.12288414686918259, 0.005289101041853428, 0.026182133704423904, 0.27924206852912903], [0.09865009784698486, 0.03012031316757202, 0.0010410115355625749, 0.0021917119156569242, 0.0010304903844371438, 0.0011802074732258916, 0.0017310790717601776, 0.004959196783602238, 0.036373723298311234, 0.01946466974914074, 0.031971778720617294, 0.001071101170964539, 0.0012823670404031873, 0.036504123359918594, 0.0057019940577447414, 0.005627996288239956, 0.006997260730713606, 0.03888188675045967, 0.006617267616093159, 0.0038108390290290117, 0.6647908091545105]], [[0.12629181146621704, 0.1439550668001175, 0.007244566921144724, 0.005339034367352724, 0.01376342587172985, 0.03768869489431381, 0.0064439610578119755, 0.01902543008327484, 0.15041084587574005, 0.002799504203721881, 0.12425557523965836, 0.011022769846022129, 0.01840324141085148, 0.11341623961925507, 0.021121935918927193, 0.019319944083690643, 0.005889719817787409, 0.117052361369133, 0.0016221188707277179, 0.0141269750893116, 0.04080677777528763], [0.0454416424036026, 0.1523461490869522, 0.08670298755168915, 0.023566553369164467, 0.031019730493426323, 0.047774069011211395, 0.05198531225323677, 0.03205915167927742, 0.08262545615434647, 0.055260881781578064, 0.0696902647614479, 0.040458351373672485, 0.01814085617661476, 0.049717288464307785, 0.042629044502973557, 0.016228847205638885, 0.01966496929526329, 0.05563747510313988, 0.029972707852721214, 0.02496924065053463, 0.024109046906232834], [0.040248770266771317, 0.24212951958179474, 0.024338500574231148, 0.005847154185175896, 0.07687164098024368, 0.06257025897502899, 0.006479361560195684, 0.04389425739645958, 0.12333249300718307, 0.002275686478242278, 0.09131938219070435, 0.011025692336261272, 0.034545037895441055, 0.07584895193576813, 0.001076892833225429, 0.020075099542737007, 0.006666294299066067, 0.08005174249410629, 0.0005959237460047007, 0.012837528251111507, 0.03796975687146187], [0.044057879596948624, 0.13674131035804749, 0.01657789945602417, 0.0025293121580034494, 0.0465116985142231, 0.055841684341430664, 0.008853352628648281, 0.1471647471189499, 0.1302170753479004, 0.010666959919035435, 0.0972837582230568, 0.008856667205691338, 0.0319652184844017, 0.06345047056674957, 0.003908718470484018, 0.02439866214990616, 0.022258032113313675, 0.08678847551345825, 0.007244615815579891, 0.027247829362750053, 0.027435652911663055], [0.03279877454042435, 0.19020937383174896, 0.018078481778502464, 0.004371717106550932, 0.034071460366249084, 0.0762583389878273, 0.00909951701760292, 0.16864225268363953, 0.12310486286878586, 0.005200700834393501, 0.0943959429860115, 0.008860846981406212, 0.01354290172457695, 0.06089692935347557, 0.002764032455161214, 0.01711125485599041, 0.019380873069167137, 0.06972205638885498, 0.001478291698731482, 0.028216296806931496, 0.02179509587585926], [0.04090778902173042, 0.16296006739139557, 0.022905590012669563, 0.00986202247440815, 0.02654724009335041, 0.07549913972616196, 0.009967535734176636, 0.1425182819366455, 0.1084570437669754, 0.007098814472556114, 0.09266618639230728, 0.014246471226215363, 0.013104853220283985, 0.06456167250871658, 0.00526364054530859, 0.02141275629401207, 0.027488334104418755, 0.07714635878801346, 0.0030031809583306313, 0.046745091676712036, 0.027637891471385956], [0.042105432599782944, 0.18584884703159332, 0.007619447074830532, 0.005314142443239689, 0.005272373557090759, 0.01447757426649332, 0.0020536170341074467, 0.01951577141880989, 0.17079149186611176, 0.0028737392276525497, 0.152940571308136, 0.007109362166374922, 0.0062127490527927876, 0.12766949832439423, 0.004739599302411079, 0.016249405220150948, 0.0064613656140863895, 0.1545855551958084, 0.003426471259444952, 0.011094964109361172, 0.05363805964589119], [0.019605234265327454, 0.12862829864025116, 0.008515930734574795, 0.004978229757398367, 0.030662652105093002, 0.06347333639860153, 0.01158859208226204, 0.19551993906497955, 0.10574090480804443, 0.00387617782689631, 0.09203867614269257, 0.007435790728777647, 0.020712219178676605, 0.07377398759126663, 0.003444114001467824, 0.022101428359746933, 0.025511475279927254, 0.0952824279665947, 0.0018368405289947987, 0.05213587358593941, 0.03313790261745453], [0.03985785320401192, 0.09112687408924103, 0.0580781027674675, 0.056941695511341095, 0.01659441739320755, 0.017648328095674515, 0.05052177980542183, 0.018601572141051292, 0.058604173362255096, 0.07471896708011627, 0.06500913202762604, 0.046906422823667526, 0.01916075311601162, 0.05455036461353302, 0.06835213303565979, 0.01602894440293312, 0.035108909010887146, 0.05271749198436737, 0.08074568212032318, 0.02645142562687397, 0.052274931222200394], [0.02731655351817608, 0.1715109795331955, 0.0024187718518078327, 0.005148600786924362, 0.0222835261374712, 0.02198639325797558, 0.0057802964001894, 0.011988580226898193, 0.15004098415374756, 0.001025739824399352, 0.12438028305768967, 0.0035153585486114025, 0.025995900854468346, 0.13465982675552368, 0.0019442441407591105, 0.012784063816070557, 0.006468473933637142, 0.12332119792699814, 0.0012715079355984926, 0.005065955687314272, 0.1410927176475525], [0.047631192952394485, 0.10346445441246033, 0.04368732497096062, 0.047603122889995575, 0.012037641368806362, 0.014115311205387115, 0.04195263236761093, 0.0173400416970253, 0.07029388844966888, 0.05216897279024124, 0.08329083770513535, 0.04001082479953766, 0.016428977251052856, 0.06815959513187408, 0.060322146862745285, 0.017995186150074005, 0.035757578909397125, 0.07095623016357422, 0.06674807518720627, 0.025796206668019295, 0.06423989683389664], [0.05575815960764885, 0.15593038499355316, 0.009927352890372276, 0.014770821668207645, 0.02927471324801445, 0.023746388033032417, 0.004131367430090904, 0.01811443641781807, 0.10133086889982224, 0.0022017427254468203, 0.11421122401952744, 0.011485639028251171, 0.04169098287820816, 0.12006653845310211, 0.002222652081400156, 0.028555938974022865, 0.01198460441082716, 0.11372681707143784, 0.0013308963971212506, 0.020691124722361565, 0.11884740740060806], [0.04530332237482071, 0.1870904266834259, 0.004671775735914707, 0.006038269959390163, 0.010220865719020367, 0.027924997732043266, 0.003617280861362815, 0.04386823624372482, 0.1375907063484192, 0.0026712261606007814, 0.13908161222934723, 0.0045702168717980385, 0.011210912838578224, 0.11868664622306824, 0.004194749053567648, 0.018122464418411255, 0.017822153866291046, 0.1232367530465126, 0.0012585578951984644, 0.019771704450249672, 0.0730472058057785], [0.05485939979553223, 0.08271588385105133, 0.036770422011613846, 0.06066862866282463, 0.009855834767222404, 0.011014039628207684, 0.03613511472940445, 0.015384441241621971, 0.05826759710907936, 0.06204073131084442, 0.07321172952651978, 0.034568510949611664, 0.014749924652278423, 0.06554388254880905, 0.08916804939508438, 0.018121307715773582, 0.0362824946641922, 0.06661194562911987, 0.07693221420049667, 0.025651946663856506, 0.07144587486982346], [0.04605606570839882, 0.12594909965991974, 0.0008738344185985625, 0.001795646850951016, 0.0021670430433005095, 0.0045767840929329395, 0.0007689193007536232, 0.012587647885084152, 0.12413528561592102, 0.0012363410787656903, 0.14771172404289246, 0.0014196609845384955, 0.003934030421078205, 0.13987793028354645, 0.0019248960306867957, 0.01614438183605671, 0.008407439105212688, 0.19717448949813843, 0.0016991375014185905, 0.0066532474011182785, 0.1549065262079239], [0.023066936060786247, 0.11922570317983627, 0.0014890277525410056, 0.00320568960160017, 0.003908049780875444, 0.015414685942232609, 0.0017184315947815776, 0.06001387536525726, 0.1251244693994522, 0.001205354812555015, 0.1390751451253891, 0.0016807691426947713, 0.004548039752990007, 0.11136046051979065, 0.0024355535861104727, 0.017353922128677368, 0.023898949846625328, 0.19132821261882782, 0.0009934684494510293, 0.01866740919649601, 0.13428574800491333], [0.031093643978238106, 0.11399006843566895, 0.003204083302989602, 0.009939401410520077, 0.018955791369080544, 0.024576853960752487, 0.009026666171848774, 0.04844634234905243, 0.10778336226940155, 0.0013405638746917248, 0.12727397680282593, 0.004375419579446316, 0.02593211457133293, 0.10498550534248352, 0.004407709930092096, 0.041178807616233826, 0.021779675036668777, 0.15864112973213196, 0.0023654066026210785, 0.023406503722071648, 0.11729705333709717], [0.04422441124916077, 0.08994872123003006, 0.03624941036105156, 0.04946451634168625, 0.010976132936775684, 0.01113654300570488, 0.04305402189493179, 0.01796731725335121, 0.061293236911296844, 0.05083222687244415, 0.08042984455823898, 0.03386625647544861, 0.015345201827585697, 0.0644712895154953, 0.06971327215433121, 0.022518036887049675, 0.04287295788526535, 0.0782221332192421, 0.07526029646396637, 0.02629726193845272, 0.07585694640874863], [0.024689827114343643, 0.11884904652833939, 0.002085051266476512, 0.0029220804572105408, 0.010388687252998352, 0.019561056047677994, 0.003277142532169819, 0.016077004373073578, 0.11192893236875534, 0.001190032227896154, 0.14481759071350098, 0.0035937833599746227, 0.020785793662071228, 0.11784562468528748, 0.0043690805323421955, 0.03184864670038223, 0.011289357207715511, 0.17699380218982697, 0.0015908741625025868, 0.01496396865695715, 0.16093261539936066], [0.029754934832453728, 0.12657587230205536, 0.004050950985401869, 0.004836421459913254, 0.009739159606397152, 0.02814018353819847, 0.002640377264469862, 0.03413587808609009, 0.12672893702983856, 0.0011160689173266292, 0.1388944536447525, 0.006198307499289513, 0.014256549999117851, 0.1210608258843422, 0.004482281394302845, 0.0273814108222723, 0.009432709775865078, 0.1685078889131546, 0.0015717772766947746, 0.02823881432414055, 0.11225607246160507], [0.016645990312099457, 0.13432659208774567, 0.002068786881864071, 0.003425800474360585, 0.012617290019989014, 0.036628399044275284, 0.0035716653801500797, 0.010430910624563694, 0.15869247913360596, 0.0007484933012165129, 0.14023780822753906, 0.003207738045603037, 0.012619777582585812, 0.1422884613275528, 0.0031979240011423826, 0.01176101341843605, 0.005759617313742638, 0.14879371225833893, 0.0004137078358326107, 0.009276315569877625, 0.1432875543832779]], [[0.19559651613235474, 0.12707258760929108, 0.01591123640537262, 0.012409140355885029, 0.012713541276752949, 0.012726166285574436, 0.008627800270915031, 0.02500106208026409, 0.09602285176515579, 0.011553642340004444, 0.08153823763132095, 0.009957573376595974, 0.011314531788229942, 0.12460216879844666, 0.010176273062825203, 0.022252114489674568, 0.02419121190905571, 0.12278242409229279, 0.00866112019866705, 0.02088956907391548, 0.04600023105740547], [0.13042311370372772, 0.15767447650432587, 0.016358360648155212, 0.019602546468377113, 0.018034031614661217, 0.013944105245172977, 0.005228095687925816, 0.014672127552330494, 0.09188265353441238, 0.0056538209319114685, 0.08087033778429031, 0.00514612253755331, 0.004861750639975071, 0.09429577738046646, 0.004951301496475935, 0.01036596205085516, 0.011029713787138462, 0.0700078085064888, 0.002582229906693101, 0.006531412247568369, 0.2358841598033905], [0.022173721343278885, 0.06297443807125092, 0.0152982696890831, 0.023959245532751083, 0.11950237303972244, 0.14351432025432587, 0.048252563923597336, 0.01466912031173706, 0.03818841651082039, 0.08991115540266037, 0.0493277832865715, 0.010038582608103752, 0.08228614926338196, 0.035974837839603424, 0.06684181094169617, 0.017466019839048386, 0.007716604508459568, 0.04040969908237457, 0.044488225132226944, 0.016000661998987198, 0.05100608989596367], [0.06793112307786942, 0.20758984982967377, 0.023802591487765312, 0.011316744610667229, 0.012379154562950134, 0.04086233675479889, 0.013171161524951458, 0.034129079431295395, 0.1428946703672409, 0.01415352150797844, 0.08920838683843613, 0.007315958384424448, 0.006703091785311699, 0.08491862565279007, 0.013347635045647621, 0.025084031745791435, 0.045698851346969604, 0.12149446457624435, 0.009599985554814339, 0.007596156094223261, 0.020802484825253487], [0.03912829980254173, 0.15082070231437683, 0.05130584165453911, 0.06449990719556808, 0.02995540015399456, 0.06557725369930267, 0.030469363555312157, 0.041749007999897, 0.1388574242591858, 0.07679856568574905, 0.07395868003368378, 0.011664771474897861, 0.013965792022645473, 0.07483256608247757, 0.012018227018415928, 0.009837431833148003, 0.00867767445743084, 0.06267934292554855, 0.005922329146414995, 0.008108789101243019, 0.02917269617319107], [0.060697536915540695, 0.09815075993537903, 0.11152145266532898, 0.023881549015641212, 0.030745014548301697, 0.00918674562126398, 0.07183637470006943, 0.031201083213090897, 0.16408568620681763, 0.038273539394140244, 0.08917482197284698, 0.044152598828077316, 0.017051605507731438, 0.07725270092487335, 0.013253509066998959, 0.010693232528865337, 0.006303008180111647, 0.06820417940616608, 0.01164013147354126, 0.0079393545165658, 0.014755132608115673], [0.027013806626200676, 0.07361361384391785, 0.018667321652173996, 0.04034542292356491, 0.03692540526390076, 0.05825843662023544, 0.004832296632230282, 0.039616309106349945, 0.18278686702251434, 0.06729820370674133, 0.12822960317134857, 0.013790191151201725, 0.028566740453243256, 0.08963000029325485, 0.017239471897482872, 0.022444766014814377, 0.03026430867612362, 0.07970105111598969, 0.013539735227823257, 0.014515697956085205, 0.012720686383545399], [0.03475227952003479, 0.06601835787296295, 0.030838342383503914, 0.038724277168512344, 0.047135476022958755, 0.046318940818309784, 0.041594818234443665, 0.01666010357439518, 0.11956758797168732, 0.07344461977481842, 0.160612091422081, 0.04479155316948891, 0.027883118018507957, 0.07793533802032471, 0.013461800292134285, 0.017810814082622528, 0.009352944791316986, 0.07378993183374405, 0.016662554815411568, 0.010852591134607792, 0.031792521476745605], [0.10767954587936401, 0.09533116221427917, 0.008915440179407597, 0.015390993095934391, 0.012859267182648182, 0.022759614512324333, 0.018008938059210777, 0.029462018981575966, 0.11772406101226807, 0.012747823260724545, 0.147614985704422, 0.014532625675201416, 0.01547678280621767, 0.13170960545539856, 0.010947884060442448, 0.025056786835193634, 0.02975376695394516, 0.1151084154844284, 0.008454508148133755, 0.011518093757331371, 0.048947613686323166], [0.0460955910384655, 0.05773039534687996, 0.012965118512511253, 0.007764969952404499, 0.013594705611467361, 0.028149651363492012, 0.06714054197072983, 0.01387594174593687, 0.12171712517738342, 0.016040774062275887, 0.13651986420154572, 0.03017980419099331, 0.07355649769306183, 0.1482439786195755, 0.02643413096666336, 0.009014966897666454, 0.008624735288321972, 0.10116083174943924, 0.04137413203716278, 0.031059671193361282, 0.00875655747950077], [0.09224815666675568, 0.08032476156949997, 0.009571688249707222, 0.012388652190566063, 0.007290133275091648, 0.014091016724705696, 0.015004502609372139, 0.04265689477324486, 0.1432262659072876, 0.017266971990466118, 0.09649567306041718, 0.011675620451569557, 0.01712832599878311, 0.16088080406188965, 0.021956082433462143, 0.031602948904037476, 0.032468922436237335, 0.11552742123603821, 0.012995289638638496, 0.01846611499786377, 0.046733755618333817], [0.005429752171039581, 0.009473874233663082, 0.0042621721513569355, 0.008919009007513523, 0.022300491109490395, 0.03148767724633217, 0.040390077978372574, 0.010162871330976486, 0.025856170803308487, 0.15719902515411377, 0.02761761285364628, 0.01210810337215662, 0.14294663071632385, 0.03139834851026535, 0.19816236197948456, 0.027138924226164818, 0.006895328871905804, 0.029387639835476875, 0.14759103953838348, 0.04578176140785217, 0.015491144731640816], [0.016169661656022072, 0.022201748564839363, 0.016268951818346977, 0.027620241045951843, 0.011357658542692661, 0.02653510868549347, 0.03303266316652298, 0.0214021485298872, 0.06583933532238007, 0.18054404854774475, 0.0738103985786438, 0.03919558972120285, 0.029406767338514328, 0.07000376284122467, 0.08852292597293854, 0.05417404696345329, 0.024881012737751007, 0.06526051461696625, 0.04451778903603554, 0.05473576858639717, 0.034519895911216736], [0.17880143225193024, 0.06429838389158249, 0.003550690831616521, 0.006637313403189182, 0.0028352858498692513, 0.0058691310696303844, 0.008199031464755535, 0.01780373975634575, 0.10934995114803314, 0.010778347961604595, 0.14190706610679626, 0.008749597705900669, 0.006554600317031145, 0.12041659653186798, 0.012108375318348408, 0.030317973345518112, 0.038688600063323975, 0.17545023560523987, 0.01091752853244543, 0.018138330429792404, 0.028627783060073853], [0.028650404885411263, 0.03921446204185486, 0.016667285934090614, 0.007744304370135069, 0.006651789881289005, 0.019391870126128197, 0.0092761917039752, 0.01824178919196129, 0.0629233866930008, 0.023559197783470154, 0.09397275745868683, 0.059129372239112854, 0.05224710702896118, 0.09664425998926163, 0.011410878039896488, 0.06797856837511063, 0.09694671630859375, 0.1612766534090042, 0.057613812386989594, 0.06092626601457596, 0.009532881900668144], [0.06207599490880966, 0.033438630402088165, 0.0056682610884308815, 0.016613062471151352, 0.00209215865470469, 0.010972741059958935, 0.0077859219163656235, 0.017477812245488167, 0.07082720845937729, 0.021803345531225204, 0.08281871676445007, 0.01827635057270527, 0.02598016895353794, 0.1905430108308792, 0.08184444159269333, 0.01799171231687069, 0.05696500465273857, 0.15263959765434265, 0.058244138956069946, 0.035162415355443954, 0.030779309570789337], [0.04132718965411186, 0.03143537417054176, 0.013875857926905155, 0.01624544896185398, 0.0050862981006503105, 0.012961065396666527, 0.007078026421368122, 0.02011352963745594, 0.07552199810743332, 0.04180996119976044, 0.06779606640338898, 0.03688804805278778, 0.021904105320572853, 0.1434774100780487, 0.057842355221509933, 0.07408624142408371, 0.05546553060412407, 0.12309668213129044, 0.07204855978488922, 0.04709482938051224, 0.03484535589814186], [0.14413626492023468, 0.0462290495634079, 0.005334445741027594, 0.011400018818676472, 0.004595629405230284, 0.00788041576743126, 0.006819926202297211, 0.01808711141347885, 0.08269163966178894, 0.009973590262234211, 0.08855552971363068, 0.011913727968931198, 0.012295027263462543, 0.165411114692688, 0.03062182292342186, 0.05611652508378029, 0.04622191935777664, 0.13068203628063202, 0.016212791204452515, 0.03248973190784454, 0.07233171164989471], [0.030013149604201317, 0.01793738082051277, 0.019890954717993736, 0.0039800661616027355, 0.0023253345862030983, 0.006566125433892012, 0.01358659379184246, 0.006184135098010302, 0.040065474808216095, 0.0557544082403183, 0.058227550238370895, 0.10488373786211014, 0.0282574649900198, 0.09719972312450409, 0.10098633170127869, 0.03917798772454262, 0.024717526510357857, 0.12703865766525269, 0.05216541886329651, 0.1247878149151802, 0.046254128217697144], [0.022329159080982208, 0.013021452352404594, 0.006144387647509575, 0.0053594959899783134, 0.002573441481217742, 0.005996124353259802, 0.034539662301540375, 0.007602864410728216, 0.02064547874033451, 0.03604546934366226, 0.030403874814510345, 0.027813611552119255, 0.024891512468457222, 0.03728523105382919, 0.09599704295396805, 0.04682734236121178, 0.07493717968463898, 0.07043813169002533, 0.2998705208301544, 0.08163099735975266, 0.055646974593400955], [0.11285192519426346, 0.10290592908859253, 0.006103161256760359, 0.00781589187681675, 0.004069829825311899, 0.007644854951649904, 0.008193167857825756, 0.020047685131430626, 0.08194296807050705, 0.009754512459039688, 0.0747537910938263, 0.00911658350378275, 0.010752161033451557, 0.1531245857477188, 0.023014944046735764, 0.028552260249853134, 0.02640199102461338, 0.1770562380552292, 0.018173327669501305, 0.025086961686611176, 0.09263718128204346]], [[0.06650784611701965, 0.09771238267421722, 0.006338939536362886, 0.028645109385252, 0.011177276261150837, 0.02061121165752411, 0.005450586322695017, 0.022290630266070366, 0.13131451606750488, 0.020420322194695473, 0.1176956444978714, 0.009631235152482986, 0.013974144123494625, 0.15902598202228546, 0.00736171193420887, 0.012305659241974354, 0.009440809488296509, 0.14254184067249298, 0.012266459874808788, 0.020993851125240326, 0.08429374545812607], [0.07667814195156097, 0.0997854545712471, 0.012122027575969696, 0.07344693690538406, 0.009517576545476913, 0.016582975164055824, 0.006833623629063368, 0.013469921424984932, 0.10007311403751373, 0.02645036019384861, 0.08884543925523758, 0.011969726532697678, 0.008082419633865356, 0.11621228605508804, 0.03485990688204765, 0.009436270222067833, 0.014994151890277863, 0.10027053207159042, 0.026386430487036705, 0.020370103418827057, 0.13361255824565887], [0.02403373457491398, 0.184352844953537, 0.007811588700860739, 0.0022745525930076838, 0.01706823520362377, 0.03311486914753914, 0.0003990795521531254, 0.02397027797996998, 0.13872380554676056, 0.012621932663023472, 0.11043104529380798, 0.003903135657310486, 0.02251167967915535, 0.1283356249332428, 0.0015538239385932684, 0.00569906085729599, 0.005000859033316374, 0.207956463098526, 0.002194792265072465, 0.03270488232374191, 0.03533763065934181], [0.06490374356508255, 0.150324746966362, 0.0011375239118933678, 0.0030460769776254892, 0.003935159184038639, 0.016894349828362465, 0.0005564008024521172, 0.0069872853346168995, 0.16341011226177216, 0.003615034744143486, 0.12881909310817719, 0.0009441311121918261, 0.0042847758159041405, 0.19515539705753326, 0.0010069271083921194, 0.0033082137815654278, 0.0014654839178547263, 0.20932656526565552, 0.002743035787716508, 0.013743055053055286, 0.024392930790781975], [0.03695039451122284, 0.2147311419248581, 0.005041796248406172, 0.002827283227816224, 0.01081861276179552, 0.021091872826218605, 0.0008207620121538639, 0.026661189272999763, 0.13835930824279785, 0.01570131815969944, 0.10682074725627899, 0.00361478328704834, 0.011779336258769035, 0.1582690328359604, 0.0008118890109471977, 0.004091847222298384, 0.004575185012072325, 0.1685287356376648, 0.00401646364480257, 0.016507171094417572, 0.047981102019548416], [0.03411836177110672, 0.17533166706562042, 0.004879177547991276, 0.007730139885097742, 0.00764375040307641, 0.019706696271896362, 0.0008143273880705237, 0.009666550904512405, 0.1571388691663742, 0.011911127716302872, 0.1160927340388298, 0.0030832632910460234, 0.007349374238401651, 0.17496010661125183, 0.0019510132260620594, 0.004361119586974382, 0.0037283850833773613, 0.20160113275051117, 0.003437728388234973, 0.014255685731768608, 0.04023879021406174], [0.05895927548408508, 0.17443116009235382, 0.010660897009074688, 0.00691980728879571, 0.008201436139643192, 0.015880009159445763, 0.0008438439108431339, 0.010456401854753494, 0.1425548642873764, 0.021232597529888153, 0.09695662558078766, 0.006046010181307793, 0.008225667290389538, 0.16353140771389008, 0.003398861037567258, 0.0034570489078760147, 0.003666849108412862, 0.2021624743938446, 0.008286463096737862, 0.017492061480879784, 0.03663614019751549], [0.02035992033779621, 0.16202525794506073, 0.008108780719339848, 0.003486958798021078, 0.01029509212821722, 0.017970165237784386, 0.0008131134673021734, 0.3133915960788727, 0.08197576552629471, 0.014271539635956287, 0.06481604278087616, 0.004535531159490347, 0.009928185492753983, 0.07110337913036346, 0.0017514820210635662, 0.007980826310813427, 0.037636373192071915, 0.0991290733218193, 0.003859549527987838, 0.021815160289406776, 0.04474618285894394], [0.11233355849981308, 0.09729290008544922, 0.008565320633351803, 0.0701225996017456, 0.007056339643895626, 0.013447649776935577, 0.006984152365475893, 0.006964513100683689, 0.0952310711145401, 0.018361752852797508, 0.09131220728158951, 0.008218108676373959, 0.006350602488964796, 0.10975734889507294, 0.05072242021560669, 0.008406604640185833, 0.01449013315141201, 0.09974697232246399, 0.028987962752580643, 0.014644072391092777, 0.13100367784500122], [0.10362961143255234, 0.18980291485786438, 0.005734192207455635, 0.0011723499046638608, 0.008184903301298618, 0.03739378601312637, 0.0016491722781211138, 0.004678428638726473, 0.10680843889713287, 0.03274068236351013, 0.09707016497850418, 0.002956622513011098, 0.010511738248169422, 0.12630794942378998, 0.0022564041428267956, 0.004512989427894354, 0.0030451000202447176, 0.15937726199626923, 0.010983755812048912, 0.026105456054210663, 0.06507807224988937], [0.11585480719804764, 0.10357703268527985, 0.007127474062144756, 0.05908890813589096, 0.006337966304272413, 0.013649346306920052, 0.005631559994071722, 0.006872888188809156, 0.10176356136798859, 0.01689271815121174, 0.09530633687973022, 0.006487199570983648, 0.005667765159159899, 0.11895649880170822, 0.0403936468064785, 0.008115741424262524, 0.011822300963103771, 0.10879123210906982, 0.025563057512044907, 0.015714306384325027, 0.12638576328754425], [0.034560251981019974, 0.17448033392429352, 0.006064833607524633, 0.0018957433057948947, 0.013228761963546276, 0.028589483350515366, 0.000541605637408793, 0.021387167274951935, 0.14330533146858215, 0.013601248152554035, 0.11650601029396057, 0.0034477361477911472, 0.018320316448807716, 0.13465800881385803, 0.0019046018132939935, 0.005767666269093752, 0.0046760146506130695, 0.2078578919172287, 0.0031973998993635178, 0.026692267507314682, 0.03931727260351181], [0.049098435789346695, 0.18671374022960663, 0.003994739148765802, 0.0026254302356392145, 0.008961213752627373, 0.021343296393752098, 0.0012765354476869106, 0.014830651693046093, 0.14119143784046173, 0.01728261262178421, 0.11492660641670227, 0.0033889496698975563, 0.011540904641151428, 0.16847705841064453, 0.0013375399867072701, 0.0035890103317797184, 0.0031699405517429113, 0.17094285786151886, 0.005785482935607433, 0.01803797297179699, 0.05148550868034363], [0.10177560150623322, 0.08609627187252045, 0.008535022847354412, 0.09178436547517776, 0.007641828153282404, 0.013791459612548351, 0.010251418687403202, 0.007841943763196468, 0.0963045209646225, 0.019177692010998726, 0.09136438369750977, 0.008847180753946304, 0.006880942732095718, 0.11232402175664902, 0.049157608300447464, 0.008324773982167244, 0.015019307844340801, 0.10085026174783707, 0.03549171984195709, 0.016813678666949272, 0.11172593384981155], [0.21838167309761047, 0.07262180745601654, 0.011511323973536491, 0.06793936342000961, 0.031901322305202484, 0.02661135606467724, 0.0024192456621676683, 0.007632825523614883, 0.06206079572439194, 0.015588517300784588, 0.06224736198782921, 0.01115410216152668, 0.040535032749176025, 0.059441614896059036, 0.05811312422156334, 0.015113607980310917, 0.01522437296807766, 0.058383915573358536, 0.009932585060596466, 0.010405776090919971, 0.1427803635597229], [0.09471288323402405, 0.17702798545360565, 0.0034121456556022167, 0.008296187035739422, 0.009992980398237705, 0.01936497539281845, 0.0006076107383705676, 0.01411231979727745, 0.12419794499874115, 0.0070511344820261, 0.10357580333948135, 0.0023221008013933897, 0.010425906628370285, 0.14332056045532227, 0.006919968407601118, 0.003772422671318054, 0.0035886759869754314, 0.17985564470291138, 0.003024656092748046, 0.022501667961478233, 0.06191646680235863], [0.07339707016944885, 0.15652064979076385, 0.004138719290494919, 0.008313543163239956, 0.009481730870902538, 0.021662654355168343, 0.0008136113174259663, 0.13244350254535675, 0.1241978332400322, 0.011549212038516998, 0.09528666734695435, 0.002541459398344159, 0.00861547701060772, 0.1130257323384285, 0.005252431146800518, 0.007170901168137789, 0.01470832247287035, 0.14669431746006012, 0.003170468145981431, 0.02836180292069912, 0.032653793692588806], [0.08448954671621323, 0.09965450316667557, 0.0078002638183534145, 0.07505625486373901, 0.007407415192574263, 0.016787471249699593, 0.008691116236150265, 0.008124819956719875, 0.10684255510568619, 0.017476320266723633, 0.10172460973262787, 0.0075040291994810104, 0.006580975838005543, 0.1213373914361, 0.04078652337193489, 0.00950338039547205, 0.014474481344223022, 0.11512895673513412, 0.029240163043141365, 0.01753706857562065, 0.10385210067033768], [0.019626682624220848, 0.17432522773742676, 0.0030289613641798496, 0.001892432221211493, 0.009989645332098007, 0.051224060356616974, 0.0020813369192183018, 0.008340948261320591, 0.16040077805519104, 0.014911757782101631, 0.13882006704807281, 0.0022452622652053833, 0.012751247733831406, 0.1588113158941269, 0.001219007303006947, 0.004757293500006199, 0.0013918029144406319, 0.19213008880615234, 0.005720531102269888, 0.02069648541510105, 0.01563505083322525], [0.035143449902534485, 0.1376471072435379, 0.007223925553262234, 0.001691432436928153, 0.014886680990457535, 0.08439452946186066, 0.002974690403789282, 0.01893136464059353, 0.12045538425445557, 0.015858782455325127, 0.10944605618715286, 0.005198332481086254, 0.018265027552843094, 0.12238658219575882, 0.00250236876308918, 0.009511943906545639, 0.0031244922429323196, 0.14731186628341675, 0.006390891503542662, 0.08890508860349655, 0.047749921679496765], [0.03425213694572449, 0.16391944885253906, 0.0036601314786821604, 0.0038593278732150793, 0.008492927066981792, 0.06405818462371826, 0.002115867333486676, 0.015679683536291122, 0.1321057230234146, 0.014399724081158638, 0.10957595705986023, 0.003100763540714979, 0.009946870617568493, 0.15712107717990875, 0.0029718088917434216, 0.004661320708692074, 0.0034025968052446842, 0.17506088316440582, 0.005094749387353659, 0.025489632040262222, 0.06103118509054184]], [[0.2780221998691559, 0.1664130985736847, 0.004882955923676491, 0.00038037385093048215, 0.0007110545411705971, 0.0005511838826350868, 0.004998461343348026, 0.007811716292053461, 0.07707571238279343, 0.022512711584568024, 0.10591967403888702, 0.0030087768100202084, 0.0005768394912593067, 0.07826816290616989, 0.005202025640755892, 0.017102619633078575, 0.008838413283228874, 0.12541912496089935, 0.006822733208537102, 0.011201762594282627, 0.07428032904863358], [0.05857270210981369, 0.1254528909921646, 0.04327318072319031, 0.0060979570262134075, 0.0028295093216001987, 0.0022781293373554945, 0.005527818109840155, 0.0030693348962813616, 0.07088164985179901, 0.05943937227129936, 0.0740763247013092, 0.023677200078964233, 0.0035057985223829746, 0.1042475700378418, 0.07938933372497559, 0.002645788248628378, 0.004676892887800932, 0.11988407373428345, 0.027724355459213257, 0.013872017152607441, 0.16887807846069336], [0.07844206690788269, 0.09603682160377502, 0.0042238798923790455, 0.007678554393351078, 0.006111511494964361, 0.015476018190383911, 0.014798390679061413, 0.00481523759663105, 0.1254184991121292, 0.02554977871477604, 0.11413833498954773, 0.004579298198223114, 0.008029749616980553, 0.1417052298784256, 0.015642669051885605, 0.007954186759889126, 0.005442183930426836, 0.13614003360271454, 0.003678441746160388, 0.019978400319814682, 0.16416068375110626], [0.12255114316940308, 0.14320974051952362, 0.008129846304655075, 0.00463268393650651, 0.0034795061219483614, 0.0024137452710419893, 0.0031753433868288994, 0.0028771483339369297, 0.10699570178985596, 0.0117093650624156, 0.11659477651119232, 0.00459704315289855, 0.003530532354488969, 0.11084869503974915, 0.009898197837173939, 0.0067216153256595135, 0.007924753241240978, 0.18230430781841278, 0.0038339332677423954, 0.01330858375877142, 0.13126328587532043], [0.09902266412973404, 0.07717148214578629, 0.06639883667230606, 0.006920346058905125, 0.002901689615100622, 0.0016478454926982522, 0.014714200049638748, 0.0028302001301199198, 0.06735042482614517, 0.05173136666417122, 0.06854506582021713, 0.053408700972795486, 0.003483699867501855, 0.07231329381465912, 0.04920404031872749, 0.004506224300712347, 0.011371223255991936, 0.10872490704059601, 0.01399573590606451, 0.012475156225264072, 0.211282879114151], [0.04928705096244812, 0.09002599120140076, 0.04262149706482887, 0.05250287428498268, 0.008333652280271053, 0.012294810265302658, 0.033702973276376724, 0.006227500271052122, 0.07562729716300964, 0.03416679799556732, 0.07099767029285431, 0.04370126128196716, 0.010419554077088833, 0.09573173522949219, 0.027816152200102806, 0.0061909169889986515, 0.011914529837667942, 0.08288435637950897, 0.009541706182062626, 0.009166337549686432, 0.22684535384178162], [0.05754722282290459, 0.13261020183563232, 0.007864666171371937, 0.0018712347373366356, 0.0019973525777459145, 0.005539471749216318, 0.0036089704371988773, 0.0023237166460603476, 0.120982326567173, 0.021588871255517006, 0.12204549461603165, 0.008731383830308914, 0.003346700919792056, 0.20802941918373108, 0.006353443954139948, 0.005917215719819069, 0.0032179260160773993, 0.18957553803920746, 0.013235796242952347, 0.014901998452842236, 0.06871121376752853], [0.05244011804461479, 0.12019138038158417, 0.01573297381401062, 0.008009523153305054, 0.006366651505231857, 0.01174511294811964, 0.009125075303018093, 0.017039326950907707, 0.08896283805370331, 0.009579502046108246, 0.10316895693540573, 0.010354921221733093, 0.004630487412214279, 0.08153893053531647, 0.006812396924942732, 0.013742712326347828, 0.013806232251226902, 0.12569084763526917, 0.007846525870263577, 0.05488564446568489, 0.23832973837852478], [0.07299625873565674, 0.09656435996294022, 0.0470382422208786, 0.012405885383486748, 0.004558880813419819, 0.003411875804886222, 0.00904125440865755, 0.005528172943741083, 0.07012203335762024, 0.06758701801300049, 0.07134485244750977, 0.030796043574810028, 0.005781894084066153, 0.09761305153369904, 0.08882388472557068, 0.004729490261524916, 0.008218788541853428, 0.10746107250452042, 0.04266398027539253, 0.021354418247938156, 0.13195855915546417], [0.13332876563072205, 0.08495613187551498, 0.031168336048722267, 0.0029495437629520893, 0.002702661557123065, 0.004608966875821352, 0.024915946647524834, 0.0010562059469521046, 0.13772052526474, 0.007065202575176954, 0.11384741961956024, 0.029840493574738503, 0.0024169604294002056, 0.1102951392531395, 0.006482625845819712, 0.005595275666564703, 0.0034080673940479755, 0.15509426593780518, 0.00853761937469244, 0.010455690324306488, 0.12355411052703857], [0.08715803176164627, 0.10172537714242935, 0.040521666407585144, 0.01262250542640686, 0.004060388542711735, 0.002752459142357111, 0.010126023553311825, 0.006483040750026703, 0.07413187623023987, 0.05327766761183739, 0.0762244462966919, 0.028901128098368645, 0.005400270223617554, 0.10600724071264267, 0.06582916527986526, 0.006827209610491991, 0.009292365051805973, 0.11442868411540985, 0.04153310880064964, 0.025191761553287506, 0.12750543653964996], [0.06489010900259018, 0.08565851300954819, 0.0026477985084056854, 0.007696096319705248, 0.006955509539693594, 0.02278132177889347, 0.014043486677110195, 0.00817098468542099, 0.13627482950687408, 0.030567031353712082, 0.11678987741470337, 0.003263693768531084, 0.009226699359714985, 0.14737823605537415, 0.010618706233799458, 0.01271572895348072, 0.006370140705257654, 0.1377590298652649, 0.002947807079181075, 0.03146149590611458, 0.1417829990386963], [0.10115953534841537, 0.08289054036140442, 0.03277627006173134, 0.004746288061141968, 0.0033032300416380167, 0.003129300195723772, 0.015162932686507702, 0.005191446281969547, 0.09081681072711945, 0.04801950976252556, 0.08576629310846329, 0.03162088617682457, 0.003827362786978483, 0.09440705180168152, 0.030150113627314568, 0.008269712328910828, 0.0122219268232584, 0.13546547293663025, 0.013282489962875843, 0.017869500443339348, 0.17992326617240906], [0.07459006458520889, 0.09913954138755798, 0.04789261147379875, 0.01090645045042038, 0.0031921868212521076, 0.0024307332932949066, 0.010110732167959213, 0.005575545597821474, 0.07906148582696915, 0.061188116669654846, 0.07753127068281174, 0.03177318722009659, 0.004017445258796215, 0.10860980302095413, 0.07720288634300232, 0.007475048769265413, 0.011470885947346687, 0.11990617215633392, 0.047930847853422165, 0.02325783297419548, 0.09673722088336945], [0.10387562960386276, 0.07246997207403183, 0.014960476197302341, 0.011849191971123219, 0.009650321677327156, 0.011572746559977531, 0.004879254847764969, 0.0033834269270300865, 0.13705983757972717, 0.03838832676410675, 0.10050556808710098, 0.018085671588778496, 0.010642449371516705, 0.15817812085151672, 0.0004769829101860523, 0.006821884773671627, 0.007100938353687525, 0.17481288313865662, 0.010030694305896759, 0.058771029114723206, 0.046484630554914474], [0.08138163387775421, 0.08637063950300217, 0.008884843438863754, 0.022349700331687927, 0.0261443592607975, 0.05186789482831955, 0.005849093664437532, 0.025800935924053192, 0.09815862774848938, 0.0053118192590773106, 0.09233884513378143, 0.005485733039677143, 0.016402918845415115, 0.10302082449197769, 0.0030409859027713537, 0.013309251517057419, 0.023047035560011864, 0.11400425434112549, 0.004017161671072245, 0.05486186966300011, 0.15835148096084595], [0.11661513149738312, 0.09136384725570679, 0.01039035152643919, 0.0026386575773358345, 0.00862424261868, 0.011506117880344391, 0.00381476036272943, 0.030486879870295525, 0.11408067494630814, 0.0056367614306509495, 0.1167234256863594, 0.006700641009956598, 0.006345909554511309, 0.11549879610538483, 0.0020749305840581656, 0.013957146555185318, 0.006348403170704842, 0.17062827944755554, 0.0062344251200556755, 0.04883623868227005, 0.11149432510137558], [0.08935856819152832, 0.10715186595916748, 0.027292152866721153, 0.008732226677238941, 0.003765051020309329, 0.003253062255680561, 0.007723362650722265, 0.006991171278059483, 0.08343895524740219, 0.04447673633694649, 0.08359336107969284, 0.015700947493314743, 0.004235145170241594, 0.11351996660232544, 0.06019600108265877, 0.0072771767154335976, 0.009063425473868847, 0.13066688179969788, 0.03662922978401184, 0.0348188541829586, 0.1221158429980278], [0.07586269080638885, 0.07428031414747238, 0.0031670057214796543, 0.001204763655550778, 0.005399762652814388, 0.02417345531284809, 0.007299140561372042, 0.010250912979245186, 0.17063987255096436, 0.019903842359781265, 0.12462606281042099, 0.0025385250337421894, 0.0030047614127397537, 0.13882945477962494, 0.0025044300127774477, 0.007850786671042442, 0.002761459443718195, 0.16298408806324005, 0.00337871047668159, 0.04292387142777443, 0.11641612648963928], [0.07279553264379501, 0.10695016384124756, 0.007119611371308565, 0.014850630424916744, 0.015682034194469452, 0.025609178468585014, 0.011501559987664223, 0.0274126548320055, 0.10949020087718964, 0.008976011537015438, 0.112442247569561, 0.005654819309711456, 0.012227841652929783, 0.10518058389425278, 0.006594126578420401, 0.01528529729694128, 0.014311452396214008, 0.13576799631118774, 0.003947818651795387, 0.032598454505205154, 0.15560173988342285], [0.06638429313898087, 0.4796999990940094, 0.005197308026254177, 0.0005417896318249404, 0.0009070677915588021, 0.001344145042821765, 0.00977451354265213, 0.023404927924275398, 0.04179828241467476, 0.008427229709923267, 0.06050945073366165, 0.0012291466118767858, 0.0004804219352081418, 0.037128400057554245, 0.004517700523138046, 0.009487496688961983, 0.012536760419607162, 0.04388067498803139, 0.006569564808160067, 0.010253116488456726, 0.17592774331569672]]], [[[0.9796605706214905, 0.0008367780828848481, 0.00037757266545668244, 0.0012206259416416287, 0.0007218498503789306, 0.0012815921800211072, 0.0003530879912432283, 0.0006047563510946929, 0.001493335934355855, 0.0034507177770137787, 0.0010426671942695975, 0.0006086062057875097, 0.002261656103655696, 0.0013666131999343634, 0.00015338818775489926, 0.0006828625919297338, 0.0010262539144605398, 0.0012847076868638396, 0.0008219659794121981, 0.00046515854774042964, 0.000285277608782053], [0.0014146463945508003, 0.14237375557422638, 0.008788703940808773, 0.00730907404795289, 0.05449046567082405, 0.023930102586746216, 0.014998475089669228, 0.07249167561531067, 0.07940157502889633, 0.02346975915133953, 0.047610823065042496, 0.006157283205538988, 0.029850823804736137, 0.10750435292720795, 0.021035613492131233, 0.038236089050769806, 0.029824666678905487, 0.10709074884653091, 0.020189816132187843, 0.02585604600608349, 0.13797540962696075], [0.0012649846030399203, 0.11200475692749023, 0.005287557374686003, 0.003046546597033739, 0.03856942430138588, 0.03173048049211502, 0.003822609316557646, 0.12087137997150421, 0.05935467779636383, 0.002359346952289343, 0.04171540215611458, 0.003917696885764599, 0.026228640228509903, 0.11203397065401077, 0.0029510222375392914, 0.049854930490255356, 0.04243651404976845, 0.10751897841691971, 0.002961257239803672, 0.03461410105228424, 0.1974557638168335], [0.0032217407133430243, 0.14308016002178192, 0.006469183135777712, 0.0030013988725841045, 0.026169756427407265, 0.04714310169219971, 0.007675490342080593, 0.07708735764026642, 0.08969978988170624, 0.008556362241506577, 0.054545603692531586, 0.005255071446299553, 0.021258581429719925, 0.10330867767333984, 0.008436677046120167, 0.05191712826490402, 0.04459172114729881, 0.10428686439990997, 0.0141122592613101, 0.023286106064915657, 0.15689703822135925], [0.0013473080471158028, 0.10069802403450012, 0.010095071978867054, 0.006621642969548702, 0.034426555037498474, 0.0278201662003994, 0.011342592537403107, 0.08624573796987534, 0.05265713483095169, 0.007434584200382233, 0.031384918838739395, 0.008273504674434662, 0.02212013676762581, 0.08620412647724152, 0.010813037864863873, 0.06531884521245956, 0.050134941935539246, 0.06732086837291718, 0.006514017004519701, 0.04063540697097778, 0.2725914418697357], [0.0025845433119684458, 0.11036977171897888, 0.01372284721583128, 0.010135489515960217, 0.07608246058225632, 0.03263815864920616, 0.016387829557061195, 0.07180105894804001, 0.06408106535673141, 0.008939429186284542, 0.04033779725432396, 0.009707472287118435, 0.042259931564331055, 0.09566507488489151, 0.010823004879057407, 0.05386416241526604, 0.042772844433784485, 0.08358027786016464, 0.008386737667024136, 0.04475545883178711, 0.16110458970069885], [0.0003741773252841085, 0.08149198442697525, 0.003550855675712228, 0.006527523510158062, 0.014016801491379738, 0.014272771775722504, 0.002984031103551388, 0.0574265718460083, 0.07268612086772919, 0.00436032097786665, 0.05023965239524841, 0.0035471732262521982, 0.006720751989632845, 0.07271299511194229, 0.008533463813364506, 0.02696281485259533, 0.01376994140446186, 0.06781979650259018, 0.004534044768661261, 0.01405410934239626, 0.47341403365135193], [0.0018813451752066612, 0.07956049591302872, 0.01046715211123228, 0.002699214732274413, 0.1323024034500122, 0.05758246034383774, 0.010507014580070972, 0.07975407689809799, 0.029429834336042404, 0.005902926437556744, 0.013752548024058342, 0.00640536192804575, 0.06894466280937195, 0.05853288993239403, 0.0027103517204523087, 0.06367912143468857, 0.05532115697860718, 0.03642315790057182, 0.002683633239939809, 0.054344821721315384, 0.2271154224872589], [0.005167844705283642, 0.09351345151662827, 0.012578034773468971, 0.011621220968663692, 0.03412933275103569, 0.02759224735200405, 0.019361937418580055, 0.06598129123449326, 0.08398187160491943, 0.03229743242263794, 0.05645646154880524, 0.010094599798321724, 0.02017511986196041, 0.09507199376821518, 0.04233381524682045, 0.03086237609386444, 0.03124173730611801, 0.08884468674659729, 0.03425297141075134, 0.027278007939457893, 0.17716355621814728], [0.0011319959303364158, 0.049970194697380066, 0.008645905181765556, 0.0035810742992907763, 0.06807795912027359, 0.03980157524347305, 0.009751084260642529, 0.0642281100153923, 0.022846069186925888, 0.007813751697540283, 0.012361385859549046, 0.005058899521827698, 0.022686170414090157, 0.03748936951160431, 0.00539018027484417, 0.025019997730851173, 0.04618506133556366, 0.022273173555731773, 0.0033123583998531103, 0.04655816778540611, 0.4978175461292267], [0.00194152956828475, 0.09287118911743164, 0.012422429397702217, 0.011562608182430267, 0.034690532833337784, 0.02593366429209709, 0.01755605824291706, 0.06081290915608406, 0.07673775404691696, 0.022375918924808502, 0.054650578647851944, 0.009843017905950546, 0.01810440979897976, 0.09464994817972183, 0.03960437327623367, 0.0307475533336401, 0.027736229822039604, 0.08824154734611511, 0.02854851447045803, 0.02887069247663021, 0.2220984250307083], [0.0016147666610777378, 0.08400055766105652, 0.0072008538991212845, 0.0038663141895085573, 0.029918797314167023, 0.035614605993032455, 0.0025919817853718996, 0.10068043321371078, 0.06341060250997543, 0.0016988898860290647, 0.05170375853776932, 0.0052500455640256405, 0.017719348892569542, 0.09811286628246307, 0.0034890687093138695, 0.05239138752222061, 0.043569810688495636, 0.09310174733400345, 0.0020242808386683464, 0.025786610320210457, 0.27625322341918945], [0.0023065037094056606, 0.06979137659072876, 0.012835558503866196, 0.008864014409482479, 0.0421411357820034, 0.03830093517899513, 0.010625516064465046, 0.07648412883281708, 0.044379107654094696, 0.005062219686806202, 0.03211205452680588, 0.010204819031059742, 0.02124878205358982, 0.06511884927749634, 0.008721297606825829, 0.05534813180565834, 0.05382084846496582, 0.04971461743116379, 0.004411005415022373, 0.05427022650837898, 0.3342389464378357], [0.002906125970184803, 0.08780793100595474, 0.01312064379453659, 0.011669516563415527, 0.029366029426455498, 0.02316438779234886, 0.021079320460557938, 0.06006912514567375, 0.08226117491722107, 0.029696444049477577, 0.059038758277893066, 0.01037625502794981, 0.01614355482161045, 0.09322694689035416, 0.055106453597545624, 0.027979739010334015, 0.027413038536906242, 0.08815586566925049, 0.04144247621297836, 0.02888324111700058, 0.19109290838241577], [0.0010661722626537085, 0.1415269523859024, 0.0020854512695223093, 0.0010827555088326335, 0.02510988898575306, 0.030000029131770134, 0.0018595261499285698, 0.16750472784042358, 0.0817912220954895, 0.004066039342433214, 0.03510487452149391, 0.0015659108757972717, 0.014978093095123768, 0.1071924939751625, 0.0014336506137624383, 0.029475953429937363, 0.024639053270220757, 0.07844255119562149, 0.005233448464423418, 0.02262864075601101, 0.22321252524852753], [0.008527555502951145, 0.08138828724622726, 0.0109771229326725, 0.0038761349860578775, 0.06913241744041443, 0.05527405068278313, 0.009069419465959072, 0.1245540902018547, 0.06761764734983444, 0.006318113300949335, 0.03625192120671272, 0.010144931264221668, 0.04818166792392731, 0.09465674310922623, 0.0025878080632537603, 0.04171246290206909, 0.05584074184298515, 0.070726677775383, 0.005592998582869768, 0.045842356979846954, 0.15172690153121948], [0.004942544735968113, 0.08413063734769821, 0.01812303066253662, 0.0027360457461327314, 0.11179425567388535, 0.06494531035423279, 0.018097160384058952, 0.09875965863466263, 0.04328277334570885, 0.011687167920172215, 0.021189218387007713, 0.012849732302129269, 0.07027928531169891, 0.07242263853549957, 0.005914279259741306, 0.04426628351211548, 0.05445844307541847, 0.05043359473347664, 0.006789684295654297, 0.06006472185254097, 0.1428336352109909], [0.004001892637461424, 0.08862995356321335, 0.018618721514940262, 0.01514473371207714, 0.055544380098581314, 0.029035093262791634, 0.02516244910657406, 0.06424274295568466, 0.07493767887353897, 0.03400843217968941, 0.05422607809305191, 0.014030535705387592, 0.03114021010696888, 0.09555424749851227, 0.04778413102030754, 0.03016904927790165, 0.03202374279499054, 0.0890287235379219, 0.041011445224285126, 0.035381980240345, 0.12032373994588852], [0.006139672826975584, 0.0952145978808403, 0.01906190626323223, 0.006176866125315428, 0.10241196304559708, 0.055191945284605026, 0.007049341686069965, 0.10048579424619675, 0.04523124173283577, 0.013442814350128174, 0.021358320489525795, 0.010128412395715714, 0.042154546827077866, 0.06743643432855606, 0.0074675800278782845, 0.04490844905376434, 0.06288750469684601, 0.041011545807123184, 0.004372004885226488, 0.05624237656593323, 0.1916266530752182], [0.0020303772762417793, 0.08035162836313248, 0.014147123321890831, 0.004926116205751896, 0.09265383332967758, 0.05699409171938896, 0.01058682706207037, 0.08911532908678055, 0.04477623477578163, 0.003918733447790146, 0.027899866923689842, 0.008619090542197227, 0.05041933059692383, 0.10008647292852402, 0.007412055507302284, 0.03619532287120819, 0.07574806362390518, 0.06577052175998688, 0.005053376778960228, 0.055878426879644394, 0.16741719841957092], [0.000540144566912204, 0.06044042110443115, 0.03441402688622475, 0.008704627864062786, 0.3591202199459076, 0.024770990014076233, 0.026868153363466263, 0.03337763994932175, 0.01260543055832386, 0.011614150367677212, 0.008500944823026657, 0.013367700390517712, 0.12429032474756241, 0.03473948314785957, 0.008190308697521687, 0.039504364132881165, 0.050537969917058945, 0.02047010324895382, 0.0031408092472702265, 0.09166789799928665, 0.033134303987026215]], [[0.11182638257741928, 0.12938816845417023, 0.0038271844387054443, 0.1195622906088829, 0.015900425612926483, 0.008427178487181664, 0.001006315927952528, 0.0379917249083519, 0.07286886870861053, 0.05820394307374954, 0.039337124675512314, 0.001773933181539178, 0.008365505374968052, 0.07579828053712845, 0.02459041401743889, 0.005613573826849461, 0.012161199003458023, 0.05573105812072754, 0.05105028674006462, 0.006771930493414402, 0.15980426967144012], [0.06555312126874924, 0.16068658232688904, 0.00820921827107668, 0.02073485031723976, 0.012046090327203274, 0.03974216803908348, 0.00805166456848383, 0.011352292262017727, 0.1519041657447815, 0.031946681439876556, 0.09580868482589722, 0.006172816734761, 0.012803212739527225, 0.12549187242984772, 0.013363629579544067, 0.01011111494153738, 0.00903165154159069, 0.13261140882968903, 0.02354743890464306, 0.02527722530066967, 0.0355541817843914], [0.030120231211185455, 0.15178324282169342, 0.0032276692800223827, 0.009766647592186928, 0.0067625888623297215, 0.03345920145511627, 0.0010626602452248335, 0.013642726466059685, 0.17210033535957336, 0.0061731222085654736, 0.09009774774312973, 0.0032232473604381084, 0.009647617116570473, 0.26440951228141785, 0.003068474819883704, 0.004862775560468435, 0.006009702105075121, 0.13886608183383942, 0.02875133603811264, 0.010660571977496147, 0.012304523959755898], [0.0684477686882019, 0.15639157593250275, 0.002824940951541066, 0.0025221912655979395, 0.007606629282236099, 0.02994811162352562, 0.0006290356977842748, 0.005625287536531687, 0.156947523355484, 0.0018621643539518118, 0.12876534461975098, 0.002446636790409684, 0.0074819158762693405, 0.2455839365720749, 0.00173485919367522, 0.008496532216668129, 0.003658327739685774, 0.1381930112838745, 0.0062979040667414665, 0.01774662733078003, 0.00678968382999301], [0.06613228470087051, 0.17417408525943756, 0.008752930909395218, 0.011700734496116638, 0.02064003422856331, 0.07054437696933746, 0.0015103237237781286, 0.013159193098545074, 0.1161579117178917, 0.004779257345944643, 0.09624013304710388, 0.007043803576380014, 0.020759955048561096, 0.20268426835536957, 0.006428520195186138, 0.010170787572860718, 0.005881291348487139, 0.11260062456130981, 0.01611391454935074, 0.009215793572366238, 0.02530977874994278], [0.12217169255018234, 0.13836540281772614, 0.0061474391259253025, 0.011090761981904507, 0.016265539452433586, 0.02684572897851467, 0.0016548262210562825, 0.011496965773403645, 0.14228978753089905, 0.00785888358950615, 0.09904329478740692, 0.005881462246179581, 0.014506970532238483, 0.18414457142353058, 0.007689653895795345, 0.012153849005699158, 0.007598001044243574, 0.11986041814088821, 0.022076336666941643, 0.013671254739165306, 0.029187127947807312], [0.006056793034076691, 0.10972148925065994, 0.002710460452362895, 0.0037771835923194885, 0.01052077580243349, 0.05427416041493416, 0.0026309886015951633, 0.007829464040696621, 0.14152739942073822, 0.0008000523084774613, 0.1595464050769806, 0.004569148179143667, 0.019829558208584785, 0.2556617558002472, 0.004048265051096678, 0.009468691423535347, 0.006874881684780121, 0.1833679974079132, 0.00746841449290514, 0.006084418389946222, 0.003231676062569022], [0.1486733853816986, 0.1458519548177719, 0.005014113616198301, 0.018072903156280518, 0.02638721652328968, 0.015507221221923828, 0.0004761351447086781, 0.038698554039001465, 0.11585374921560287, 0.008807610720396042, 0.06716451048851013, 0.004092152696102858, 0.015944333747029305, 0.1505996584892273, 0.007802614476531744, 0.0073576136492192745, 0.015564730390906334, 0.08280254155397415, 0.04349081963300705, 0.006987146567553282, 0.0748511254787445], [0.020449792966246605, 0.10860536992549896, 0.0037212364841252565, 0.00534234382212162, 0.006006835028529167, 0.02529093064367771, 0.006041144952178001, 0.004397477023303509, 0.2206745445728302, 0.006706551183015108, 0.16238407790660858, 0.004597221501171589, 0.011303319595754147, 0.16796481609344482, 0.006586695555597544, 0.007145354524254799, 0.005098424386233091, 0.19312269985675812, 0.009534853510558605, 0.017518166452646255, 0.00750813540071249], [0.11424124985933304, 0.12008634954690933, 0.013133278116583824, 0.03264820948243141, 0.013594876043498516, 0.017904290929436684, 0.0041876137256622314, 0.0340573787689209, 0.11432909220457077, 0.02724798582494259, 0.06209302693605423, 0.014131613075733185, 0.013133165426552296, 0.1091974675655365, 0.008712598122656345, 0.011031459085643291, 0.020197225734591484, 0.09187319129705429, 0.0780731663107872, 0.020569106563925743, 0.0795576199889183], [0.021963633596897125, 0.08924657851457596, 0.0028151548467576504, 0.0042884452268481255, 0.006375228054821491, 0.02874949388206005, 0.005727087147533894, 0.003887457773089409, 0.2142898142337799, 0.00466080941259861, 0.17155835032463074, 0.00407019816339016, 0.012118221260607243, 0.17004382610321045, 0.005975109525024891, 0.007858174853026867, 0.004349440801888704, 0.2030664086341858, 0.008560404181480408, 0.021555548533797264, 0.008840512484312057], [0.0132526233792305, 0.1105407252907753, 0.0013820086605846882, 0.004555453546345234, 0.004302456974983215, 0.026820311322808266, 0.0007013203576207161, 0.006531072314828634, 0.19357946515083313, 0.0019057901808992028, 0.11601008474826813, 0.001790928654372692, 0.007642590440809727, 0.3108096718788147, 0.0013838947052136064, 0.003560656448826194, 0.003904051845893264, 0.16205689311027527, 0.013747044838964939, 0.011345376260578632, 0.0041775996796786785], [0.0390603169798851, 0.14571581780910492, 0.003929253667593002, 0.006783708464354277, 0.011411543004214764, 0.04569949954748154, 0.0007869186229072511, 0.007857372052967548, 0.15060560405254364, 0.001942875562235713, 0.12315505743026733, 0.004686912056058645, 0.015162382274866104, 0.2580443322658539, 0.003495078766718507, 0.010722417384386063, 0.004635445307940245, 0.13494548201560974, 0.007974437437951565, 0.007065197452902794, 0.016320262104272842], [0.010771024972200394, 0.0933016985654831, 0.0015701192896813154, 0.002508555306121707, 0.0036949391942471266, 0.02928617224097252, 0.0038241762667894363, 0.0021163716446608305, 0.22251015901565552, 0.0029207265470176935, 0.17842912673950195, 0.0021571102552115917, 0.009190811775624752, 0.19022803008556366, 0.0033370363526046276, 0.005235682707279921, 0.0024837683886289597, 0.2144245207309723, 0.0049452874809503555, 0.012981012463569641, 0.004083695821464062], [0.011802786961197853, 0.13387639820575714, 0.00046742381528019905, 0.0018953661201521754, 0.002485808217898011, 0.02493891492486, 0.00032017036573961377, 0.005349889863282442, 0.2160158008337021, 0.001636778935790062, 0.11881639808416367, 0.0007452182471752167, 0.003844461403787136, 0.3004406988620758, 0.0009771025506779552, 0.0035568939056247473, 0.0026309096720069647, 0.1520899087190628, 0.009031705558300018, 0.006181173026561737, 0.0028962150681763887], [0.04389816150069237, 0.10688602179288864, 0.000517040491104126, 0.0047240606509149075, 0.00795706082135439, 0.0204324834048748, 0.000374695286154747, 0.010894624516367912, 0.19224251806735992, 0.001509140245616436, 0.13226155936717987, 0.0004420940822456032, 0.007831979542970657, 0.25356152653694153, 0.0013433649437502027, 0.005449419375509024, 0.00645050872117281, 0.16605335474014282, 0.00802918616682291, 0.014412476681172848, 0.014728736132383347], [0.09610986709594727, 0.13185659050941467, 0.0022850027307868004, 0.012531681917607784, 0.021590564399957657, 0.019741900265216827, 0.0010332694509997964, 0.018992621451616287, 0.13455253839492798, 0.003476985264569521, 0.11994866281747818, 0.0019235358340665698, 0.017541959881782532, 0.19141556322574615, 0.0033829943276941776, 0.010182080790400505, 0.010380948893725872, 0.12044524401426315, 0.01038244366645813, 0.01612483337521553, 0.05610065162181854], [0.011402438394725323, 0.09296668320894241, 0.0018717757193371654, 0.0035493585746735334, 0.003818642580881715, 0.02602330408990383, 0.0055625964887440205, 0.0023212176747620106, 0.22670629620552063, 0.0033081795554608107, 0.17846964299678802, 0.0024942662566900253, 0.00858078058809042, 0.17491953074932098, 0.003979228902608156, 0.005754311103373766, 0.0029975215438753366, 0.21825826168060303, 0.005915933288633823, 0.01734577678143978, 0.0037543203216046095], [0.055616460740566254, 0.2647566497325897, 0.001520288991741836, 0.02038874477148056, 0.009570436552166939, 0.016084471717476845, 0.00036436860682442784, 0.02283243089914322, 0.14983929693698883, 0.00820939615368843, 0.06981367617845535, 0.0010769915534183383, 0.004222312476485968, 0.17035338282585144, 0.0031593635212630033, 0.014484607614576817, 0.009050454944372177, 0.11001776158809662, 0.016949571669101715, 0.011504332534968853, 0.04018503800034523], [0.040229834616184235, 0.10585074871778488, 0.002209232421591878, 0.011969718150794506, 0.007339243311434984, 0.022157521918416023, 0.0018945573829114437, 0.014320919290184975, 0.14002616703510284, 0.0059281266294419765, 0.10127662122249603, 0.0021937841083854437, 0.008293721824884415, 0.23107150197029114, 0.0037443044129759073, 0.007596326060593128, 0.007066954858601093, 0.15240898728370667, 0.08847164362668991, 0.030315224081277847, 0.015634767711162567], [0.3346432149410248, 0.0535116083920002, 0.005179912317544222, 0.07940363883972168, 0.030559394508600235, 0.004462513141334057, 0.0012858002446591854, 0.02327888458967209, 0.017284559085965157, 0.022905053570866585, 0.009221919812262058, 0.0019810425583273172, 0.006134537514299154, 0.016922762617468834, 0.017588160932064056, 0.005893068853765726, 0.011891557835042477, 0.01322713028639555, 0.02455773763358593, 0.005240938626229763, 0.3148265779018402]], [[0.26558879017829895, 0.09403882920742035, 0.01636906899511814, 0.0057508498430252075, 0.006367553491145372, 0.004228711593896151, 0.0031115314923226833, 0.003609446808695793, 0.14109766483306885, 0.004125934559851885, 0.07489622384309769, 0.009519216604530811, 0.0047645787708461285, 0.11661761999130249, 0.005571153946220875, 0.007038597017526627, 0.003909177612513304, 0.09194761514663696, 0.0024949887301772833, 0.004225615411996841, 0.13472677767276764], [0.13113662600517273, 0.08527591824531555, 0.02392914704978466, 0.03306470066308975, 0.017938407137989998, 0.006728284060955048, 0.0029951161704957485, 0.0038750662934035063, 0.0484541617333889, 0.017342107370495796, 0.04022115468978882, 0.013713742606341839, 0.008721733465790749, 0.05237742140889168, 0.14524313807487488, 0.007754764519631863, 0.010278604924678802, 0.04376662150025368, 0.0284372977912426, 0.005741412285715342, 0.27300456166267395], [0.05662711337208748, 0.13618168234825134, 0.012388456612825394, 0.0032019088976085186, 0.006783475633710623, 0.007029084488749504, 0.006145633291453123, 0.0058626169338822365, 0.16670067608356476, 0.006482069846242666, 0.1768931746482849, 0.014068874530494213, 0.009039649739861488, 0.1146017462015152, 0.005509051028639078, 0.014724206179380417, 0.005158673040568829, 0.1597883254289627, 0.005078648217022419, 0.007076784502714872, 0.08065808564424515], [0.03752053901553154, 0.21558958292007446, 0.004596559330821037, 0.0010434221476316452, 0.002160182688385248, 0.005202095955610275, 0.0007815974531695247, 0.0030810972675681114, 0.18192757666110992, 0.001627108664251864, 0.1348552107810974, 0.002321483800187707, 0.003117811633273959, 0.17933590710163116, 0.001511364826001227, 0.004831324331462383, 0.005269092973321676, 0.19190192222595215, 0.00031168246641755104, 0.017026441171765327, 0.005987915210425854], [0.09487453103065491, 0.09341859072446823, 0.03847121447324753, 0.011018904857337475, 0.045827362686395645, 0.03671429306268692, 0.006282885558903217, 0.040278974920511246, 0.10993166267871857, 0.01842513307929039, 0.10772006213665009, 0.03454936668276787, 0.04422258585691452, 0.09658186137676239, 0.010004638694226742, 0.042094506323337555, 0.019385574385523796, 0.09177394211292267, 0.005699257832020521, 0.04099990054965019, 0.011724863201379776], [0.02387300133705139, 0.10202337056398392, 0.021804165095090866, 0.00985508132725954, 0.029969818890094757, 0.07455045729875565, 0.009159722365438938, 0.043281570076942444, 0.14191865921020508, 0.012906347401440144, 0.12471935153007507, 0.020859744399785995, 0.03257687762379646, 0.12494011968374252, 0.007298897486180067, 0.01806515082716942, 0.0158005990087986, 0.12479043751955032, 0.007736991159617901, 0.03721790760755539, 0.016651645302772522], [0.023610305041074753, 0.0547194741666317, 0.0360870361328125, 0.0029487984720617533, 0.010010856203734875, 0.034537456929683685, 0.01922505721449852, 0.02585435099899769, 0.11497631669044495, 0.10020927339792252, 0.09633632004261017, 0.03748181089758873, 0.01256959792226553, 0.09781158715486526, 0.006707306951284409, 0.005925438366830349, 0.004597636871039867, 0.11413709074258804, 0.016220247372984886, 0.180653378367424, 0.005380709655582905], [0.028057744726538658, 0.10538987815380096, 0.036413758993148804, 0.003221964929252863, 0.01871502958238125, 0.048079609870910645, 0.0065278043039143085, 0.12541015446186066, 0.11406665295362473, 0.01100027747452259, 0.09611166268587112, 0.02621670812368393, 0.015598933212459087, 0.08933187276124954, 0.001358245499432087, 0.019838837906718254, 0.02396969124674797, 0.09816275537014008, 0.0014268438098952174, 0.11306899040937424, 0.018032660707831383], [0.1431487649679184, 0.04521920159459114, 0.041696202009916306, 0.027859866619110107, 0.017200490459799767, 0.01062860619276762, 0.01327102817595005, 0.013449130579829216, 0.07302835583686829, 0.06136089935898781, 0.07210838794708252, 0.041041094809770584, 0.01464100368320942, 0.07862245291471481, 0.1436930000782013, 0.010724261403083801, 0.020144421607255936, 0.06627938896417618, 0.06722260266542435, 0.02026352472603321, 0.018397297710180283], [0.013509711250662804, 0.10604076832532883, 0.008577943779528141, 0.007503134198486805, 0.0028315652161836624, 0.00890842080116272, 0.014938457868993282, 0.003228158224374056, 0.2002471685409546, 0.0031543313525617123, 0.16920195519924164, 0.009261908940970898, 0.005423345603048801, 0.19058552384376526, 0.002449778374284506, 0.003928577993065119, 0.0021634758450090885, 0.22285935282707214, 0.0015701638767495751, 0.007535433862358332, 0.016080843284726143], [0.13545969128608704, 0.040886975824832916, 0.04583040624856949, 0.03285825997591019, 0.02340688183903694, 0.011361693032085896, 0.010333271697163582, 0.018536794930696487, 0.07252980023622513, 0.06505326181650162, 0.07989931851625443, 0.04898839443922043, 0.02071228437125683, 0.07549750804901123, 0.10996069014072418, 0.013300914317369461, 0.025494372472167015, 0.0689706951379776, 0.06530041992664337, 0.02575356513261795, 0.009864803403615952], [0.04937243461608887, 0.0740010216832161, 0.019333472475409508, 0.004859511740505695, 0.012746487744152546, 0.01273135095834732, 0.016748983412981033, 0.01942925900220871, 0.16761787235736847, 0.018122896552085876, 0.19832155108451843, 0.032976433634757996, 0.01894698105752468, 0.11170350015163422, 0.004700617399066687, 0.02164396084845066, 0.011750560253858566, 0.1533830463886261, 0.013340073637664318, 0.018026527017354965, 0.02024337649345398], [0.07246682792901993, 0.061376672238111496, 0.04025539010763168, 0.01811395213007927, 0.05557577311992645, 0.03544148430228233, 0.012439658865332603, 0.048690326511859894, 0.0975189357995987, 0.01532752439379692, 0.10453550517559052, 0.04030942544341087, 0.06332384794950485, 0.0927039235830307, 0.0076184687204658985, 0.039776429533958435, 0.026284415274858475, 0.09355757385492325, 0.010980324819684029, 0.05367249995470047, 0.010031096637248993], [0.16757620871067047, 0.03943340480327606, 0.03068024106323719, 0.03199508413672447, 0.016141662374138832, 0.007385647390037775, 0.008193014189600945, 0.007688628509640694, 0.06998999416828156, 0.04265197366476059, 0.06818999350070953, 0.029732711613178253, 0.01390574686229229, 0.08738740533590317, 0.17690660059452057, 0.008325359784066677, 0.019186673685908318, 0.06730759888887405, 0.07780399918556213, 0.012207165360450745, 0.017310917377471924], [0.0932956263422966, 0.14948154985904694, 0.010076980106532574, 0.0020874112378805876, 0.0011379675706848502, 0.0015003447188064456, 0.0006550786783918738, 0.0007773456163704395, 0.16105885803699493, 0.0007116972119547427, 0.1333688646554947, 0.004669340793043375, 0.0022829456720501184, 0.21149316430091858, 0.0013973312452435493, 0.0037779216654598713, 0.004437913186848164, 0.2104821652173996, 0.0002933921932708472, 0.004292746540158987, 0.00272135017439723], [0.007787148468196392, 0.10694380104541779, 0.01346349623054266, 0.004432430025190115, 0.015615996904671192, 0.019893471151590347, 0.0025623932015150785, 0.010402700863778591, 0.15950354933738708, 0.009616762399673462, 0.14493423700332642, 0.012064037844538689, 0.023462818935513496, 0.1713445782661438, 0.0007929631392471492, 0.0032566331792622805, 0.003380129113793373, 0.20650772750377655, 0.009156821295619011, 0.04596429690718651, 0.02891395054757595], [0.04211071878671646, 0.1266331523656845, 0.027755126357078552, 0.003475493984296918, 0.007236826233565807, 0.020458288490772247, 0.003881048643961549, 0.0329253226518631, 0.13037386536598206, 0.005956823006272316, 0.10566119849681854, 0.019356904551386833, 0.00995546393096447, 0.13587503135204315, 0.0015734391054138541, 0.014126638881862164, 0.01731128990650177, 0.16046194732189178, 0.0019549785647541285, 0.09583855420351028, 0.03707785904407501], [0.12455674260854721, 0.03878221660852432, 0.039761003106832504, 0.04100220650434494, 0.019984038546681404, 0.009697604924440384, 0.012865182012319565, 0.011311476118862629, 0.05856650695204735, 0.04899684712290764, 0.06083421781659126, 0.04033743590116501, 0.019886882975697517, 0.07095550000667572, 0.16801956295967102, 0.010074298828840256, 0.02198408916592598, 0.06352761387825012, 0.08742779493331909, 0.02170795202255249, 0.02972082793712616], [0.008860107511281967, 0.11918371915817261, 0.010199198499321938, 0.002698441268876195, 0.001269131782464683, 0.011875550262629986, 0.018366239964962006, 0.007572325412184, 0.18581008911132812, 0.001988362753763795, 0.16499771177768707, 0.009032531641423702, 0.002793962601572275, 0.15723635256290436, 0.002362304599955678, 0.008907852694392204, 0.006272098049521446, 0.24605697393417358, 0.0005150894867256284, 0.03004327230155468, 0.003958644345402718], [0.017140738666057587, 0.10490453243255615, 0.012895094230771065, 0.007308460306376219, 0.010809963569045067, 0.022576788440346718, 0.02207031287252903, 0.012769900262355804, 0.16034215688705444, 0.008021066896617413, 0.14901475608348846, 0.012709483504295349, 0.011360526084899902, 0.13712063431739807, 0.0022895541042089462, 0.015825746580958366, 0.008677501231431961, 0.17736278474330902, 0.0019365731859579682, 0.07405883073806763, 0.03080463409423828], [0.028651989996433258, 0.2775286138057709, 0.020378341898322105, 0.0038428790867328644, 0.0030249941628426313, 0.006915273144841194, 0.008725118823349476, 0.0048050605691969395, 0.1412826031446457, 0.001776503981091082, 0.08759328722953796, 0.01050774846225977, 0.004210297483950853, 0.14000137150287628, 0.012780969962477684, 0.02539588324725628, 0.011525738053023815, 0.14990626275539398, 0.0002932411734946072, 0.017401598393917084, 0.043452270328998566]], [[0.23729142546653748, 0.06594868004322052, 0.02474948763847351, 0.028221530839800835, 0.02037162519991398, 0.019625483080744743, 0.008813553489744663, 0.061170198023319244, 0.0713004544377327, 0.010128703899681568, 0.04810205101966858, 0.02045929618179798, 0.030029019340872765, 0.07396779209375381, 0.008807883597910404, 0.02411787025630474, 0.012737032026052475, 0.07247547805309296, 0.010234602726995945, 0.06212259456515312, 0.08932523429393768], [0.022916972637176514, 0.07649432122707367, 0.028593340888619423, 0.04681188985705376, 0.022923467680811882, 0.0216451995074749, 0.027268199250102043, 0.029325004667043686, 0.09820672124624252, 0.04874846711754799, 0.07122159004211426, 0.02508113719522953, 0.014921925030648708, 0.09861328452825546, 0.16583704948425293, 0.019824882969260216, 0.02142028510570526, 0.07286003232002258, 0.02880062721669674, 0.018175696954131126, 0.040309838950634], [0.014764976687729359, 0.08134976029396057, 0.004022393841296434, 0.05220203846693039, 0.09066320210695267, 0.06087532266974449, 0.008987540379166603, 0.009592088870704174, 0.10088042914867401, 0.014435183256864548, 0.09787817299365997, 0.005478500388562679, 0.10122969001531601, 0.10110590606927872, 0.005203705746680498, 0.026243096217513084, 0.014431235380470753, 0.10852843523025513, 0.003976043313741684, 0.031958043575286865, 0.06619434803724289], [0.02341650426387787, 0.05695488676428795, 0.06692058593034744, 0.057772647589445114, 0.06756827235221863, 0.028145238757133484, 0.015483853407204151, 0.07944394648075104, 0.03569849953055382, 0.02348831482231617, 0.03307827562093735, 0.06884818524122238, 0.10398944467306137, 0.0530230812728405, 0.027255918830633163, 0.04668019711971283, 0.07202915102243423, 0.0329505130648613, 0.007418063934892416, 0.06929129362106323, 0.030543114989995956], [0.025720292702317238, 0.095492422580719, 0.0032681007869541645, 0.031241539865732193, 0.002688293345272541, 0.018716448917984962, 0.006430925335735083, 0.01960054226219654, 0.1374049335718155, 0.003987734671682119, 0.11057040095329285, 0.0062907543033361435, 0.00702086603268981, 0.1850692331790924, 0.056699544191360474, 0.05983838438987732, 0.023070335388183594, 0.12343768030405045, 0.0014028807636350393, 0.026232708245515823, 0.05581599846482277], [0.02471972443163395, 0.1165306493639946, 0.013427200727164745, 0.05213351547718048, 0.020498042926192284, 0.00833194237202406, 0.0032414537854492664, 0.012771292589604855, 0.14045332372188568, 0.011363896541297436, 0.1341373324394226, 0.02021767385303974, 0.021549014374613762, 0.1607789397239685, 0.020049432292580605, 0.019639845937490463, 0.011411604471504688, 0.12551647424697876, 0.004320461302995682, 0.027013642713427544, 0.05189457908272743], [0.08414098620414734, 0.13935694098472595, 0.014387767761945724, 0.028293494135141373, 0.0040482706390321255, 0.005020517855882645, 0.00040665711276233196, 0.006919606123119593, 0.1458335518836975, 0.0048038046807050705, 0.10503735393285751, 0.016461258754134178, 0.006492316722869873, 0.214237779378891, 0.004606764297932386, 0.010305006057024002, 0.008087674155831337, 0.13674822449684143, 0.0012965125497430563, 0.01560231763869524, 0.04791317880153656], [0.09967061877250671, 0.09652547538280487, 0.017010368406772614, 0.022670675069093704, 0.02135111391544342, 0.02575652115046978, 0.005748804192990065, 0.005883625242859125, 0.09768540412187576, 0.009001852944493294, 0.09733152389526367, 0.03193971887230873, 0.035186924040317535, 0.15223397314548492, 0.004413517192006111, 0.01732836663722992, 0.015633800998330116, 0.1128641813993454, 0.0036169032100588083, 0.012798767536878586, 0.11534784734249115], [0.04325999319553375, 0.07754167169332504, 0.020227210596203804, 0.024830451235175133, 0.007765589281916618, 0.013263381086289883, 0.02090645395219326, 0.013532374054193497, 0.10345951467752457, 0.03914952650666237, 0.07640361040830612, 0.024786673486232758, 0.010318538174033165, 0.15048286318778992, 0.1322512924671173, 0.020525537431240082, 0.022676147520542145, 0.1013667955994606, 0.03802362456917763, 0.017780350521206856, 0.0414484478533268], [0.22392749786376953, 0.12789301574230194, 0.004017663653939962, 0.01623760163784027, 0.001542653189972043, 0.00661470415070653, 0.0009985840879380703, 0.008038302883505821, 0.12455856055021286, 0.0007631565677002072, 0.05676005780696869, 0.004969507921487093, 0.005474775098264217, 0.18696901202201843, 0.0034722513519227505, 0.01512005552649498, 0.013442281633615494, 0.13272345066070557, 0.0005829510046169162, 0.008193432353436947, 0.05770043656229973], [0.03608871251344681, 0.08350495249032974, 0.018151352182030678, 0.029041148722171783, 0.007106950040906668, 0.011563437059521675, 0.012804064899682999, 0.013200879096984863, 0.1223350316286087, 0.029573902487754822, 0.07644759863615036, 0.019539281725883484, 0.009775213897228241, 0.1638650745153427, 0.13343386352062225, 0.027322452515363693, 0.023843271657824516, 0.10875393450260162, 0.022156400606036186, 0.01858876459300518, 0.032903701066970825], [0.015735920518636703, 0.07087165862321854, 0.0028007742948830128, 0.034255217760801315, 0.030461512506008148, 0.049625080078840256, 0.004681483376771212, 0.010534373112022877, 0.11140339076519012, 0.009022676385939121, 0.0890837088227272, 0.004605824593454599, 0.07369820028543472, 0.14776790142059326, 0.005456052254885435, 0.03552338108420372, 0.014866823330521584, 0.14753641188144684, 0.004451813641935587, 0.04687389358878136, 0.09074392169713974], [0.028431657701730728, 0.07247871160507202, 0.0023205894976854324, 0.02359808422625065, 0.002304455963894725, 0.016568392515182495, 0.0026033809408545494, 0.015911972150206566, 0.11582186073064804, 0.0022649853490293026, 0.10172130912542343, 0.006846756208688021, 0.011077415198087692, 0.2127750962972641, 0.027262039482593536, 0.05914941430091858, 0.032398659735918045, 0.15980611741542816, 0.0019303789595142007, 0.03411933779716492, 0.07060939073562622], [0.02836260199546814, 0.06525945663452148, 0.02125655859708786, 0.024934763088822365, 0.008864152245223522, 0.009233267046511173, 0.020268572494387627, 0.014742488972842693, 0.09326234459877014, 0.06014532968401909, 0.06903790682554245, 0.023762984201312065, 0.010432408191263676, 0.11532408744096756, 0.19494859874248505, 0.01902265101671219, 0.023456959053874016, 0.0974852442741394, 0.054320890456438065, 0.017544236034154892, 0.02833450585603714], [0.09764397889375687, 0.0282551571726799, 0.12486902624368668, 0.025234784930944443, 0.02684335596859455, 0.015962783247232437, 0.03029121644794941, 0.08378811925649643, 0.01868448778986931, 0.06976497173309326, 0.013064843602478504, 0.13633498549461365, 0.03970547765493393, 0.026120727881789207, 0.02033666893839836, 0.04930967837572098, 0.04777557775378227, 0.019392166286706924, 0.03016328252851963, 0.06643731892108917, 0.03002137690782547], [0.04422851651906967, 0.09827166050672531, 0.025919342413544655, 0.013168315403163433, 0.018232561647892, 0.013576825149357319, 0.00738978898152709, 0.04781078174710274, 0.10660655796527863, 0.022934777662158012, 0.06996359676122665, 0.03334517031908035, 0.04807271435856819, 0.158933624625206, 0.015777336433529854, 0.025708025321364403, 0.009281144477427006, 0.10995503515005112, 0.012045699171721935, 0.08196127414703369, 0.03681722283363342], [0.12195790559053421, 0.06667391210794449, 0.02274545282125473, 0.01450387667864561, 0.02794680744409561, 0.009372596628963947, 0.007348982151597738, 0.006161050871014595, 0.09683094918727875, 0.01157344039529562, 0.07336433976888657, 0.0289918165653944, 0.06585706770420074, 0.15708912909030914, 0.0063599636778235435, 0.014968992210924625, 0.007778270170092583, 0.11532194912433624, 0.014004378579556942, 0.02743140235543251, 0.10371777415275574], [0.022474255412817, 0.05513110011816025, 0.022110717371106148, 0.024642521515488625, 0.008964816108345985, 0.011181441135704517, 0.025327231734991074, 0.013033123686909676, 0.08578278124332428, 0.0392015166580677, 0.06106628477573395, 0.025469951331615448, 0.011636314913630486, 0.12165850400924683, 0.22950705885887146, 0.025186773389577866, 0.022224251180887222, 0.0931534394621849, 0.05560801923274994, 0.021803880110383034, 0.024835942313075066], [0.09460600465536118, 0.15634946525096893, 0.0015835457015782595, 0.006193053908646107, 0.00250692549161613, 0.0020008159335702658, 0.00025652998010627925, 0.0007836592849344015, 0.13681064546108246, 0.0005302885547280312, 0.09115661680698395, 0.0023095968645066023, 0.007466805167496204, 0.19821694493293762, 0.00018259031639900059, 0.004891009535640478, 0.01610884629189968, 0.2393350452184677, 0.00019619434897322208, 0.005910202860832214, 0.03260521963238716], [0.015484810806810856, 0.08364231139421463, 0.012690429575741291, 0.03431424871087074, 0.013817038387060165, 0.03190973773598671, 0.007000762969255447, 0.019398314878344536, 0.1147703155875206, 0.011379807256162167, 0.10260812193155289, 0.016697030514478683, 0.03351200744509697, 0.1652175635099411, 0.010466202162206173, 0.027682265266776085, 0.04737738519906998, 0.19219741225242615, 0.004225045908242464, 0.026184091344475746, 0.029425116255879402], [0.020507415756583214, 0.11314546316862106, 0.01242201216518879, 0.0370108000934124, 0.009697767905890942, 0.017891108989715576, 0.00549188582226634, 0.03408972918987274, 0.11014685779809952, 0.003426177194342017, 0.07994885742664337, 0.014276959002017975, 0.028265271335840225, 0.17037247121334076, 0.005380464252084494, 0.032021913677453995, 0.018108254298567772, 0.17154347896575928, 0.0038749936502426863, 0.05924857407808304, 0.05312950164079666]], [[0.22199004888534546, 0.06692763417959213, 0.04811352491378784, 0.025232186540961266, 0.020345818251371384, 0.01861652173101902, 0.014561349526047707, 0.021132120862603188, 0.05158432573080063, 0.049476224929094315, 0.03825816512107849, 0.04552263766527176, 0.021747412160038948, 0.04408855363726616, 0.03083236701786518, 0.06243288889527321, 0.04536882042884827, 0.04306012764573097, 0.0418161116540432, 0.015967795625329018, 0.0729253888130188], [0.06005462259054184, 0.09957373142242432, 0.01790417730808258, 0.026179112493991852, 0.028142308816313744, 0.02719394490122795, 0.012541296891868114, 0.014201154932379723, 0.12151604890823364, 0.015121594071388245, 0.09515279531478882, 0.015934227034449577, 0.024481480941176414, 0.15323220193386078, 0.02324572578072548, 0.036640606820583344, 0.01986316405236721, 0.13146397471427917, 0.02150040678679943, 0.019502729177474976, 0.03655471280217171], [0.04084492847323418, 0.042389292269945145, 0.018183471634984016, 0.08717892318964005, 0.021861765533685684, 0.02434568852186203, 0.0371646024286747, 0.01648707315325737, 0.02008765935897827, 0.08487726747989655, 0.018956132233142853, 0.014892488718032837, 0.036855850368738174, 0.023029377683997154, 0.12805552780628204, 0.02135431580245495, 0.018357960507273674, 0.020118487998843193, 0.1620406210422516, 0.024340862408280373, 0.13857775926589966], [0.04619760066270828, 0.05594771355390549, 0.03865141049027443, 0.029173659160733223, 0.05631980299949646, 0.03495434299111366, 0.02724943496286869, 0.020432572811841965, 0.030767591670155525, 0.09779798239469528, 0.027162643149495125, 0.027595825493335724, 0.038929324597120285, 0.030889514833688736, 0.0680999755859375, 0.017770811915397644, 0.034554373472929, 0.03192085400223732, 0.08353617787361145, 0.03929172456264496, 0.1627567559480667], [0.05897057428956032, 0.05015353858470917, 0.04678792133927345, 0.035110119730234146, 0.04129203036427498, 0.03985651209950447, 0.05780569463968277, 0.031991079449653625, 0.03166363388299942, 0.07579455524682999, 0.025018954649567604, 0.04362370818853378, 0.041974544525146484, 0.026622014120221138, 0.06951995193958282, 0.02104617841541767, 0.028116164728999138, 0.025606263428926468, 0.07179167866706848, 0.048662781715393066, 0.12859199941158295], [0.04222496598958969, 0.04806580767035484, 0.04234984144568443, 0.04593654349446297, 0.062359292060136795, 0.025514760985970497, 0.033181894570589066, 0.04590233042836189, 0.04006217420101166, 0.06279348582029343, 0.030765369534492493, 0.03912876918911934, 0.05116697773337364, 0.03452114760875702, 0.05422641709446907, 0.029582837596535683, 0.05335935577750206, 0.0364161916077137, 0.05582006275653839, 0.06298431009054184, 0.10363752394914627], [0.054138343781232834, 0.11450689285993576, 0.028475133702158928, 0.06599214673042297, 0.027577202767133713, 0.031015116721391678, 0.008433187380433083, 0.016807420179247856, 0.05911625921726227, 0.014725949615240097, 0.062234655022621155, 0.02303183265030384, 0.042301859706640244, 0.09392943233251572, 0.08302781730890274, 0.04386252164840698, 0.03346949443221092, 0.0551595501601696, 0.05168122053146362, 0.045529358088970184, 0.04498458281159401], [0.08949577808380127, 0.0672561451792717, 0.03715018928050995, 0.08414451032876968, 0.030521970242261887, 0.026909904554486275, 0.02384468913078308, 0.019461028277873993, 0.03714779391884804, 0.02885148860514164, 0.03498781844973564, 0.02534249797463417, 0.025620440021157265, 0.04586130380630493, 0.12610812485218048, 0.026808511465787888, 0.06229003518819809, 0.03434109687805176, 0.0649329423904419, 0.019615886732935905, 0.08930785953998566], [0.08339371532201767, 0.09283439815044403, 0.00943674985319376, 0.0196982529014349, 0.01823982410132885, 0.023620888590812683, 0.008234535343945026, 0.00860225223004818, 0.12455414980649948, 0.008310412988066673, 0.11440391093492508, 0.009650828316807747, 0.023270312696695328, 0.19132666289806366, 0.01238059252500534, 0.027237731963396072, 0.01302036177366972, 0.1581566482782364, 0.010592182166874409, 0.01895967870950699, 0.024075878784060478], [0.09132857620716095, 0.024773601442575455, 0.03579741716384888, 0.019781649112701416, 0.017267543822526932, 0.01698463037610054, 0.05947834998369217, 0.036903608590364456, 0.02347845397889614, 0.13074178993701935, 0.013556759804487228, 0.032851457595825195, 0.03801916539669037, 0.02207832597196102, 0.14133548736572266, 0.02327478677034378, 0.023371051996946335, 0.021467456594109535, 0.10625527054071426, 0.02331482246518135, 0.09793977439403534], [0.08424296975135803, 0.10357273370027542, 0.01022186130285263, 0.017401451244950294, 0.016323750838637352, 0.02668493613600731, 0.009328922256827354, 0.007657896727323532, 0.12464974075555801, 0.0070705171674489975, 0.1162431612610817, 0.01013600081205368, 0.020186979323625565, 0.18652988970279694, 0.012611671350896358, 0.02605089172720909, 0.012951213866472244, 0.15208196640014648, 0.009505287744104862, 0.022348012775182724, 0.024200154468417168], [0.05914260447025299, 0.02959388494491577, 0.014770775102078915, 0.0738183781504631, 0.017504684627056122, 0.018426019698381424, 0.043784379959106445, 0.015598049387335777, 0.016784587875008583, 0.0921194925904274, 0.0153208551928401, 0.015355221927165985, 0.03358988091349602, 0.01804998144507408, 0.1339821070432663, 0.020495308563113213, 0.015702998265624046, 0.015699783340096474, 0.15040597319602966, 0.03517363965511322, 0.1646813303232193], [0.08121494203805923, 0.032731205224990845, 0.03165271133184433, 0.0197939220815897, 0.02379973791539669, 0.02807426080107689, 0.06170091778039932, 0.02099788561463356, 0.026387521997094154, 0.09177306294441223, 0.019728180021047592, 0.038056883960962296, 0.03461235389113426, 0.02304835617542267, 0.08065439015626907, 0.027314629405736923, 0.019820688292384148, 0.023893242701888084, 0.09682130813598633, 0.0549396388232708, 0.1629841923713684], [0.06337978690862656, 0.0926607996225357, 0.009753666818141937, 0.013714632950723171, 0.017539409920573235, 0.026385826990008354, 0.0067182318307459354, 0.007443481124937534, 0.12863534688949585, 0.007992533035576344, 0.11780156940221786, 0.010042550973594189, 0.02462943084537983, 0.18871808052062988, 0.011682194657623768, 0.028042973950505257, 0.01269742101430893, 0.18112634122371674, 0.00919260922819376, 0.02079044096171856, 0.021052632480859756], [0.04905470833182335, 0.05542798712849617, 0.021158268675208092, 0.032011132687330246, 0.015120035968720913, 0.01107713021337986, 0.026523863896727562, 0.022653909400105476, 0.04443739354610443, 0.09503308683633804, 0.033793654292821884, 0.017869774252176285, 0.0294260885566473, 0.050972335040569305, 0.06505521386861801, 0.028495540842413902, 0.030399229377508163, 0.045425768941640854, 0.17708954215049744, 0.053732167929410934, 0.0952431783080101], [0.0699012503027916, 0.10470018535852432, 0.016687756404280663, 0.029580719769001007, 0.00978908222168684, 0.013353370130062103, 0.008608144707977772, 0.004483120050281286, 0.07382556796073914, 0.03300671651959419, 0.08670700341463089, 0.012381786480545998, 0.01303858868777752, 0.13712899386882782, 0.1390254646539688, 0.036867864429950714, 0.020674586296081543, 0.08232855051755905, 0.05773002281785011, 0.016972627490758896, 0.033208563923835754], [0.08778724819421768, 0.08878563344478607, 0.017457302659749985, 0.02913876436650753, 0.020318906754255295, 0.031099339947104454, 0.018068158999085426, 0.00868719257414341, 0.08494192361831665, 0.021805183961987495, 0.08076106756925583, 0.014189998619258404, 0.020158203318715096, 0.12068028002977371, 0.09256673604249954, 0.040209487080574036, 0.018692325800657272, 0.08004627376794815, 0.049742795526981354, 0.02087637037038803, 0.053986821323633194], [0.06031046807765961, 0.09909447282552719, 0.00847402960062027, 0.011080337688326836, 0.013301344588398933, 0.022700229659676552, 0.006318054161965847, 0.005272957030683756, 0.132672980427742, 0.005497368052601814, 0.1311715692281723, 0.008948225528001785, 0.018035106360912323, 0.21588969230651855, 0.008007639087736607, 0.022834576666355133, 0.009463073685765266, 0.1820622831583023, 0.005249828100204468, 0.016628211364150047, 0.016987493261694908], [0.07130985707044601, 0.035143278539180756, 0.022981997579336166, 0.017021076753735542, 0.010886843316257, 0.01569235324859619, 0.027793284505605698, 0.049903396517038345, 0.03909953683614731, 0.11691930145025253, 0.02339715138077736, 0.02704719454050064, 0.03050210513174534, 0.044347457587718964, 0.07597353309392929, 0.04918943718075752, 0.03649938106536865, 0.036545295268297195, 0.17264162003993988, 0.051492661237716675, 0.0456133671104908], [0.08696915209293365, 0.06134875863790512, 0.024603577330708504, 0.057909250259399414, 0.010572976432740688, 0.022778954356908798, 0.02095627784729004, 0.011508442461490631, 0.04291617125272751, 0.01828300952911377, 0.03379559889435768, 0.01994704082608223, 0.016189031302928925, 0.06221068650484085, 0.17780444025993347, 0.0439920574426651, 0.015109078958630562, 0.044391267001628876, 0.16424576938152313, 0.029456136748194695, 0.03501240164041519], [0.03749699518084526, 0.10357926785945892, 0.08939961344003677, 0.021403847262263298, 0.04771572723984718, 0.05265405401587486, 0.02028755098581314, 0.025716256350278854, 0.06242135912179947, 0.07678427547216415, 0.045253291726112366, 0.05646418035030365, 0.03581313416361809, 0.047288693487644196, 0.056129418313503265, 0.024530448019504547, 0.023732425644993782, 0.05200331658124924, 0.0502590611577034, 0.017038855701684952, 0.05402820557355881]], [[0.824591875076294, 0.010378125123679638, 0.005766293033957481, 0.0031191555317491293, 0.0010985815897583961, 0.0018605514196678996, 0.0011260169558227062, 0.0035712590906769037, 0.012701485306024551, 0.004141972400248051, 0.013351249508559704, 0.007402315735816956, 0.005852051544934511, 0.02653350494801998, 0.0027384613640606403, 0.006167699582874775, 0.009626627899706364, 0.02244802564382553, 0.006407605949789286, 0.007998066022992134, 0.02311905473470688], [0.5342287421226501, 0.059766337275505066, 0.17359216511249542, 0.052820876240730286, 0.009739653207361698, 0.001509720808826387, 0.0016350889345631003, 0.006041693966835737, 0.011859211139380932, 0.00514074694365263, 0.0024777406360954046, 0.0008836109773255885, 0.0009910829830914736, 0.0028172864113003016, 0.00020851301087532192, 0.00011927627201657742, 0.001832581590861082, 0.015394879505038261, 0.02386186644434929, 0.03440605849027634, 0.060672879219055176], [0.43565887212753296, 0.004346387926489115, 0.009181423112750053, 0.09367543458938599, 0.10163936764001846, 0.002897102851420641, 0.0012406912865117192, 0.005467795301228762, 0.012832500040531158, 0.009582635015249252, 0.004502550233155489, 0.00014691257092636079, 0.0008741862839087844, 0.004276565741747618, 0.0010142149403691292, 0.0006575576844625175, 0.0006849226192571223, 0.0021376488730311394, 0.028099212795495987, 0.12247386574745178, 0.15861015021800995], [0.24128791689872742, 0.008426440879702568, 0.022710202261805534, 0.0870392844080925, 0.19308768212795258, 0.04613365978002548, 0.06475487351417542, 0.013903074897825718, 0.025870976969599724, 0.018345199525356293, 0.023327719420194626, 0.004048673436045647, 0.0008496481459587812, 0.02807575650513172, 0.007218929007649422, 0.0029984810389578342, 0.001417152350768447, 0.0028879260644316673, 0.00321799423545599, 0.03861935809254646, 0.16577893495559692], [0.00785090308636427, 0.00042701110942289233, 0.0014662090688943863, 0.0030146921053528786, 0.0075623332522809505, 0.14632819592952728, 0.7818629741668701, 0.02783757448196411, 0.0020143731962889433, 0.010678506456315517, 0.0009126196382567286, 0.0010817262809723616, 1.693223930487875e-05, 0.0010847842786461115, 0.0006093656411394477, 0.0003090854734182358, 0.00032235580147244036, 0.00013885660155210644, 0.00019976920157205313, 9.351286280434579e-05, 0.0061880978755652905], [0.16262413561344147, 0.0016496271127834916, 0.0002509436453692615, 0.00026948729646392167, 0.0004625094879884273, 0.006544583477079868, 0.617263674736023, 0.17419125139713287, 0.020185235887765884, 0.00482341879978776, 0.0015973005210980773, 0.0004494992026593536, 0.00030021852580830455, 0.0035297705326229334, 0.00033152231480926275, 0.00017611525254324079, 0.0006248343270272017, 0.0017205984331667423, 0.0004598537052515894, 6.715628842357546e-05, 0.0024782794062048197], [0.08812239021062851, 0.0028914781287312508, 0.003049739869311452, 0.001821972313337028, 0.0007721683359704912, 0.013604387640953064, 0.019907161593437195, 0.3777065575122833, 0.32907193899154663, 0.12192022800445557, 0.012310164980590343, 0.00338891358114779, 0.004791345912963152, 0.007267968729138374, 0.004163831938058138, 0.00031472527189180255, 0.0004896281170658767, 0.0025229109451174736, 0.0022753726225346327, 0.00020399215281940997, 0.0034030647948384285], [0.2096620351076126, 0.0008519791881553829, 0.0028849116060882807, 0.0011395991314202547, 0.00010835667490027845, 0.0001193368952954188, 0.002380198333412409, 0.03322956711053848, 0.48105552792549133, 0.21503037214279175, 0.026912398636341095, 0.0036991701927036047, 0.002211362589150667, 0.004586950875818729, 0.004099123179912567, 0.0008423299877904356, 0.00023411134316120297, 0.0018054003594443202, 0.00405707536265254, 0.0017939654644578695, 0.0032962264958769083], [0.2741990089416504, 0.0007500270148739219, 0.0014753289287909865, 0.002431420609354973, 0.0004985568812116981, 0.00015857824473641813, 0.0004553062899503857, 0.011576257646083832, 0.14115497469902039, 0.3479718565940857, 0.15019315481185913, 0.019417326897382736, 0.005199265666306019, 0.006554771680384874, 0.003546549705788493, 0.007087639532983303, 0.005572670139372349, 0.003604214172810316, 0.0023389009293168783, 0.003316196147352457, 0.012497959658503532], [0.49091655015945435, 0.00046036395360715687, 0.0005627765785902739, 0.0004346384957898408, 0.000609277980402112, 0.0002156313566956669, 0.00025230663595721126, 0.0006504470948129892, 0.017480412498116493, 0.03227868303656578, 0.3029420077800751, 0.09368082880973816, 0.025512121617794037, 0.004392672795802355, 0.0024611633270978928, 0.004188916180282831, 0.002744299126788974, 0.0033462897408753633, 0.004595062229782343, 0.0032527472358196974, 0.009022790938615799], [0.35160282254219055, 0.0004347316571511328, 0.00032183018629439175, 0.0004962396342307329, 0.0006071068346500397, 0.0007938274065963924, 0.000395399663830176, 0.0007791697280481458, 0.002625096123665571, 0.017417116090655327, 0.09307222813367844, 0.2758517563343048, 0.1908961683511734, 0.015264643356204033, 0.0042451354674994946, 0.0037759088445454836, 0.006549804471433163, 0.006931070238351822, 0.0042079719714820385, 0.0032431334257125854, 0.020488880574703217], [0.1724594235420227, 0.0003381234419066459, 6.31168732070364e-05, 0.00032156467204913497, 0.00019888620590791106, 0.00039360602386295795, 0.0008347246330231428, 0.0022253210190683603, 0.0017046213615685701, 0.005114647559821606, 0.01825043372809887, 0.0230798851698637, 0.47928494215011597, 0.12520518898963928, 0.06166233494877815, 0.01342599093914032, 0.010136186145246029, 0.007544180378317833, 0.023892978206276894, 0.01454127486795187, 0.0393226183950901], [0.005295174662023783, 0.00010341241431888193, 0.0024903491139411926, 0.00014737799938302487, 8.76662215887336e-06, 9.98424511635676e-05, 0.0032574778888374567, 0.004056052304804325, 0.0008385201799683273, 0.005326251499354839, 0.00039400733658112586, 0.035067275166511536, 0.02050883322954178, 0.14147573709487915, 0.7096432447433472, 0.0245957113802433, 0.0035756099969148636, 0.0013694543158635497, 0.023379698395729065, 0.011690708808600903, 0.006676549557596445], [0.34304267168045044, 0.0013779227156192064, 0.0014090791810303926, 0.0011103611905127764, 0.0003990849363617599, 0.0003479531442280859, 0.000606179644819349, 0.005924126133322716, 0.020362699404358864, 0.012231512926518917, 0.0034658752847462893, 0.0032675284892320633, 0.015538561157882214, 0.13253262639045715, 0.1845209300518036, 0.13034911453723907, 0.039511654525995255, 0.02353549562394619, 0.009731843136250973, 0.013408783823251724, 0.05732597038149834], [0.3876371681690216, 0.005978464614599943, 0.0010932296281680465, 0.0008321318309754133, 0.00019786327902693301, 9.955615678336471e-05, 5.619421790470369e-05, 0.0007294949609786272, 0.024201275780797005, 0.009728603065013885, 0.012381301261484623, 0.002371134702116251, 0.0036362078972160816, 0.07470366358757019, 0.06034966930747032, 0.04924774914979935, 0.06284907460212708, 0.2141231894493103, 0.05020448938012123, 0.006751166190952063, 0.032828446477651596], [0.21614201366901398, 0.003699545981362462, 0.0005001634708605707, 0.00017988822946790606, 5.9175174101255834e-05, 0.00019172886095475405, 6.24866588623263e-05, 0.0002448833838570863, 0.0026065674610435963, 0.005371395032852888, 0.00847326498478651, 0.0016602491959929466, 0.0003446317568887025, 0.0029539307579398155, 0.00967614445835352, 0.046198856085538864, 0.3262399435043335, 0.30284690856933594, 0.03835894167423248, 0.010747483931481838, 0.02344176545739174], [0.15382273495197296, 0.012789121828973293, 0.012477774173021317, 0.0009519910090602934, 0.00012871234503109008, 0.00014867237769067287, 0.00010500192729523405, 0.0001343102048849687, 0.0009976743021979928, 0.0014147459296509624, 0.0045995344407856464, 0.00626183720305562, 0.0014053484192118049, 0.001355498912744224, 0.0023205482866615057, 0.015117920003831387, 0.03941601887345314, 0.34260275959968567, 0.23918382823467255, 0.12506553530693054, 0.039700452238321304], [0.2452927529811859, 0.01285393163561821, 0.01786554418504238, 0.004452993627637625, 0.00036269446718506515, 0.00021080598526168615, 0.0001811694382922724, 0.000958634540438652, 0.0019515713211148977, 0.0014067557640373707, 0.002372023183852434, 0.0029878795612603426, 0.002670346526429057, 0.004447196144610643, 0.0009742556139826775, 0.0024811672046780586, 0.04152453690767288, 0.1410057246685028, 0.13292008638381958, 0.26299887895584106, 0.12008100003004074], [0.734165608882904, 0.005185094196349382, 0.00832668598741293, 0.004811993800103664, 0.000989491119980812, 0.00011432968312874436, 8.783744124229997e-05, 0.0005007678992114961, 0.004428290296345949, 0.0007210040930658579, 0.002238929970189929, 0.000997008290141821, 0.002526929834857583, 0.018321149051189423, 0.001833712449297309, 0.0016850497340783477, 0.002461131429299712, 0.03905957192182541, 0.02647656761109829, 0.06348292529582977, 0.08158577978610992], [0.7497766613960266, 0.0006752347690053284, 0.0026697469875216484, 0.008469119668006897, 0.006518267560750246, 0.0008324513328261673, 0.0001240984711330384, 0.00012223976955283433, 0.0010849547106772661, 0.000419075891841203, 0.0007800217135809362, 0.00047515175538137555, 0.0004785924102179706, 0.007284590974450111, 0.0019418238662183285, 0.0014838407514616847, 0.0011195598635822535, 0.00512359756976366, 0.012501241639256477, 0.04284704104065895, 0.15527254343032837], [0.6737840175628662, 0.00733209028840065, 0.007548048626631498, 0.013744990341365337, 0.025146571919322014, 0.02017270214855671, 0.009425820782780647, 0.002742552198469639, 0.0055400654673576355, 0.004542164504528046, 0.0041089230217039585, 0.004000868648290634, 0.002552682999521494, 0.012812661938369274, 0.004299753811210394, 0.002165229758247733, 0.006613217294216156, 0.019909581169486046, 0.013220272958278656, 0.02610587701201439, 0.1342318207025528]], [[0.1206217110157013, 0.10020383447408676, 0.012022322975099087, 0.030213749036192894, 0.013953039422631264, 0.015771372243762016, 0.055137649178504944, 0.019703876227140427, 0.11314591765403748, 0.06722107529640198, 0.08899688720703125, 0.008677576668560505, 0.028129059821367264, 0.08713256567716599, 0.05610702186822891, 0.010120128281414509, 0.017477789893746376, 0.06473176926374435, 0.05803683027625084, 0.0061423140577971935, 0.0264535304158926], [0.048804961144924164, 0.08735387772321701, 0.015807632356882095, 0.014749597758054733, 0.027821287512779236, 0.026001615449786186, 0.028247462585568428, 0.01438464317470789, 0.11559440940618515, 0.03234037384390831, 0.09532520174980164, 0.017882388085126877, 0.03154110908508301, 0.13784536719322205, 0.02377001941204071, 0.013712644577026367, 0.010907694697380066, 0.1302947700023651, 0.038728758692741394, 0.022207772359251976, 0.06667838990688324], [0.08680471032857895, 0.06238354742527008, 0.002675961470231414, 0.020049424842000008, 0.019531015306711197, 0.012226982042193413, 0.014522102661430836, 0.02034916542470455, 0.07902932167053223, 0.01637105457484722, 0.056789472699165344, 0.0017624228494241834, 0.034692466259002686, 0.09625975787639618, 0.0187830850481987, 0.015925493091344833, 0.022673238068819046, 0.09980112314224243, 0.08114858716726303, 0.028186466544866562, 0.21003462374210358], [0.09620621800422668, 0.1292271614074707, 0.026815230026841164, 0.00026040576631203294, 0.003068069461733103, 0.005930709186941385, 0.026896506547927856, 0.009062599390745163, 0.13643912971019745, 0.03500790148973465, 0.09258591383695602, 0.016882289201021194, 0.005421781912446022, 0.16522622108459473, 0.015155909582972527, 0.0008747766842134297, 0.0030294866301119328, 0.1489996761083603, 0.016261955723166466, 0.014482593163847923, 0.05216553062200546], [0.06408239156007767, 0.11358887702226639, 0.01824030466377735, 0.010893845930695534, 0.012162250466644764, 0.02609376423060894, 0.023565560579299927, 0.015768053010106087, 0.11317313462495804, 0.032830413430929184, 0.08784045279026031, 0.012415573000907898, 0.015588412061333656, 0.13701492547988892, 0.019757749512791634, 0.011298407800495625, 0.01203884370625019, 0.12132718414068222, 0.04076404869556427, 0.03199649602174759, 0.07955926656723022], [0.050548210740089417, 0.08815270662307739, 0.01645188219845295, 0.010463939979672432, 0.01509522832930088, 0.009309434331953526, 0.020311571657657623, 0.020858893170952797, 0.1285690814256668, 0.02720128372311592, 0.08995655924081802, 0.016359545290470123, 0.019903218373656273, 0.1549459844827652, 0.019799554720520973, 0.00834362767636776, 0.012448186986148357, 0.14663714170455933, 0.05546009913086891, 0.023295335471630096, 0.06588850915431976], [0.055902332067489624, 0.07612700015306473, 0.04114079847931862, 0.011761997826397419, 0.023300325497984886, 0.04914635792374611, 0.005696823354810476, 0.048259131610393524, 0.07269378006458282, 0.14758050441741943, 0.05818750336766243, 0.043356627225875854, 0.029725482687354088, 0.08595936000347137, 0.010771305300295353, 0.022652650251984596, 0.028022026643157005, 0.06373629719018936, 0.0757666528224945, 0.02002170868217945, 0.030191412195563316], [0.04420500993728638, 0.12005475163459778, 0.011679868213832378, 0.010997746139764786, 0.016735689714550972, 0.02822616696357727, 0.012014778330922127, 0.00926196202635765, 0.14012260735034943, 0.04442429915070534, 0.11872884631156921, 0.008912740275263786, 0.025161730125546455, 0.15916897356510162, 0.016502294689416885, 0.007766965311020613, 0.01106175221502781, 0.1397905796766281, 0.023006660863757133, 0.012327875010669231, 0.0398486964404583], [0.042333438992500305, 0.09486407786607742, 0.024977797642350197, 0.014392061159014702, 0.0154527323320508, 0.01595616154372692, 0.018455788493156433, 0.01268860138952732, 0.11457551270723343, 0.04013467952609062, 0.09113427996635437, 0.025143157690763474, 0.018810560926795006, 0.13907194137573242, 0.04132743924856186, 0.009323657490313053, 0.007601797115057707, 0.1295144408941269, 0.0650312751531601, 0.018709758296608925, 0.060500916093587875], [0.10586843639612198, 0.050879333168268204, 0.021470362320542336, 0.03792819380760193, 0.020335035398602486, 0.009181284345686436, 0.005704538896679878, 0.010205645114183426, 0.05556420609354973, 0.012316824868321419, 0.05087639018893242, 0.016977988183498383, 0.039342038333415985, 0.05833785608410835, 0.1734665185213089, 0.01987079530954361, 0.00885931495577097, 0.06671197712421417, 0.11003779619932175, 0.02218669466674328, 0.1038786917924881], [0.05561986565589905, 0.10434337705373764, 0.01795530878007412, 0.011263422667980194, 0.01521860808134079, 0.015272482298314571, 0.016268473118543625, 0.011882266961038113, 0.1248282790184021, 0.034596990793943405, 0.09874102473258972, 0.018512660637497902, 0.018763059750199318, 0.1552867293357849, 0.025546124204993248, 0.008091866038739681, 0.007890031673014164, 0.14290201663970947, 0.04723912477493286, 0.013983174227178097, 0.055795274674892426], [0.1232927218079567, 0.056255027651786804, 0.0036514534149318933, 0.010536214336752892, 0.015074964612722397, 0.010314992628991604, 0.02250925824046135, 0.026028374210000038, 0.08565913140773773, 0.026939455419778824, 0.05506341531872749, 0.0020378294866532087, 0.028585009276866913, 0.1004117801785469, 0.03232723847031593, 0.01345077808946371, 0.02105392888188362, 0.09576553106307983, 0.0822746530175209, 0.026028824970126152, 0.16273945569992065], [0.05527621880173683, 0.09084658324718475, 0.03136404976248741, 0.015187874436378479, 0.010926044546067715, 0.02120436541736126, 0.01767757721245289, 0.02428947202861309, 0.09498001635074615, 0.04542525112628937, 0.07574553042650223, 0.02076127380132675, 0.014073171652853489, 0.10678257793188095, 0.03926214575767517, 0.013773993588984013, 0.014011547900736332, 0.09648912400007248, 0.08430812507867813, 0.036582101136446, 0.09103284031152725], [0.032869670540094376, 0.07824014127254486, 0.03587038815021515, 0.02175467275083065, 0.021499721333384514, 0.02551143988966942, 0.030564814805984497, 0.018414460122585297, 0.1000235378742218, 0.042881544679403305, 0.08296466618776321, 0.04314717650413513, 0.02165030501782894, 0.11446750164031982, 0.03673769161105156, 0.017165319994091988, 0.011677716858685017, 0.10678475350141525, 0.07332868129014969, 0.027451423928141594, 0.05699429288506508], [0.03628140315413475, 0.06456557661294937, 0.0195681881159544, 0.02990165539085865, 0.03753127530217171, 0.04754418507218361, 0.006727124564349651, 0.03022673726081848, 0.07284776121377945, 0.02506386861205101, 0.08222322165966034, 0.024598360061645508, 0.05249205231666565, 0.09050985425710678, 0.004730758722871542, 0.017507145181298256, 0.029954874888062477, 0.11068639159202576, 0.05087500438094139, 0.05496566370129585, 0.11119887232780457], [0.05806226655840874, 0.08583188056945801, 0.04365671053528786, 0.01118586864322424, 0.01775539293885231, 0.021095942705869675, 0.013313215225934982, 0.024447401985526085, 0.11529800295829773, 0.03020627610385418, 0.10554122179746628, 0.03535549342632294, 0.026374876499176025, 0.13489679992198944, 0.02044503390789032, 0.005617722403258085, 0.02058550901710987, 0.14348414540290833, 0.03002837486565113, 0.027505388483405113, 0.029312439262866974], [0.0734325498342514, 0.11892896890640259, 0.01662641391158104, 0.010191124863922596, 0.016912108287215233, 0.028186490759253502, 0.006277693901211023, 0.0073125846683979034, 0.11641893535852432, 0.03204721957445145, 0.11977250874042511, 0.011873111128807068, 0.022248011082410812, 0.15453337132930756, 0.02153320237994194, 0.0052131423726677895, 0.006129508838057518, 0.15741491317749023, 0.019499793648719788, 0.017462052404880524, 0.03798629343509674], [0.03896419331431389, 0.09250583499670029, 0.024382198229432106, 0.014913436956703663, 0.016526103019714355, 0.0185850840061903, 0.01977911964058876, 0.012289757840335369, 0.11160614341497421, 0.036511197686195374, 0.09181792289018631, 0.026775531470775604, 0.018398504704236984, 0.13642409443855286, 0.03182508796453476, 0.01109795831143856, 0.00838308222591877, 0.12906919419765472, 0.0759163349866867, 0.02570725791156292, 0.058522023260593414], [0.16460709273815155, 0.06613389402627945, 0.04485359787940979, 0.018946561962366104, 0.017893675714731216, 0.007633316330611706, 0.010642996057868004, 0.013074766844511032, 0.07528384774923325, 0.03935225307941437, 0.06533588469028473, 0.02560148946940899, 0.03536040708422661, 0.0736086443066597, 0.13070496916770935, 0.00523617397993803, 0.018915224820375443, 0.08946365863084793, 0.00701105548068881, 0.026309870183467865, 0.06403055042028427], [0.049865178763866425, 0.07783962786197662, 0.021848350763320923, 0.007989619858562946, 0.015621968545019627, 0.025226153433322906, 0.007335514295846224, 0.024594701826572418, 0.10467331111431122, 0.05302182585000992, 0.09280640631914139, 0.02401035837829113, 0.02423386462032795, 0.1175830215215683, 0.021278858184814453, 0.01216240506619215, 0.010773804038763046, 0.11210661381483078, 0.10588590055704117, 0.02240506000816822, 0.06873735785484314], [0.077460877597332, 0.075894296169281, 0.015500271692872047, 0.013499590568244457, 0.03357325866818428, 0.048971984535455704, 0.03974473848938942, 0.021034054458141327, 0.10877939313650131, 0.03625170513987541, 0.10544528067111969, 0.01650846377015114, 0.05550080165266991, 0.1253281980752945, 0.023061027750372887, 0.010396817699074745, 0.01876426674425602, 0.10691668838262558, 0.027020147070288658, 0.022012177854776382, 0.018336018547415733]], [[0.07136432826519012, 0.04645268991589546, 0.007975704967975616, 0.04459873586893082, 0.037817396223545074, 0.04743030294775963, 0.007794145494699478, 0.01343148946762085, 0.04977094382047653, 0.00771748274564743, 0.05068116635084152, 0.006499846465885639, 0.04152006655931473, 0.05565445497632027, 0.06691499799489975, 0.0260631050914526, 0.056613530963659286, 0.06803741306066513, 0.052949897944927216, 0.03566917032003403, 0.20504316687583923], [0.029441919177770615, 0.04797283560037613, 0.03058077208697796, 0.045990124344825745, 0.08027452975511551, 0.07492252439260483, 0.023989129811525345, 0.07926677912473679, 0.046526387333869934, 0.02320590801537037, 0.04973570257425308, 0.0325654037296772, 0.06629788130521774, 0.040572989732027054, 0.02319449745118618, 0.05262140929698944, 0.08263327181339264, 0.048431042581796646, 0.021407483145594597, 0.04468219727277756, 0.055687181651592255], [0.08793580532073975, 0.03484581783413887, 0.03451456502079964, 0.031806349754333496, 0.009869925677776337, 0.0376916229724884, 0.02228246070444584, 0.015604949556291103, 0.0513475276529789, 0.07840694487094879, 0.04107344523072243, 0.033387936651706696, 0.026462122797966003, 0.06254454702138901, 0.20594312250614166, 0.021520357578992844, 0.007637121714651585, 0.06196426972746849, 0.07745784521102905, 0.023338304832577705, 0.03436492383480072], [0.07432357221841812, 0.07828576862812042, 0.045823365449905396, 0.02040979452431202, 0.014654949307441711, 0.06817042827606201, 0.0054745967499911785, 0.012100559659302235, 0.07452566921710968, 0.04368552193045616, 0.06234518811106682, 0.03782501071691513, 0.025148149579763412, 0.0860397219657898, 0.05333293601870537, 0.0262489914894104, 0.012418674305081367, 0.09931562840938568, 0.062091466039419174, 0.02776998095214367, 0.0700099915266037], [0.050951287150382996, 0.029272964224219322, 0.10102313756942749, 0.0751509964466095, 0.01979915425181389, 0.021488076075911522, 0.034759823232889175, 0.026606110855937004, 0.024824829772114754, 0.0891035869717598, 0.0209323950111866, 0.12109886854887009, 0.04528965801000595, 0.038889285176992416, 0.04091887176036835, 0.013868488371372223, 0.01927011087536812, 0.025578713044524193, 0.12746086716651917, 0.023357858881354332, 0.0503549724817276], [0.059221651405096054, 0.05089530348777771, 0.036151401698589325, 0.07921754568815231, 0.041448671370744705, 0.03957778960466385, 0.019497238099575043, 0.036409568041563034, 0.05656310170888901, 0.04209357500076294, 0.04192826896905899, 0.030425477772951126, 0.05137079954147339, 0.055581048130989075, 0.07025839388370514, 0.03157580643892288, 0.036385081708431244, 0.06060733646154404, 0.06721211224794388, 0.03134459629654884, 0.06223530322313309], [0.11402862519025803, 0.07726778835058212, 0.05502331256866455, 0.0025542082730680704, 0.025977537035942078, 0.017208587378263474, 0.006876108702272177, 0.011025302112102509, 0.09366674721240997, 0.08966679126024246, 0.06148165836930275, 0.0492669902741909, 0.06976701319217682, 0.08638609945774078, 0.04104155674576759, 0.00917248148471117, 0.004987621679902077, 0.09394814819097519, 0.019099460914731026, 0.018344715237617493, 0.053209248930215836], [0.11262628436088562, 0.0619211420416832, 0.029992537572979927, 0.03953993692994118, 0.00994140561670065, 0.029867097735404968, 0.007525290362536907, 0.01176448818296194, 0.04971393942832947, 0.007740310858935118, 0.05251368135213852, 0.014346586540341377, 0.012851626612246037, 0.059668149799108505, 0.17012330889701843, 0.009429527446627617, 0.046268001198768616, 0.08365349471569061, 0.08231602609157562, 0.0224225502461195, 0.08577467501163483], [0.03365499526262283, 0.06853443384170532, 0.02578706480562687, 0.0217179786413908, 0.061938099563121796, 0.06778709590435028, 0.02794303558766842, 0.06279008090496063, 0.06268402934074402, 0.02897842414677143, 0.07006771117448807, 0.023701410740613937, 0.05168639495968819, 0.05836031213402748, 0.022502528503537178, 0.057198259979486465, 0.06666082888841629, 0.06898036599159241, 0.01847611740231514, 0.04913812503218651, 0.05141270160675049], [0.18613213300704956, 0.028704911470413208, 0.02273627370595932, 0.017212143167853355, 0.00139211758505553, 0.0025754065718501806, 0.006077505182474852, 0.0008409422007389367, 0.03385254368185997, 0.01143618393689394, 0.025750532746315002, 0.012345969676971436, 0.006349184550344944, 0.051087792962789536, 0.31298670172691345, 0.005265724845230579, 0.0053221057169139385, 0.057420514523983, 0.13447622954845428, 0.01077103242278099, 0.06726401299238205], [0.03131914138793945, 0.059816207736730576, 0.036662690341472626, 0.02291877195239067, 0.07781992107629776, 0.0851006954908371, 0.027061011642217636, 0.06759469956159592, 0.056790538132190704, 0.023075252771377563, 0.06260000914335251, 0.03866754099726677, 0.06540868431329727, 0.05148332566022873, 0.01711909845471382, 0.05689084529876709, 0.06190403550863266, 0.05759420245885849, 0.012886886484920979, 0.0429040901362896, 0.04438242316246033], [0.07596128433942795, 0.02434828132390976, 0.06039196625351906, 0.01719709485769272, 0.006418516393750906, 0.028934013098478317, 0.016435956582427025, 0.013317693024873734, 0.043673720210790634, 0.13271144032478333, 0.032879993319511414, 0.06246066465973854, 0.022369645535945892, 0.05715825781226158, 0.1571832299232483, 0.020412825047969818, 0.004920340143144131, 0.053931426256895065, 0.1199357733130455, 0.02052156627178192, 0.02883632481098175], [0.04771614819765091, 0.013108793646097183, 0.08805740624666214, 0.041961636394262314, 0.006224421318620443, 0.007154969032853842, 0.027979295700788498, 0.009477605111896992, 0.012894229032099247, 0.10184264928102493, 0.010775717906653881, 0.09920179098844528, 0.02707258239388466, 0.02193896472454071, 0.0744720995426178, 0.009504579938948154, 0.010450785048305988, 0.014899739995598793, 0.3258891999721527, 0.01709078438580036, 0.032286692410707474], [0.02503512054681778, 0.054021190851926804, 0.02441943623125553, 0.0294423196464777, 0.0724744126200676, 0.08078070729970932, 0.03665122017264366, 0.07260319590568542, 0.05006519705057144, 0.02806563302874565, 0.05868116766214371, 0.022011470049619675, 0.05409740284085274, 0.045429348945617676, 0.02306806854903698, 0.07259245216846466, 0.09110401570796967, 0.056700415909290314, 0.017329618334770203, 0.04829316958785057, 0.037134334444999695], [0.06321167945861816, 0.06295450776815414, 0.006425525061786175, 0.029126696288585663, 0.010635016486048698, 0.02908995747566223, 0.023481251671910286, 0.004736600909382105, 0.06864089518785477, 0.002014528727158904, 0.056288521736860275, 0.005744876805692911, 0.02259368821978569, 0.09585913270711899, 0.11586499214172363, 0.019021162763237953, 0.02414536662399769, 0.1049032211303711, 0.13201193511486053, 0.03212771937251091, 0.09112268686294556], [0.04505379870533943, 0.04737413302063942, 0.0038708767388015985, 0.03173224255442619, 0.010351292788982391, 0.03146771714091301, 0.004316568374633789, 0.012593894265592098, 0.05093620717525482, 0.0046242098324000835, 0.044708002358675, 0.0029888576827943325, 0.01359246764332056, 0.08203200250864029, 0.26247361302375793, 0.03748021274805069, 0.0691145732998848, 0.09232223033905029, 0.057858657091856, 0.035224854946136475, 0.059883568435907364], [0.054795555770397186, 0.04525313526391983, 0.00442086486145854, 0.031402941793203354, 0.008225946687161922, 0.038087330758571625, 0.0019902477506548166, 0.015267642214894295, 0.046083953231573105, 0.0021989010274410248, 0.055875468999147415, 0.0030093619134277105, 0.009035436436533928, 0.05190340429544449, 0.28655579686164856, 0.029046401381492615, 0.06760898232460022, 0.08436889201402664, 0.026028677821159363, 0.05188857391476631, 0.08695250749588013], [0.02091931365430355, 0.06215471401810646, 0.02780771441757679, 0.02151716686785221, 0.07371342182159424, 0.08991685509681702, 0.04022220894694328, 0.07201657444238663, 0.05244709178805351, 0.025402486324310303, 0.06380695104598999, 0.02646555006504059, 0.0561477355659008, 0.0477474071085453, 0.017093058675527573, 0.06004871055483818, 0.07470565289258957, 0.05560780316591263, 0.02097938396036625, 0.05586659908294678, 0.035413630306720734], [0.07405354082584381, 0.01907321624457836, 0.007545121014118195, 0.021400514990091324, 0.0005937646492384374, 0.0029875575564801693, 0.005854269955307245, 0.0008400522638112307, 0.015968140214681625, 0.008493966422975063, 0.018058329820632935, 0.00456229830160737, 0.0029680051375180483, 0.028475511819124222, 0.17402279376983643, 0.007157959509640932, 0.010934815742075443, 0.03238421678543091, 0.47539493441581726, 0.016296206042170525, 0.07293476909399033], [0.01554630696773529, 0.005570105277001858, 0.0025106777902692556, 0.005692359525710344, 0.001292161294259131, 0.0035269209183752537, 0.0023313788697123528, 0.001303690136410296, 0.006760015152394772, 0.004742241930216551, 0.006256745662540197, 0.0018952639074996114, 0.0024353964254260063, 0.007390395272523165, 0.03434150293469429, 0.0019678985700011253, 0.0024484924506396055, 0.010368069633841515, 0.8575159907341003, 0.010438570752739906, 0.01566583290696144], [0.03723204880952835, 0.02740122564136982, 0.003495944896712899, 0.12059129774570465, 0.03130923584103584, 0.038299575448036194, 0.008560125716030598, 0.012583589181303978, 0.024012653157114983, 0.009348949417471886, 0.02271893620491028, 0.0034591411240398884, 0.03170766681432724, 0.025250360369682312, 0.053752388805150986, 0.00617325259372592, 0.02609507367014885, 0.030716897919774055, 0.32863813638687134, 0.038421522825956345, 0.12023195624351501]], [[0.3215864300727844, 0.04970009997487068, 0.020879525691270828, 0.03258807212114334, 0.03464796766638756, 0.028684888035058975, 0.036941513419151306, 0.014722663909196854, 0.050640642642974854, 0.012870389968156815, 0.042984239757061005, 0.013758820481598377, 0.01621299609541893, 0.05866601690649986, 0.01985696330666542, 0.012453963980078697, 0.02005736529827118, 0.04269838705658913, 0.024853987619280815, 0.015153441578149796, 0.13004156947135925], [0.10148986428976059, 0.14256443083286285, 0.010514598339796066, 0.0333063006401062, 0.02878592163324356, 0.04135691002011299, 0.008100834675133228, 0.009032691828906536, 0.09283679723739624, 0.008236905559897423, 0.10681907087564468, 0.005762653425335884, 0.014631643891334534, 0.1720704436302185, 0.013927839696407318, 0.01399302389472723, 0.007998855784535408, 0.10478581488132477, 0.009407875128090382, 0.0136788384988904, 0.060698725283145905], [0.08329980820417404, 0.20096880197525024, 0.007909059524536133, 0.06254946440458298, 0.042913276702165604, 0.06793378293514252, 0.029629714787006378, 0.02146180532872677, 0.0621526725590229, 0.023019760847091675, 0.07474450767040253, 0.0050346567295491695, 0.01904839463531971, 0.10335222631692886, 0.019119976088404655, 0.017679361626505852, 0.012273509055376053, 0.07723485678434372, 0.008602617308497429, 0.02068302035331726, 0.04038882255554199], [0.18969528377056122, 0.17639069259166718, 0.008554399944841862, 0.006121242884546518, 0.040388621389865875, 0.010875821113586426, 0.0021518415305763483, 0.006692855153232813, 0.06429976969957352, 0.019989442080259323, 0.054093532264232635, 0.002270167926326394, 0.011575736105442047, 0.12131059169769287, 0.0106838159263134, 0.004760768264532089, 0.005190289579331875, 0.0855991318821907, 0.02748352475464344, 0.010924228467047215, 0.14094826579093933], [0.12993280589580536, 0.34713804721832275, 0.015569424256682396, 0.03732873126864433, 0.010817711241543293, 0.016833722591400146, 0.004953939467668533, 0.006328781135380268, 0.07408256828784943, 0.005601260345429182, 0.08157258480787277, 0.0037691036704927683, 0.002452091546729207, 0.09290861338376999, 0.002884241519495845, 0.004498449619859457, 0.006721340585500002, 0.08506525307893753, 0.008485855534672737, 0.0045311423018574715, 0.058524489402770996], [0.05576230585575104, 0.23422123491764069, 0.013066221959888935, 0.04121798276901245, 0.027493489906191826, 0.014388502575457096, 0.0025513856671750546, 0.011558535508811474, 0.11509399861097336, 0.021895645186305046, 0.11263550817966461, 0.003331106388941407, 0.006294118240475655, 0.13878010213375092, 0.003366319928318262, 0.00364987226203084, 0.00602298928424716, 0.1021604984998703, 0.014983140863478184, 0.011700255796313286, 0.05982678383588791], [0.12553299963474274, 0.1710658073425293, 0.011673349887132645, 0.030011216178536415, 0.027501432225108147, 0.05670095235109329, 0.001165751600638032, 0.02310314029455185, 0.13484154641628265, 0.028183991089463234, 0.0827970802783966, 0.003410954028367996, 0.006090712267905474, 0.08600092679262161, 0.014238489791750908, 0.0032410798594355583, 0.011776343919336796, 0.07757967710494995, 0.02432022988796234, 0.0069331517443060875, 0.07383131980895996], [0.04351041093468666, 0.10784022510051727, 0.015356454066932201, 0.029989082366228104, 0.1479724943637848, 0.07193948328495026, 0.19767460227012634, 0.02020050212740898, 0.06621977686882019, 0.013349460437893867, 0.06295496225357056, 0.0060496339574456215, 0.016012009233236313, 0.08434095233678818, 0.015371117740869522, 0.008004666306078434, 0.004525800701230764, 0.03175933659076691, 0.008951379917562008, 0.015905726701021194, 0.03207188844680786], [0.10032330453395844, 0.09407354891300201, 0.008986697532236576, 0.035353511571884155, 0.035829152911901474, 0.0631738230586052, 0.01667378656566143, 0.020226599648594856, 0.14188912510871887, 0.009508807212114334, 0.12008257955312729, 0.007820266298949718, 0.017923075705766678, 0.1714625060558319, 0.008833351545035839, 0.014280674047768116, 0.007046847138553858, 0.06494584679603577, 0.00644833967089653, 0.009218410588800907, 0.045899707823991776], [0.16771458089351654, 0.05024378001689911, 0.04368433356285095, 0.019707132130861282, 0.021392790600657463, 0.029046662151813507, 0.11357621103525162, 0.045472413301467896, 0.08532854169607162, 0.028296852484345436, 0.037217095494270325, 0.04484016075730324, 0.011700364761054516, 0.04601772129535675, 0.005760927684605122, 0.006460696458816528, 0.011618241667747498, 0.033156801015138626, 0.05307512730360031, 0.005484531633555889, 0.1402050107717514], [0.0915384441614151, 0.08429230004549026, 0.00749936094507575, 0.027080170810222626, 0.02496977336704731, 0.04647359251976013, 0.014398137107491493, 0.018839538097381592, 0.1684698462486267, 0.009473304264247417, 0.14988362789154053, 0.008507149294018745, 0.020550783723592758, 0.19134736061096191, 0.007132220081984997, 0.011452040635049343, 0.00614768685773015, 0.06583349406719208, 0.0066312565468251705, 0.0064263008534908295, 0.03305366262793541], [0.05883405730128288, 0.09170231223106384, 0.005285256542265415, 0.060335926711559296, 0.028179848566651344, 0.05384751781821251, 0.04145016521215439, 0.03872624412178993, 0.13886874914169312, 0.02412526309490204, 0.17605453729629517, 0.012147105298936367, 0.025813709944486618, 0.12228342145681381, 0.011398250237107277, 0.012790372595191002, 0.008505160920321941, 0.051385458558797836, 0.004955804441124201, 0.012053302489221096, 0.021257618442177773], [0.08362957090139389, 0.08975328505039215, 0.02183155156672001, 0.028453297913074493, 0.013284782879054546, 0.016575267538428307, 0.032757144421339035, 0.023854590952396393, 0.12145280838012695, 0.037860628217458725, 0.16689608991146088, 0.06151748448610306, 0.02534446120262146, 0.11425349116325378, 0.012364418245851994, 0.012080881744623184, 0.0114124845713377, 0.05009929835796356, 0.019564511254429817, 0.006226790603250265, 0.05078716203570366], [0.06065816804766655, 0.06258224695920944, 0.007042984012514353, 0.023677267134189606, 0.013721502386033535, 0.03133435547351837, 0.00814020074903965, 0.015662087127566338, 0.13809965550899506, 0.01315106451511383, 0.18114802241325378, 0.014180794358253479, 0.02825886569917202, 0.22144579887390137, 0.0153923025354743, 0.02391195483505726, 0.009852278046309948, 0.0799834206700325, 0.012800676748156548, 0.009939039126038551, 0.029017312452197075], [0.0686904788017273, 0.053444765508174896, 0.02384953573346138, 0.017564794048666954, 0.013323931954801083, 0.016236623749136925, 0.013563775457441807, 0.01547941192984581, 0.09199213981628418, 0.035207703709602356, 0.12109500914812088, 0.08514822274446487, 0.06531825661659241, 0.17230959236621857, 0.029061108827590942, 0.02019019052386284, 0.015505732968449593, 0.058269113302230835, 0.016716713085770607, 0.01344506535679102, 0.053587764501571655], [0.08568394184112549, 0.043852631002664566, 0.007899414747953415, 0.013133234344422817, 0.015351458452641964, 0.013245372101664543, 0.010226444341242313, 0.006797189358621836, 0.06974314898252487, 0.01958348974585533, 0.09757736325263977, 0.02154206670820713, 0.07619573175907135, 0.24430778622627258, 0.07287716865539551, 0.013858267106115818, 0.012346651405096054, 0.0803881511092186, 0.026135006919503212, 0.00997101329267025, 0.059284474700689316], [0.047810979187488556, 0.05716864392161369, 0.009053142741322517, 0.008527993224561214, 0.0630919486284256, 0.022210853174328804, 0.03991984575986862, 0.018941419199109077, 0.04950801283121109, 0.010432939976453781, 0.0677613914012909, 0.011642677709460258, 0.08465462177991867, 0.22475598752498627, 0.059236425906419754, 0.03253447264432907, 0.013722269795835018, 0.0689057931303978, 0.04406985640525818, 0.022044843062758446, 0.04400588944554329], [0.05628303810954094, 0.05715709179639816, 0.006301778368651867, 0.01551822666078806, 0.015287071466445923, 0.02820131741464138, 0.008538194000720978, 0.009425237774848938, 0.07738208025693893, 0.009112951345741749, 0.10659974813461304, 0.013312888331711292, 0.04728512838482857, 0.27544528245925903, 0.0321740061044693, 0.041081566363573074, 0.014924985356628895, 0.11026803404092789, 0.01660463586449623, 0.015365876257419586, 0.04373086243867874], [0.02372439019382, 0.020647844299674034, 0.060994140803813934, 0.013160880655050278, 0.011426938697695732, 0.010211605578660965, 0.012837789952754974, 0.0038644173182547092, 0.024053530767560005, 0.18154026567935944, 0.017709117382764816, 0.14853356778621674, 0.062029194086790085, 0.03055400587618351, 0.19779269397258759, 0.006293666083365679, 0.011048072017729282, 0.0352199487388134, 0.07888194173574448, 0.00944039598107338, 0.04003559798002243], [0.0633457601070404, 0.026471493765711784, 0.02712872065603733, 0.02226255275309086, 0.02086031809449196, 0.01778346300125122, 0.01105070486664772, 0.007496936246752739, 0.0327959842979908, 0.03429239243268967, 0.030872242525219917, 0.0862782821059227, 0.08984240889549255, 0.07381357997655869, 0.17213399708271027, 0.013378008268773556, 0.02458302676677704, 0.0751929059624672, 0.08114627003669739, 0.008776363916695118, 0.08049461245536804], [0.07000726461410522, 0.06851302087306976, 0.01906023547053337, 0.03234059736132622, 0.07762211561203003, 0.02772517129778862, 0.040763117372989655, 0.016506029292941093, 0.06113744527101517, 0.0213287565857172, 0.05993326008319855, 0.014525623060762882, 0.04468197375535965, 0.08987697958946228, 0.03298775479197502, 0.0238939356058836, 0.02431175298988819, 0.08828315138816833, 0.04197145625948906, 0.036613110452890396, 0.10791724920272827]], [[0.2240891456604004, 0.01682806760072708, 0.008950416930019855, 0.011846388690173626, 0.008484822697937489, 0.007282239384949207, 0.00883314199745655, 0.014448835514485836, 0.029586967080831528, 0.022370830178260803, 0.024942420423030853, 0.00901793222874403, 0.013246984221041203, 0.026299456134438515, 0.023583928123116493, 0.032126035541296005, 0.04690846800804138, 0.027869772166013718, 0.058660998940467834, 0.037400342524051666, 0.3472229540348053], [0.05424671992659569, 0.06258197128772736, 0.044284045696258545, 0.042230989784002304, 0.031149985268712044, 0.03399253264069557, 0.0210272204130888, 0.03667858615517616, 0.081917904317379, 0.08972421288490295, 0.06484922766685486, 0.04170019179582596, 0.025721291080117226, 0.06856221705675125, 0.08674421161413193, 0.013777571730315685, 0.015419761650264263, 0.059446003288030624, 0.03399886190891266, 0.03355409577488899, 0.05839235708117485], [0.10215161740779877, 0.07951031625270844, 0.010759653523564339, 0.03707032650709152, 0.027801677584648132, 0.018535342067480087, 0.017876164987683296, 0.01777692325413227, 0.12144572287797928, 0.038872119039297104, 0.09934239834547043, 0.010738873854279518, 0.024660401046276093, 0.10389988869428635, 0.04216917231678963, 0.013222788460552692, 0.01763896271586418, 0.0907825231552124, 0.027685614302754402, 0.010918066836893559, 0.08714146912097931], [0.08669255673885345, 0.06489534676074982, 0.03768223151564598, 0.006904967129230499, 0.05047434940934181, 0.05683979019522667, 0.013322006911039352, 0.013823620975017548, 0.08685927093029022, 0.08396957814693451, 0.08658231049776077, 0.03318331390619278, 0.050114016979932785, 0.09193677455186844, 0.02546318620443344, 0.01786445453763008, 0.009571670554578304, 0.07379080355167389, 0.038799162954092026, 0.011146592907607555, 0.060083918273448944], [0.10332111269235611, 0.04306946322321892, 0.09852032363414764, 0.0156602393835783, 0.034835334867239, 0.07668520510196686, 0.010275042615830898, 0.007104036398231983, 0.055242836475372314, 0.07845062762498856, 0.04811201989650726, 0.11228834837675095, 0.04950592294335365, 0.05540916323661804, 0.026034332811832428, 0.009424473159015179, 0.0069915540516376495, 0.048364974558353424, 0.021300196647644043, 0.01254621148109436, 0.08685855567455292], [0.0721617117524147, 0.050101764500141144, 0.03244645893573761, 0.0273821409791708, 0.06796462833881378, 0.03864883631467819, 0.013469796627759933, 0.01613544300198555, 0.07731994241476059, 0.033652279525995255, 0.06583040952682495, 0.03822881355881691, 0.10703924298286438, 0.08080004900693893, 0.04423181340098381, 0.019587112590670586, 0.014054622501134872, 0.0723789855837822, 0.02080579847097397, 0.017173485830426216, 0.09058672934770584], [0.06728194653987885, 0.06884559988975525, 0.028414415195584297, 0.012542654760181904, 0.034754592925310135, 0.04180777817964554, 0.0025489714462310076, 0.005911799613386393, 0.13824249804019928, 0.03061286173760891, 0.09644181281328201, 0.02869594655930996, 0.04477992653846741, 0.1174222081899643, 0.05423527583479881, 0.008295194245874882, 0.0028055061120539904, 0.09011814743280411, 0.06320030242204666, 0.019341664388775826, 0.043700918555259705], [0.05814823880791664, 0.058754291385412216, 0.022529490292072296, 0.010314573533833027, 0.01335479412227869, 0.0175289586186409, 0.01076008751988411, 0.002950696274638176, 0.0759003758430481, 0.13554547727108002, 0.048815060406923294, 0.020458368584513664, 0.01979842409491539, 0.07235712558031082, 0.02952147275209427, 0.019829533994197845, 0.003396585350856185, 0.05649137869477272, 0.07722695171833038, 0.02108127623796463, 0.22523680329322815], [0.051862750202417374, 0.0708823949098587, 0.049175575375556946, 0.02913809008896351, 0.024804208427667618, 0.030029457062482834, 0.024244816973805428, 0.025203747674822807, 0.09336446225643158, 0.07029081135988235, 0.06890404969453812, 0.04709579795598984, 0.02509700320661068, 0.09213608503341675, 0.08607863634824753, 0.017507564276456833, 0.012087894603610039, 0.07795152813196182, 0.038628075271844864, 0.028827309608459473, 0.036689694970846176], [0.20341438055038452, 0.07199858129024506, 0.04929913580417633, 0.04922102391719818, 0.011585179716348648, 0.011821726337075233, 0.012367895804345608, 0.02466902881860733, 0.07000302523374557, 0.015490896068513393, 0.04696806147694588, 0.0557456910610199, 0.009840717539191246, 0.06950754672288895, 0.06222381815314293, 0.0071985553950071335, 0.018300848081707954, 0.06225993484258652, 0.050041746348142624, 0.023882245644927025, 0.07415994256734848], [0.05224534869194031, 0.0598023384809494, 0.04445108398795128, 0.02980216220021248, 0.03400387242436409, 0.038783010095357895, 0.024333655834197998, 0.028593657538294792, 0.08506935834884644, 0.06444784998893738, 0.06668267399072647, 0.04667186737060547, 0.03459135442972183, 0.08151568472385406, 0.06848320364952087, 0.022174391895532608, 0.015785543248057365, 0.07284607738256454, 0.04065484181046486, 0.03665946424007416, 0.052402567118406296], [0.08281800150871277, 0.06591460108757019, 0.013126994483172894, 0.03035372495651245, 0.03468389809131622, 0.025308657437562943, 0.02069239690899849, 0.017727630212903023, 0.11671639233827591, 0.03918381780385971, 0.09625109285116196, 0.013801852241158485, 0.043818678706884384, 0.10773245245218277, 0.038023654371500015, 0.014860923402011395, 0.016901519149541855, 0.09694759547710419, 0.028445808216929436, 0.011034452356398106, 0.0856558158993721], [0.07848773151636124, 0.026673754677176476, 0.13711871206760406, 0.013055934570729733, 0.01803986355662346, 0.04939502105116844, 0.010325495153665543, 0.009284058585762978, 0.042572639882564545, 0.09050006419420242, 0.033926043659448624, 0.19966067373752594, 0.04535088315606117, 0.04615728184580803, 0.02437257207930088, 0.010384935885667801, 0.009406337514519691, 0.044450316578149796, 0.032801344990730286, 0.019464772194623947, 0.05857159197330475], [0.051571059972047806, 0.06576943397521973, 0.05149758607149124, 0.02420721761882305, 0.020216241478919983, 0.022527076303958893, 0.01913505606353283, 0.02403523400425911, 0.09582636505365372, 0.06256744265556335, 0.06924322992563248, 0.05585090443491936, 0.029179934412240982, 0.09649334102869034, 0.08942762762308121, 0.01761075109243393, 0.01426168717443943, 0.0856756642460823, 0.042957376688718796, 0.029431186616420746, 0.0325155183672905], [0.05263958126306534, 0.0373227559030056, 0.04808056727051735, 0.007724684663116932, 0.0267846267670393, 0.041854191571474075, 0.022918706759810448, 0.008978861384093761, 0.09049209207296371, 0.06246023252606392, 0.081550732254982, 0.06442856043577194, 0.035993609577417374, 0.09992548078298569, 0.0041934046894311905, 0.022354500368237495, 0.01271240133792162, 0.09110192209482193, 0.059306491166353226, 0.03264062479138374, 0.09653600305318832], [0.044505294412374496, 0.04441896826028824, 0.038872163742780685, 0.02212744578719139, 0.037750206887722015, 0.04415154084563255, 0.019157247617840767, 0.027173761278390884, 0.07616422325372696, 0.02772144414484501, 0.06826851516962051, 0.03211264684796333, 0.04813320189714432, 0.09177622944116592, 0.05709795281291008, 0.03134436905384064, 0.02940146066248417, 0.08237703889608383, 0.04219583049416542, 0.06148412451148033, 0.0737662985920906], [0.06961943954229355, 0.0525585375726223, 0.030496273189783096, 0.013204124756157398, 0.013650250621140003, 0.023035893216729164, 0.020850127562880516, 0.005253004375845194, 0.06712155044078827, 0.06413735449314117, 0.06399006396532059, 0.029841765761375427, 0.021269068121910095, 0.08290942013263702, 0.050978098064661026, 0.04469574615359306, 0.007494573947042227, 0.07938545197248459, 0.07727576047182083, 0.026837727054953575, 0.1553957760334015], [0.037804022431373596, 0.06522290408611298, 0.045570258051157, 0.031824495643377304, 0.02298477292060852, 0.02722138725221157, 0.02747654728591442, 0.029254300519824028, 0.08831378072500229, 0.05260182544589043, 0.06783227622509003, 0.05018002912402153, 0.029570210725069046, 0.09082856774330139, 0.09573496133089066, 0.022601494565606117, 0.018222751095891, 0.08461575210094452, 0.04365316778421402, 0.03809661418199539, 0.030389897525310516], [0.08460349589586258, 0.045786891132593155, 0.0939105972647667, 0.016492528840899467, 0.017378779128193855, 0.024852249771356583, 0.02662992663681507, 0.051173847168684006, 0.0612441748380661, 0.19216491281986237, 0.03747449815273285, 0.08980007469654083, 0.03092137537896633, 0.06278742849826813, 0.03722443804144859, 0.010472826659679413, 0.011051599867641926, 0.05616400018334389, 0.00917173083871603, 0.016073133796453476, 0.024621492251753807], [0.05642472207546234, 0.04994659125804901, 0.05793771147727966, 0.028094008564949036, 0.023136701434850693, 0.02462591975927353, 0.027484918013215065, 0.05237102881073952, 0.0708349421620369, 0.05508781224489212, 0.06758680939674377, 0.07887972891330719, 0.040724657475948334, 0.08458646386861801, 0.0347282774746418, 0.03553491830825806, 0.02312503196299076, 0.07471330463886261, 0.031181255355477333, 0.010084965266287327, 0.07291028648614883], [0.06081097200512886, 0.039894457906484604, 0.017758194357156754, 0.023003993555903435, 0.016926296055316925, 0.013437412679195404, 0.012134261429309845, 0.013589221052825451, 0.04278786480426788, 0.055029116570949554, 0.042959630489349365, 0.022457214072346687, 0.021921679377555847, 0.04076110199093819, 0.09008553624153137, 0.02056487463414669, 0.017495017498731613, 0.04475269094109535, 0.0542704276740551, 0.02704656682908535, 0.32231342792510986]], [[0.05795469880104065, 0.22051401436328888, 0.007615240756422281, 0.006052723154425621, 0.005891550797969103, 0.0073463632725179195, 0.013246666640043259, 0.0064206733368337154, 0.13894669711589813, 0.0035732213873416185, 0.11357016861438751, 0.004580515902489424, 0.008103877305984497, 0.20503097772598267, 0.005064166150987148, 0.005491632502526045, 0.010470693930983543, 0.12566286325454712, 0.0021986975334584713, 0.01395463664084673, 0.03831003978848457], [0.10383211076259613, 0.10355318337678909, 0.05055214837193489, 0.029438534751534462, 0.016774537041783333, 0.011922018602490425, 0.019071074202656746, 0.011828606016933918, 0.11293590813875198, 0.015363411046564579, 0.08720213919878006, 0.046484481543302536, 0.019692597910761833, 0.11557076871395111, 0.03511799871921539, 0.012320583686232567, 0.010458658449351788, 0.09739198535680771, 0.020089581608772278, 0.01898713782429695, 0.06141255423426628], [0.0068819476291537285, 0.013265003450214863, 0.47173431515693665, 0.005576121620833874, 0.007874108850955963, 0.007734653074294329, 0.00327052129432559, 0.004526645410805941, 0.017547734081745148, 0.01424257829785347, 0.017747679725289345, 0.35839635133743286, 0.01300897728651762, 0.01975199207663536, 0.006143674720078707, 0.0018165326910093427, 0.0016755755059421062, 0.019725216552615166, 0.0012127368245273829, 0.002868728246539831, 0.004998901393264532], [0.016193602234125137, 0.08107925951480865, 0.0708981603384018, 0.16190575063228607, 0.022728899493813515, 0.02394125796854496, 0.008474868722259998, 0.029583996161818504, 0.07152560353279114, 0.015887295827269554, 0.08123352378606796, 0.04016917943954468, 0.02414957992732525, 0.11694900691509247, 0.03239452466368675, 0.029583169147372246, 0.03758400306105614, 0.09088505804538727, 0.004478976596146822, 0.016557274386286736, 0.02379700168967247], [0.007710750214755535, 0.015153968706727028, 0.00925679225474596, 0.003915854729712009, 0.32479697465896606, 0.006784479599446058, 0.0011110565392300487, 0.012244208715856075, 0.02143581211566925, 0.003248762572184205, 0.02425380051136017, 0.008495506830513477, 0.4742138087749481, 0.025166071951389313, 0.0016658181557431817, 0.0035808286629617214, 0.006468114908784628, 0.023523984476923943, 0.0042753503657877445, 0.006853937171399593, 0.01584404893219471], [0.010159612633287907, 0.02949926070868969, 0.03605743125081062, 0.024203402921557426, 0.03222864493727684, 0.42305266857147217, 0.006572225131094456, 0.03606772422790527, 0.05789349600672722, 0.014181398786604404, 0.050218962132930756, 0.030107909813523293, 0.04895390197634697, 0.07295279949903488, 0.007845519110560417, 0.007183309178799391, 0.014938940294086933, 0.05731387063860893, 0.00452607125043869, 0.025323523208498955, 0.01071933377534151], [0.05335835739970207, 0.10174118727445602, 0.03881663456559181, 0.01380295492708683, 0.02277565188705921, 0.01985442452132702, 0.022859930992126465, 0.015181176364421844, 0.11227519810199738, 0.012722067534923553, 0.09047303348779678, 0.02447601966559887, 0.024752167984843254, 0.14014652371406555, 0.01683775521814823, 0.009357857517898083, 0.015066387131810188, 0.125937819480896, 0.005185189191251993, 0.039714351296424866, 0.0946652814745903], [0.02169773355126381, 0.08212178945541382, 0.02214476652443409, 0.0182470865547657, 0.042700786143541336, 0.022835269570350647, 0.007360378745943308, 0.12695452570915222, 0.0907215029001236, 0.010114964097738266, 0.09579146653413773, 0.018640147522091866, 0.04954183101654053, 0.11337866634130478, 0.018963301554322243, 0.011918407864868641, 0.050045061856508255, 0.10354515165090561, 0.010429547168314457, 0.043098919093608856, 0.03974872827529907], [0.1697925329208374, 0.09316033124923706, 0.024500373750925064, 0.013960304670035839, 0.022739777341485023, 0.008309335447847843, 0.011755089275538921, 0.00991631019860506, 0.11288418620824814, 0.013244681060314178, 0.08304257690906525, 0.02758251689374447, 0.03097211942076683, 0.11161527037620544, 0.01783706434071064, 0.009782269597053528, 0.009335470385849476, 0.10131324082612991, 0.029353339225053787, 0.018014047294855118, 0.08088921755552292], [0.02541664056479931, 0.1424037665128708, 0.06390266865491867, 0.007710717152804136, 0.025368768721818924, 0.01179974339902401, 0.009859289042651653, 0.011231295764446259, 0.1085694432258606, 0.08418206125497818, 0.08784148842096329, 0.042552120983600616, 0.042852047830820084, 0.11940130591392517, 0.004356548190116882, 0.0023343481589108706, 0.0038396059535443783, 0.1154809221625328, 0.007875082083046436, 0.014140954241156578, 0.068881094455719], [0.1295579969882965, 0.09454631060361862, 0.025779258459806442, 0.01629849709570408, 0.02526872232556343, 0.011970442719757557, 0.013338303193449974, 0.012943986803293228, 0.11249267309904099, 0.01314203254878521, 0.08917085081338882, 0.026797113940119743, 0.03604568541049957, 0.11544951796531677, 0.016519349068403244, 0.012269509956240654, 0.01141113881021738, 0.1087273508310318, 0.022762712091207504, 0.023079533129930496, 0.08242904394865036], [0.003951940685510635, 0.007276218384504318, 0.4382776618003845, 0.004219065420329571, 0.006259220652282238, 0.005376759450882673, 0.002568906405940652, 0.0029995159711688757, 0.008969075046479702, 0.012984681874513626, 0.009341675788164139, 0.45539581775665283, 0.012551647610962391, 0.00965298805385828, 0.00284789502620697, 0.0009384171571582556, 0.0006847356562502682, 0.0095522440969944, 0.0012210144195705652, 0.0016172543400898576, 0.0033132091630250216], [0.007010412868112326, 0.015037288889288902, 0.011980445124208927, 0.0026905289851129055, 0.2556619346141815, 0.005129744298756123, 0.0014537324896082282, 0.009899966418743134, 0.021980401128530502, 0.004559636116027832, 0.025358479470014572, 0.013745403848588467, 0.5238515734672546, 0.023794488981366158, 0.0013769656652584672, 0.004153407644480467, 0.005696352571249008, 0.025646766647696495, 0.0041484828107059, 0.008026382885873318, 0.028797654435038567], [0.18521685898303986, 0.09908084571361542, 0.019803939387202263, 0.014353001490235329, 0.021643875166773796, 0.0066138324327766895, 0.009129060432314873, 0.007303369697183371, 0.11486589163541794, 0.010556343011558056, 0.0791720375418663, 0.019306721165776253, 0.028242629021406174, 0.11999964714050293, 0.013928340747952461, 0.010938789695501328, 0.008360166102647781, 0.1080302819609642, 0.021288610994815826, 0.015693938359618187, 0.08647169172763824], [0.05169141665101051, 0.16684883832931519, 0.029563425108790398, 0.02257312834262848, 0.005698458757251501, 0.013262375257909298, 0.019413968548178673, 0.009761032648384571, 0.11668255180120468, 0.015678703784942627, 0.07942688465118408, 0.019376374781131744, 0.00801343098282814, 0.15272967517375946, 0.06325263530015945, 0.01825915090739727, 0.010398433543741703, 0.12123408168554306, 0.004097775090485811, 0.013892746530473232, 0.05814487487077713], [0.018918752670288086, 0.07300815731287003, 0.022139307111501694, 0.028086934238672256, 0.015123007819056511, 0.027505716308951378, 0.003933194559067488, 0.039420418441295624, 0.09767928719520569, 0.010738154873251915, 0.08884607255458832, 0.017746781930327415, 0.018301155418157578, 0.12020368129014969, 0.016309967264533043, 0.09399236738681793, 0.10098869353532791, 0.11622799187898636, 0.003882078221067786, 0.048034265637397766, 0.03891406208276749], [0.026118800044059753, 0.1227574497461319, 0.015125608071684837, 0.015330873429775238, 0.010925653390586376, 0.019047444686293602, 0.0032581023406237364, 0.0495811402797699, 0.11473919451236725, 0.004095846321433783, 0.10601134598255157, 0.008698918856680393, 0.00969950295984745, 0.15324807167053223, 0.014274668879806995, 0.02448849193751812, 0.09656398743391037, 0.1327836960554123, 0.0030718473717570305, 0.029231267049908638, 0.040948137640953064], [0.17911624908447266, 0.10025127977132797, 0.023939218372106552, 0.014755942858755589, 0.017005492001771927, 0.006901273503899574, 0.013466253876686096, 0.007885043509304523, 0.11253447085618973, 0.012574605643749237, 0.08135927468538284, 0.023931486532092094, 0.023399122059345245, 0.11754708737134933, 0.014674230478703976, 0.0109491515904665, 0.008779047057032585, 0.10593395680189133, 0.01902519352734089, 0.01698504202067852, 0.08898656070232391], [0.03041335940361023, 0.0974450632929802, 0.0073218452744185925, 0.012208475731313229, 0.01954849809408188, 0.010701395571231842, 0.0030502809677273035, 0.02380724437534809, 0.13877460360527039, 0.014953156933188438, 0.10656046867370605, 0.008186752907931805, 0.041089992970228195, 0.1232435554265976, 0.006402413826435804, 0.007267109118402004, 0.017082741484045982, 0.1427895873785019, 0.07070484757423401, 0.0448024682700634, 0.0736461952328682], [0.022946730256080627, 0.05191626772284508, 0.020886104553937912, 0.015520501881837845, 0.01782868430018425, 0.020582541823387146, 0.018722886219620705, 0.04965587332844734, 0.06343533098697662, 0.018664449453353882, 0.057959675788879395, 0.015969932079315186, 0.02764122001826763, 0.06699752807617188, 0.021348819136619568, 0.027448061853647232, 0.023962324485182762, 0.08018702268600464, 0.013594952411949635, 0.28878387808799744, 0.07594726979732513], [0.054321084171533585, 0.11523707211017609, 0.009941541589796543, 0.009731520898640156, 0.034313179552555084, 0.032119669020175934, 0.013167166151106358, 0.01705022156238556, 0.11535610258579254, 0.011375663802027702, 0.09892503172159195, 0.008530187420547009, 0.027121001854538918, 0.14016205072402954, 0.022231977432966232, 0.011387345381081104, 0.014367334544658661, 0.12394276261329651, 0.01729319617152214, 0.030650809407234192, 0.09277499467134476]], [[0.016187060624361038, 9.92255809251219e-05, 5.323754157871008e-05, 2.7834674256155267e-05, 3.464419478405034e-06, 5.057319754087075e-07, 2.5159482675007894e-07, 2.4051726086327108e-06, 6.624281377298757e-05, 0.0004800687020178884, 0.00039062355062924325, 7.8125114669092e-05, 7.131518941605464e-06, 2.251638943562284e-05, 9.072962825484865e-07, 6.35778451396618e-06, 2.29887300520204e-05, 8.358748164027929e-05, 0.0006255955086089671, 0.0005060468101873994, 0.9813357591629028], [0.9985576272010803, 0.00034667010186240077, 7.036913718394544e-09, 2.0187673754890056e-10, 2.3554044999152257e-12, 1.0764551028330516e-08, 6.026826667948626e-05, 7.306045063160127e-06, 6.035237731794041e-08, 5.141223979876486e-08, 1.6589259743682305e-08, 2.4695966160948046e-08, 5.06945845302198e-08, 8.757350400401265e-08, 2.669402199284576e-10, 4.336797143622562e-09, 0.0002603881002869457, 0.0007624615682289004, 4.091969458386302e-06, 4.50408599306229e-10, 9.540540304442402e-07], [0.003960008267313242, 0.9700398445129395, 0.008541317656636238, 1.0187221732849139e-06, 2.121930560948504e-13, 7.508065349992599e-12, 3.3534257681822055e-07, 0.00014222114987205714, 2.9568547688541003e-05, 8.892594394183106e-08, 1.3823082678499077e-09, 1.8975560012179926e-10, 1.11992770612801e-08, 3.1155346391642524e-07, 3.093801950737607e-11, 1.2078710156637057e-13, 1.8111427024791737e-08, 0.001848116284236312, 0.015432793647050858, 4.03692456529825e-06, 1.0717190690456846e-07], [1.4601386055801413e-06, 8.502155651513021e-06, 0.9910094738006592, 0.0010744432220235467, 1.0745449863236445e-08, 2.992160149208403e-14, 3.0319815668561345e-12, 1.939691252061948e-08, 1.5903897292446345e-05, 1.243771293957252e-06, 9.757263885745715e-10, 8.493260261754898e-11, 6.160229548690666e-10, 6.755666959179507e-07, 5.994971186140674e-10, 2.0593655903830554e-13, 2.0228543232830853e-12, 1.5661399288546818e-08, 0.0008684592321515083, 0.006979933939874172, 3.9853646740084514e-05], [1.9306251042294775e-10, 2.4123859173838004e-14, 2.1554889428898605e-07, 0.9986586570739746, 0.0011264004278928041, 1.7862479819385178e-14, 1.462776434507546e-17, 5.193872360176381e-17, 7.256873053862467e-12, 1.4592746566677306e-08, 4.787264473726793e-10, 5.740046025298762e-12, 1.4836270173894926e-15, 4.575761210906526e-12, 2.3699131546095487e-10, 5.622485441635072e-13, 1.0114133887799412e-16, 2.4839527051852056e-16, 6.044165602042684e-12, 8.582639566157013e-06, 0.00020611166837625206], [1.5519967178079241e-07, 1.5627672495920758e-13, 1.3711644666902778e-12, 8.078561950242147e-05, 0.99983811378479, 1.2760656318278052e-05, 3.611507204404063e-10, 7.019085160001753e-16, 5.3863227456550904e-15, 3.314434282586376e-10, 2.4127009723429182e-08, 1.7733835733224623e-08, 1.4665874851355065e-12, 8.299692530466807e-12, 1.7632666160505295e-10, 1.8072560115101055e-09, 6.924650436390678e-11, 1.4426930787167502e-13, 7.340738531359109e-14, 1.3513497612582803e-11, 6.816183304181322e-05], [3.1618146749679e-05, 1.6200202068716862e-08, 1.3115175612199437e-11, 8.92304985455894e-09, 0.0002638238947838545, 0.9985036849975586, 0.0011987534817308187, 7.439325599989388e-08, 1.615119149533939e-10, 1.8524083378324008e-09, 1.2958351192082773e-07, 2.899269873068988e-07, 4.7245666934259134e-08, 7.432191750922357e-08, 6.27644602957389e-10, 1.3610300664268493e-09, 6.125156204461746e-08, 1.3961452438593369e-08, 1.2535360527365924e-09, 1.1942516745487575e-13, 1.2970648413102026e-06], [8.430578901652552e-09, 1.0011102169471542e-08, 1.9709503126796868e-12, 1.7472361854868265e-14, 4.418539322539059e-15, 9.396245559400995e-08, 0.9996298551559448, 0.00037001032615080476, 1.0605699651833334e-09, 7.842690933528365e-14, 2.513059510109942e-15, 2.8277976748397604e-13, 2.575480939626118e-09, 1.2036281304972363e-08, 3.0905389358792945e-11, 5.077532361577597e-13, 1.2686690240015785e-11, 7.273781021943648e-10, 8.202983431404576e-11, 1.174952223663146e-16, 6.498621085704315e-14], [1.2282625050374918e-07, 5.0685745378586944e-08, 1.9950959995185258e-08, 3.2725062243388336e-11, 5.640366455382376e-16, 7.529362604317275e-14, 1.1637544048426207e-05, 0.9967851638793945, 0.003201959654688835, 4.424001431857505e-08, 2.291321971568949e-13, 3.257586393560011e-14, 3.9209022140163086e-10, 1.0109055210705264e-06, 1.1678696232308994e-08, 1.3781648565414084e-11, 7.75013386800083e-11, 1.7323903422905573e-09, 1.298721663545166e-08, 1.2404365729024036e-11, 7.252534944129918e-12], [2.5627733180044743e-07, 6.929904983188351e-10, 1.6850515649480258e-08, 3.4996034958822975e-09, 1.631500652892609e-13, 5.026240569447815e-16, 3.186786598496916e-11, 6.367929927364457e-06, 0.9970661997795105, 0.0029268437065184116, 1.013591202081443e-07, 4.470753194735222e-13, 2.0916252128737323e-14, 2.05503702943588e-08, 6.808201646890666e-08, 1.1206599026536423e-07, 2.8638086346788327e-10, 2.688494982194811e-09, 3.8000664837056775e-09, 3.820952443334136e-10, 9.218428798085654e-10], [1.1047819725718e-06, 2.645863736439047e-11, 2.5734676611932628e-09, 1.4545905457907793e-07, 4.111103457660192e-09, 5.2434456516287087e-14, 3.720282816619541e-13, 1.7641740845952825e-10, 5.869177039130591e-05, 0.9973273277282715, 0.0026109125465154648, 1.880035114254497e-07, 5.330962667832173e-12, 3.033948786645979e-11, 5.136875369515792e-09, 1.1484037258924218e-06, 5.722082363490699e-08, 3.252466740377713e-09, 9.543536627631966e-09, 5.114058065913696e-09, 3.6084057342122833e-07], [2.4992261387524195e-05, 4.145415399836594e-10, 4.4481598959755786e-11, 1.2765278611936992e-08, 5.938172620290061e-09, 9.422521790591887e-11, 4.553631777204359e-13, 5.248978470840174e-14, 1.1101437991101193e-08, 0.0064124660566449165, 0.9915270209312439, 0.002033105120062828, 1.8562499093377482e-08, 9.676043299933212e-11, 2.519504917197768e-11, 9.249764842955699e-10, 1.0232588110170582e-08, 3.155000456445123e-07, 9.163903769149329e-08, 4.3351890965936946e-09, 1.830728137974802e-06], [5.6384210438409355e-06, 4.747912618618955e-10, 2.5394750191587434e-10, 1.076858269222214e-09, 5.914072942307669e-13, 4.7002540748408705e-11, 6.824721343612339e-10, 6.363371635176307e-12, 1.2430955787304243e-12, 1.347636002790864e-09, 1.4107960851106327e-05, 0.9993721842765808, 0.0006075309356674552, 6.843863786798465e-08, 1.3765313888747244e-10, 1.173609820437349e-13, 1.7552256870168037e-10, 5.3970950375514803e-08, 3.239288730583212e-07, 2.451243874546094e-09, 7.982294647490562e-08], [3.355146327521652e-05, 4.5949569482672814e-08, 2.0896048624763353e-07, 7.703577864504041e-08, 1.0080610651774791e-10, 2.6222077287307854e-10, 1.7828352838478168e-06, 3.217985067749396e-06, 7.599766149724019e-09, 3.4137145887847e-10, 8.732519152232499e-10, 2.8477499654400162e-05, 0.9812233448028564, 0.01869666390120983, 3.2092320907395333e-06, 6.997870598962619e-12, 1.7901799487241021e-10, 2.996446823999577e-08, 7.210973308247048e-06, 8.158655759871181e-07, 1.2445829042917467e-06], [2.8682675790037138e-08, 8.845529170242727e-11, 9.719784088701999e-08, 1.7591519352322393e-08, 1.0802478356275458e-10, 8.100170382531469e-13, 2.55839655016743e-10, 1.9556911468043836e-07, 7.533488997069071e-07, 3.1490445806525713e-09, 2.0548306112200265e-11, 2.484484840081791e-09, 0.0010060222120955586, 0.9988880753517151, 0.00010422274499433115, 1.8070659635327502e-08, 1.0153560284220653e-11, 1.5408688214257893e-10, 1.2487300971031345e-08, 4.4085211925448675e-07, 1.3414977217962587e-07], [5.939860409087672e-11, 4.984651251737629e-16, 2.948967025434568e-13, 1.7568394516942476e-09, 5.46091227793255e-10, 2.1536444570519238e-14, 6.641791168427152e-15, 7.219965727708888e-13, 4.296504041434446e-09, 1.2560554374374533e-08, 4.764768874593317e-12, 1.0251971797534121e-13, 2.526922464676784e-12, 4.1705703779371106e-07, 0.9989921450614929, 0.0010073347948491573, 9.110400767120552e-10, 2.73827401725546e-13, 1.401801071054809e-11, 4.5658775371659743e-11, 7.70180506037832e-08], [1.4554272809164104e-07, 4.400171893514937e-11, 7.872936108382564e-14, 3.582631587228935e-12, 1.5469679703894457e-10, 4.480906312664956e-09, 8.169525611556594e-10, 1.0491063313217142e-12, 4.5519371605351466e-10, 1.0467464051089337e-07, 1.0972649455709416e-08, 4.771861031316327e-11, 1.6716607210889162e-13, 4.281478505063774e-10, 8.944426372181624e-05, 0.9992961883544922, 0.0006137083983048797, 3.3854482239803474e-07, 6.101699701055452e-10, 8.556156542820215e-13, 4.526729568965493e-08], [0.00022287751198746264, 6.479770945588825e-06, 2.332904147639425e-10, 1.4168135414882599e-11, 4.539096529199149e-12, 1.2947632299642464e-08, 1.7839408883446595e-07, 3.710827556346885e-08, 7.803341084411386e-09, 3.232432277400221e-07, 2.2196739735136362e-07, 5.2050136645220846e-08, 6.653942397072399e-10, 2.791238351562697e-09, 2.6325102098212483e-08, 0.0002448958402965218, 0.9849515557289124, 0.014563651755452156, 9.54964980337536e-06, 7.134868251768012e-10, 2.8163569254502363e-07], [5.7583325542509556e-05, 0.0017176137771457434, 1.807971239031758e-05, 2.8582178290825766e-10, 3.663964680158775e-15, 2.26204341716163e-12, 2.2065931304382502e-09, 1.8448332639309228e-07, 1.971797018995858e-06, 3.5261331277069985e-07, 2.3836354046125052e-07, 9.202828010757003e-08, 4.5942247228758504e-10, 1.2448355235505915e-08, 4.269302619763771e-11, 1.015460782127775e-08, 0.0007955108303576708, 0.9970632195472717, 0.000342801766237244, 2.329297331016278e-06, 1.901332602471939e-08], [5.22251408785479e-10, 1.0355909907389105e-08, 8.373733726330101e-05, 1.665055116006897e-08, 1.30666717045017e-16, 7.743093603736549e-20, 1.4143330519196312e-15, 3.2255437470291026e-12, 8.34400992744122e-10, 1.2810605354296456e-10, 1.1490439676131725e-12, 2.4501661116671514e-11, 4.7711130185534856e-11, 1.7204261626435624e-10, 4.5312992941193286e-11, 4.5320962016896435e-14, 6.61130785534203e-12, 5.13763836806902e-07, 0.9998449087142944, 7.070608990034088e-05, 1.4452729146796628e-07], [1.4219016293282039e-06, 5.262879909651019e-08, 0.0001890256826300174, 0.0012749254237860441, 2.135056320184958e-06, 4.832253954617505e-12, 1.0616126033813345e-12, 2.9767830561633346e-11, 1.3135253595919494e-07, 2.1049763745395467e-06, 3.8582476236115326e-07, 5.686504778168455e-08, 1.7571640142932665e-08, 3.231304788187117e-07, 1.8407205004677962e-07, 1.2621977241167315e-08, 7.655791556260283e-09, 7.794810699124355e-07, 0.00014791966532357037, 0.9905405044555664, 0.00784005131572485]]], [[[0.018539980053901672, 0.054722610861063004, 0.10879044234752655, 0.030907699838280678, 0.024152643978595734, 0.016310464590787888, 0.03960768133401871, 0.01870381273329258, 0.08735841512680054, 0.1411931812763214, 0.04322070628404617, 0.06417035311460495, 0.01839534565806389, 0.07043758779764175, 0.09693184494972229, 0.00960900355130434, 0.01222209446132183, 0.07853413373231888, 0.043226975947618484, 0.006699033547192812, 0.01626606658101082], [0.03311849758028984, 0.07112932205200195, 0.026141991838812828, 0.034663088619709015, 0.015715694054961205, 0.016458678990602493, 0.0295808594673872, 0.017503486946225166, 0.14414620399475098, 0.05884191021323204, 0.1034267395734787, 0.02132345736026764, 0.014355677179992199, 0.1751221865415573, 0.027909651398658752, 0.006720427889376879, 0.010724321939051151, 0.13638438284397125, 0.012524244375526905, 0.0049009667709469795, 0.03930821269750595], [0.06663481146097183, 0.1048707440495491, 0.0318460650742054, 0.029096750542521477, 0.021957535296678543, 0.016075532883405685, 0.011573109775781631, 0.015921136364340782, 0.12549467384815216, 0.03388809785246849, 0.0919261947274208, 0.022322461009025574, 0.037465013563632965, 0.14383822679519653, 0.006094588432461023, 0.003864777972921729, 0.013266402296721935, 0.1020854189991951, 0.009865853935480118, 0.0029785912483930588, 0.10893411189317703], [0.01201881654560566, 0.23438383638858795, 0.0056055630557239056, 0.04499296098947525, 0.033445000648498535, 0.015064934268593788, 0.00888508278876543, 0.03918709605932236, 0.1759192794561386, 0.01198409404605627, 0.10744673013687134, 0.002497589448466897, 0.013758047483861446, 0.12804360687732697, 0.0017794024897739291, 0.007733338512480259, 0.00670919194817543, 0.08270832896232605, 0.0061835236847400665, 0.002641586586833, 0.059011898934841156], [0.06376199424266815, 0.16918101906776428, 0.02372206188738346, 0.05662025511264801, 0.047954365611076355, 0.04983273893594742, 0.014547714963555336, 0.03575270250439644, 0.11168929189443588, 0.031016843393445015, 0.07011062651872635, 0.005993191618472338, 0.02412266470491886, 0.07175187766551971, 0.004245016258209944, 0.007404825650155544, 0.012170727364718914, 0.074297234416008, 0.015379652380943298, 0.0031029293313622475, 0.10734211653470993], [0.04075859114527702, 0.16435404121875763, 0.0036553554236888885, 0.08254477381706238, 0.05959270894527435, 0.02883884310722351, 0.0036032116040587425, 0.04098692908883095, 0.14083270728588104, 0.003892523469403386, 0.08656200766563416, 0.0010912412544712424, 0.034302785992622375, 0.11732709407806396, 0.004887661896646023, 0.006384002510458231, 0.020075013861060143, 0.11075657606124878, 0.003982733003795147, 0.003791579743847251, 0.04177972674369812], [0.05146082118153572, 0.13443174958229065, 0.010773920454084873, 0.005865085404366255, 0.007670691702514887, 0.008886637166142464, 0.0013824360212311149, 0.011805064976215363, 0.18585652112960815, 0.017676323652267456, 0.12195945531129837, 0.003608006052672863, 0.003953805658966303, 0.15579922497272491, 0.0005550780333578587, 0.0018434651428833604, 0.006886533927172422, 0.17590837180614471, 0.004595485050231218, 0.013985605910420418, 0.0750957801938057], [0.015424261800944805, 0.1693456619977951, 0.011440477333962917, 0.021876109763979912, 0.020792251452803612, 0.04240524768829346, 0.0035276401322335005, 0.012543984688818455, 0.12881501019001007, 0.005608434788882732, 0.1547233909368515, 0.0033027592580765486, 0.011467737145721912, 0.08467133343219757, 0.0026086445432156324, 0.002756043802946806, 0.00783462543040514, 0.08335399627685547, 0.007575490046292543, 0.03910912945866585, 0.17081767320632935], [0.022688543424010277, 0.08091704547405243, 0.028049375861883163, 0.04979468882083893, 0.03975936770439148, 0.03286726027727127, 0.08582042157649994, 0.024666832759976387, 0.10786723345518112, 0.08231794834136963, 0.07949519902467728, 0.020694226026535034, 0.026670465245842934, 0.10281844437122345, 0.03796090930700302, 0.005714044906198978, 0.009742735885083675, 0.10066108405590057, 0.02481076866388321, 0.006415253039449453, 0.03026815690100193], [0.0769263207912445, 0.037794895470142365, 0.1807871311903, 0.01180329080671072, 0.057978495955467224, 0.04067905247211456, 0.04463047534227371, 0.013131625019013882, 0.03400300815701485, 0.07170222699642181, 0.0246885959059, 0.10913686454296112, 0.06017911061644554, 0.03014722466468811, 0.00942408386617899, 0.004953137598931789, 0.005535787902772427, 0.01864464581012726, 0.04458526521921158, 0.005652270745486021, 0.11761665344238281], [0.0196683332324028, 0.09048887342214584, 0.017158441245555878, 0.060125675052404404, 0.03644183278083801, 0.03485319763422012, 0.06828591227531433, 0.05184229835867882, 0.14153899252414703, 0.07634718716144562, 0.08443886041641235, 0.012499134056270123, 0.03169674798846245, 0.10653344541788101, 0.025413330644369125, 0.009367605671286583, 0.010862056165933609, 0.06673946231603622, 0.013782402500510216, 0.006822213064879179, 0.03509390726685524], [0.046494513750076294, 0.07907383143901825, 0.041195180267095566, 0.023514309898018837, 0.017165401950478554, 0.013565318658947945, 0.027873912826180458, 0.023498734459280968, 0.13397616147994995, 0.12163251638412476, 0.07422706484794617, 0.03428708761930466, 0.04614681378006935, 0.08977972716093063, 0.006666907574981451, 0.003762153908610344, 0.009864985011518002, 0.044152431190013885, 0.0129305524751544, 0.005369130056351423, 0.1448233276605606], [0.043057478964328766, 0.08474621921777725, 0.02167290449142456, 0.01200407836586237, 0.024334756657481194, 0.028277335688471794, 0.011205442249774933, 0.04740779474377632, 0.1676269769668579, 0.08529914170503616, 0.1132422387599945, 0.022747235372662544, 0.03530813753604889, 0.07562202215194702, 0.0025508131366223097, 0.005156962666660547, 0.012401354499161243, 0.04834790527820587, 0.010654479265213013, 0.00526431854814291, 0.14307236671447754], [0.022484835237264633, 0.05266338959336281, 0.0262177474796772, 0.024966184049844742, 0.016405129805207253, 0.012320817448198795, 0.03819236159324646, 0.02458324283361435, 0.12386177480220795, 0.0995195209980011, 0.10394880175590515, 0.04088613763451576, 0.02942243404686451, 0.12566018104553223, 0.04810985550284386, 0.008406782522797585, 0.020723024383187294, 0.13323642313480377, 0.022866861894726753, 0.007535981945693493, 0.01798848994076252], [0.031053751707077026, 0.06748301535844803, 0.026150856167078018, 0.005205737892538309, 0.015101401135325432, 0.005961076822131872, 0.005090699065476656, 0.04032235965132713, 0.1668456792831421, 0.026126816868782043, 0.13877218961715698, 0.06343583762645721, 0.035803891718387604, 0.1880909949541092, 0.0011859068181365728, 0.008985603228211403, 0.031157255172729492, 0.10753364861011505, 0.007991633377969265, 0.006348182912915945, 0.02135351486504078], [0.024805840104818344, 0.09556473791599274, 0.003402729518711567, 0.01829049549996853, 0.0118722440674901, 0.018959054723381996, 0.0017572678625583649, 0.018072737380862236, 0.1628803163766861, 0.004937186371535063, 0.15580131113529205, 0.003840027144178748, 0.028630180284380913, 0.2357279509305954, 0.0017907258588820696, 0.002250965917482972, 0.013193877413868904, 0.1532863974571228, 0.0037472189869731665, 0.005266629159450531, 0.035922106355428696], [0.017164215445518494, 0.09378594905138016, 0.007108323276042938, 0.01382483821362257, 0.009383916854858398, 0.012232368811964989, 0.0017030840972438455, 0.008237982168793678, 0.11413421481847763, 0.007983334362506866, 0.15170995891094208, 0.009090207517147064, 0.05849327892065048, 0.15750810503959656, 0.010869361460208893, 0.007704272400587797, 0.0076863765716552734, 0.08670767396688461, 0.017292650416493416, 0.05567312240600586, 0.15170671045780182], [0.015184630639851093, 0.040583495050668716, 0.018793271854519844, 0.03380740061402321, 0.015728814527392387, 0.00961369276046753, 0.021851981058716774, 0.015786543488502502, 0.10413222014904022, 0.07837081700563431, 0.07633581012487411, 0.03279610723257065, 0.033501673489809036, 0.17402364313602448, 0.09561632573604584, 0.010440479964017868, 0.016307253390550613, 0.15242309868335724, 0.03197365999221802, 0.007618604693561792, 0.015110393054783344], [0.08701428771018982, 0.05516337975859642, 0.0064000519923865795, 0.008296037092804909, 0.013359276577830315, 0.01071612723171711, 0.006106256972998381, 0.02392391860485077, 0.08296786993741989, 0.010947398841381073, 0.06351614743471146, 0.008849824778735638, 0.036508429795503616, 0.14663024246692657, 0.01220700889825821, 0.03257516026496887, 0.041381314396858215, 0.11070992052555084, 0.021315960213541985, 0.08844275772571564, 0.1329687088727951], [0.03192373737692833, 0.06467010825872421, 0.0066263130865991116, 0.018270211294293404, 0.0161969643086195, 0.03681810572743416, 0.01103146281093359, 0.10508828610181808, 0.0686076432466507, 0.00680899154394865, 0.07389732450246811, 0.008339458145201206, 0.0705006942152977, 0.0846133604645729, 0.011705444194376469, 0.016000917181372643, 0.16139431297779083, 0.08558183908462524, 0.01867743954062462, 0.0330977588891983, 0.07014959305524826], [0.02444082498550415, 0.16700556874275208, 0.004786230623722076, 0.017454158514738083, 0.01282211672514677, 0.011626295745372772, 0.002769816666841507, 0.014416620135307312, 0.12103914469480515, 0.008338037878274918, 0.11421511322259903, 0.003199427854269743, 0.01945231482386589, 0.12140048295259476, 0.003237965051084757, 0.008107692003250122, 0.022484783083200455, 0.12707701325416565, 0.01137525774538517, 0.010711049661040306, 0.1740400642156601]], [[0.10648218542337418, 0.056606475263834, 0.013763803988695145, 0.007257004268467426, 0.013895993120968342, 0.0021715874318033457, 0.004924520384520292, 0.0023779748007655144, 0.0317746177315712, 0.012828304432332516, 0.02821250818669796, 0.010405871085822582, 0.020655520260334015, 0.024976596236228943, 0.01028517261147499, 0.0010098607745021582, 0.008764155209064484, 0.03299097716808319, 0.02007005363702774, 0.004487696569412947, 0.5860592126846313], [0.02431117184460163, 0.08469776809215546, 0.03791497275233269, 0.01763479970395565, 0.02578238770365715, 0.0080558555200696, 0.014989973977208138, 0.019015628844499588, 0.05622771009802818, 0.03905428573489189, 0.050410088151693344, 0.036454927176237106, 0.038034919649362564, 0.04536066949367523, 0.03803428262472153, 0.004086170345544815, 0.018174201250076294, 0.0488988533616066, 0.027639757841825485, 0.010094149969518185, 0.3551272749900818], [0.031232647597789764, 0.07097221165895462, 0.02061156928539276, 0.02418721839785576, 0.041838351637125015, 0.017277631908655167, 0.018268179148435593, 0.02333127334713936, 0.10854543000459671, 0.025908000767230988, 0.08595602959394455, 0.03904883563518524, 0.073872409760952, 0.09206076711416245, 0.06192360445857048, 0.00536031648516655, 0.019500158727169037, 0.07883693277835846, 0.05970018357038498, 0.043692346662282944, 0.057875894010066986], [0.020697280764579773, 0.09701429307460785, 0.02544192224740982, 0.015497949905693531, 0.06766463816165924, 0.017074864357709885, 0.01100708544254303, 0.02009914070367813, 0.10948410630226135, 0.035027358680963516, 0.0782671719789505, 0.03541850298643112, 0.10498335212469101, 0.11546280235052109, 0.031006431207060814, 0.009804937988519669, 0.018918177112936974, 0.10994571447372437, 0.02158905193209648, 0.020433813333511353, 0.0351613350212574], [0.008204972371459007, 0.0629642903804779, 0.009174611419439316, 0.002802938921377063, 0.01984197087585926, 0.01051053311675787, 0.011388221755623817, 0.005224674008786678, 0.14591680467128754, 0.028575662523508072, 0.08463303744792938, 0.023503100499510765, 0.04948995262384415, 0.16690969467163086, 0.03569357842206955, 0.004319681786000729, 0.006428506225347519, 0.15100155770778656, 0.014555158093571663, 0.017340591177344322, 0.1415204107761383], [0.011858925223350525, 0.06764010339975357, 0.012464230880141258, 0.0041117132641375065, 0.011257544159889221, 0.003376785898581147, 0.021643826737999916, 0.010615088045597076, 0.1725442111492157, 0.023028381168842316, 0.09568855166435242, 0.025450484827160835, 0.03462478891015053, 0.18396256864070892, 0.038872238248586655, 0.002886153757572174, 0.010375740937888622, 0.19892793893814087, 0.018704034388065338, 0.010431913658976555, 0.04153473302721977], [0.05418769270181656, 0.08086877316236496, 0.006247461773455143, 0.011082643643021584, 0.011862735264003277, 0.004097850993275642, 0.0038728266954421997, 0.009746341034770012, 0.16504067182540894, 0.04010891914367676, 0.11369748413562775, 0.016734955832362175, 0.04672270268201828, 0.13278557360172272, 0.03971176594495773, 0.010500242002308369, 0.02117200382053852, 0.1773001104593277, 0.02374419756233692, 0.00856761448085308, 0.021947402507066727], [0.0035337433218955994, 0.04473123699426651, 0.009918362833559513, 0.008637660183012486, 0.006993126589804888, 0.0010103057138621807, 0.0037858292926102877, 0.03310360386967659, 0.051292408257722855, 0.011637400835752487, 0.03238918259739876, 0.01610606350004673, 0.016758233308792114, 0.0399179570376873, 0.027259638532996178, 0.006803457625210285, 0.5838784575462341, 0.04548852518200874, 0.008268274366855621, 0.0156903974711895, 0.03279612213373184], [0.03159671276807785, 0.10493113845586777, 0.010703623294830322, 0.00638444721698761, 0.010427478700876236, 0.0052246698178350925, 0.00928629469126463, 0.00871945172548294, 0.1379278004169464, 0.017751649022102356, 0.09176045656204224, 0.016498465090990067, 0.022468773648142815, 0.15388311445713043, 0.02396199479699135, 0.004529370926320553, 0.012980999425053596, 0.16472730040550232, 0.01823093742132187, 0.008241318166255951, 0.13976404070854187], [0.039492152631282806, 0.04879268258810043, 0.030832860618829727, 0.003920857794582844, 0.024478351697325706, 0.008208204060792923, 0.002536536892876029, 0.0017640069127082825, 0.1047840416431427, 0.025647945702075958, 0.06142793223261833, 0.0565236397087574, 0.10952287167310715, 0.12447559088468552, 0.09087084978818893, 0.005708557087928057, 0.005161521025002003, 0.13110381364822388, 0.07732569426298141, 0.009153668768703938, 0.03826820105314255], [0.027334637939929962, 0.09333059936761856, 0.011591319926083088, 0.007462833076715469, 0.012337331660091877, 0.006276847328990698, 0.014182046055793762, 0.01056145504117012, 0.11678812652826309, 0.01966097019612789, 0.08503950387239456, 0.019544191658496857, 0.02953997813165188, 0.13402964174747467, 0.03460196405649185, 0.005361658520996571, 0.01597568392753601, 0.14879633486270905, 0.021190179511904716, 0.0118308300152421, 0.17456388473510742], [0.03139180690050125, 0.06736838072538376, 0.007201148197054863, 0.009455581195652485, 0.01402281690388918, 0.009356657043099403, 0.009123498573899269, 0.009260496124625206, 0.12779554724693298, 0.01432589627802372, 0.09193950146436691, 0.017101287841796875, 0.04911711439490318, 0.1575021594762802, 0.056659989058971405, 0.005546156782656908, 0.018206479027867317, 0.14757676422595978, 0.06228228658437729, 0.0433797612786293, 0.05138663575053215], [0.00817915704101324, 0.06707519292831421, 0.00994165800511837, 0.004559078719466925, 0.010051748715341091, 0.005078425165265799, 0.0028035917785018682, 0.002915425691753626, 0.10662095248699188, 0.016927340999245644, 0.07440350204706192, 0.0213528573513031, 0.04276971518993378, 0.14971792697906494, 0.0864359587430954, 0.0031841101590543985, 0.015861188992857933, 0.1502157747745514, 0.0414421372115612, 0.03696877881884575, 0.14349548518657684], [0.030180253088474274, 0.10282514989376068, 0.009912761859595776, 0.0045796106569468975, 0.006826884113252163, 0.003929793834686279, 0.010120566003024578, 0.006619042716920376, 0.15652024745941162, 0.01437720749527216, 0.08935224264860153, 0.013842224143445492, 0.016786228865385056, 0.18543100357055664, 0.025203919038176537, 0.004909130744636059, 0.011006813496351242, 0.20395393669605255, 0.02438351884484291, 0.00902421772480011, 0.0702153816819191], [0.0309298112988472, 0.1144041046500206, 0.01414660643786192, 0.0069641959853470325, 0.012076721526682377, 0.0029159225523471832, 0.003499672980979085, 0.004982461221516132, 0.18046708405017853, 0.010728596709668636, 0.09206915646791458, 0.013974134810268879, 0.02331875078380108, 0.18301081657409668, 0.015813998878002167, 0.001972063910216093, 0.006039326544851065, 0.21745221316814423, 0.02760317549109459, 0.012782163918018341, 0.02484898455440998], [0.020490411669015884, 0.13390882313251495, 0.0060270088724792, 0.007309228181838989, 0.0040819174610078335, 0.0019515835447236896, 0.0030808737501502037, 0.006671680137515068, 0.1579877734184265, 0.00784712191671133, 0.08482104539871216, 0.007363629527390003, 0.014612985774874687, 0.1560041904449463, 0.04452357813715935, 0.0026302519254386425, 0.040146566927433014, 0.20548327267169952, 0.022915106266736984, 0.009079947136342525, 0.06306302547454834], [0.02039491757750511, 0.12382467836141586, 0.010030214674770832, 0.007043609395623207, 0.004339460749179125, 0.0010105505352839828, 0.003448550123721361, 0.012037980370223522, 0.13913290202617645, 0.010473036207258701, 0.07001237571239471, 0.011580566875636578, 0.01708144322037697, 0.13243499398231506, 0.035082194954156876, 0.00286593334749341, 0.16181202232837677, 0.16062875092029572, 0.011966115795075893, 0.02121654339134693, 0.04358305409550667], [0.03086758591234684, 0.11039764434099197, 0.00784139335155487, 0.005414764862507582, 0.006344473455101252, 0.0033730771392583847, 0.007537523750215769, 0.004903903231024742, 0.17067840695381165, 0.010000165551900864, 0.09855465590953827, 0.010057685896754265, 0.014525774866342545, 0.20503443479537964, 0.02031010016798973, 0.003226620377972722, 0.008757873438298702, 0.2208249270915985, 0.015789130702614784, 0.005556080956012011, 0.04000371694564819], [0.020625412464141846, 0.09765079617500305, 0.007559951860457659, 0.0038771317340433598, 0.00687612546607852, 0.005040967836976051, 0.004823675379157066, 0.0027749163564294577, 0.15864291787147522, 0.007254801690578461, 0.07790721952915192, 0.004912877921015024, 0.018747782334685326, 0.2091231793165207, 0.07346894592046738, 0.0025844057090580463, 0.009736517444252968, 0.20759998261928558, 0.055061209946870804, 0.01055045798420906, 0.015180652029812336], [0.021444302052259445, 0.11904925853013992, 0.008999587036669254, 0.020838430151343346, 0.011744270101189613, 0.004629538860172033, 0.007932431995868683, 0.00617994274944067, 0.10116933286190033, 0.021772317588329315, 0.06008986011147499, 0.006960785016417503, 0.03451894596219063, 0.11071516573429108, 0.11678917706012726, 0.008525563403964043, 0.07061946392059326, 0.12531188130378723, 0.08066792041063309, 0.015003719367086887, 0.04703814908862114], [0.01122177205979824, 0.106231190264225, 0.10841948539018631, 0.11536960303783417, 0.056855980306863785, 0.01790345460176468, 0.053279343992471695, 0.039414845407009125, 0.016499537974596024, 0.05174671858549118, 0.018179932609200478, 0.027305563911795616, 0.041126400232315063, 0.01115127932280302, 0.034249067306518555, 0.00455572921782732, 0.07091419398784637, 0.01126269344240427, 0.07284872233867645, 0.029456250369548798, 0.10200813412666321]], [[0.1258762925863266, 0.016361018642783165, 0.01935592107474804, 0.007661296054720879, 0.009627191349864006, 0.0036451173946261406, 0.008632516488432884, 0.02469480037689209, 0.03645600378513336, 0.23987455666065216, 0.014082709327340126, 0.016161784529685974, 0.02046428807079792, 0.030659064650535583, 0.06486871838569641, 0.01872796006500721, 0.048780228942632675, 0.06282562762498856, 0.10732321441173553, 0.02739608846604824, 0.0965256541967392], [0.13494670391082764, 0.03031429834663868, 0.026105917990207672, 0.014448515139520168, 0.020420728251338005, 0.01828138902783394, 0.03350830078125, 0.02708626538515091, 0.05167790874838829, 0.06563720107078552, 0.030373459681868553, 0.023386916145682335, 0.024737011641263962, 0.05932743847370148, 0.05944200977683067, 0.029350601136684418, 0.050686608999967575, 0.08022070676088333, 0.043287359178066254, 0.040550779551267624, 0.13620983064174652], [0.12676945328712463, 0.02936721220612526, 0.003083408111706376, 0.010971330106258392, 0.007176550570875406, 0.0035680823493748903, 0.017568470910191536, 0.021676406264305115, 0.0533880814909935, 0.03615516051650047, 0.03195587545633316, 0.0025530983693897724, 0.009199803695082664, 0.05143458768725395, 0.047109805047512054, 0.017787013202905655, 0.032546043395996094, 0.07771022617816925, 0.24074316024780273, 0.026855623349547386, 0.15238064527511597], [0.10469749569892883, 0.10085257887840271, 0.022741032764315605, 0.0009067269274964929, 0.009608124382793903, 0.011113150976598263, 0.03038056194782257, 0.020323045551776886, 0.11238127946853638, 0.09970740228891373, 0.09991616010665894, 0.022374248132109642, 0.013568642549216747, 0.11155600845813751, 0.03326178342103958, 0.006677031517028809, 0.020705267786979675, 0.10522056370973587, 0.029552271589636803, 0.01286020316183567, 0.031596504151821136], [0.1333242803812027, 0.04505958408117294, 0.03493031486868858, 0.02216636948287487, 0.013362441211938858, 0.03654055297374725, 0.016239384189248085, 0.03413134440779686, 0.05806770175695419, 0.08189192414283752, 0.051222119480371475, 0.03373291715979576, 0.02824443206191063, 0.06567955762147903, 0.024761172011494637, 0.01695563644170761, 0.024434199556708336, 0.07386010140180588, 0.03444760665297508, 0.029835272580385208, 0.14111310243606567], [0.14554357528686523, 0.04525391012430191, 0.027509178966283798, 0.014975243248045444, 0.012711810879409313, 0.005950011778622866, 0.02416076883673668, 0.023880021646618843, 0.07436725497245789, 0.07783651351928711, 0.047324828803539276, 0.027319490909576416, 0.01924799755215645, 0.07254450023174286, 0.03249263018369675, 0.019786061719059944, 0.030328981578350067, 0.10836559534072876, 0.07793094217777252, 0.022839456796646118, 0.08963125944137573], [0.05611360818147659, 0.053036633878946304, 0.014553100802004337, 0.0670505240559578, 0.014583155512809753, 0.012851318344473839, 0.0020983561407774687, 0.10207262635231018, 0.0935266762971878, 0.021186169236898422, 0.07155146449804306, 0.013569568283855915, 0.019065966829657555, 0.07998987287282944, 0.012536234222352505, 0.030569614842534065, 0.06961245089769363, 0.11715517938137054, 0.09446873515844345, 0.03150048851966858, 0.022908300161361694], [0.07805731147527695, 0.022915378212928772, 0.015663037076592445, 0.00890837050974369, 0.024179821833968163, 0.014912056736648083, 0.007748364005237818, 0.008305451832711697, 0.034085847437381744, 0.048931896686553955, 0.03043435700237751, 0.018679818138480186, 0.027532506734132767, 0.03247717022895813, 0.017652707174420357, 0.014243779703974724, 0.012342406436800957, 0.048024073243141174, 0.087309330701828, 0.019047563895583153, 0.42854875326156616], [0.14406566321849823, 0.03654595464468002, 0.0368787981569767, 0.01419548038393259, 0.02190580777823925, 0.022819381207227707, 0.027623966336250305, 0.0368867851793766, 0.051130641251802444, 0.05682244151830673, 0.03338805213570595, 0.03618506342172623, 0.030088908970355988, 0.05970616638660431, 0.045799221843481064, 0.02644866146147251, 0.045884713530540466, 0.0824749618768692, 0.054569829255342484, 0.04517436400055885, 0.09140515327453613], [0.1589728742837906, 0.04495370388031006, 0.013235483318567276, 0.005653467029333115, 0.017635442316532135, 0.011419197544455528, 0.02212662436068058, 0.030201349407434464, 0.06793191283941269, 0.018138904124498367, 0.04144609719514847, 0.016802286729216576, 0.02039903774857521, 0.07514012604951859, 0.07703252881765366, 0.01848977990448475, 0.01889459788799286, 0.0974445715546608, 0.1361856609582901, 0.05821111425757408, 0.04968525841832161], [0.12095759063959122, 0.04999034106731415, 0.02296358160674572, 0.01940794661641121, 0.01772955060005188, 0.021363886073231697, 0.02821086160838604, 0.04319857805967331, 0.06841641664505005, 0.039840538054704666, 0.047488901764154434, 0.022990461438894272, 0.02360408753156662, 0.08168686926364899, 0.03063160926103592, 0.033812712877988815, 0.05339941754937172, 0.10364236682653427, 0.03942151367664337, 0.051165420562028885, 0.08007722347974777], [0.13262945413589478, 0.03202792629599571, 0.0036827181465923786, 0.012840698473155499, 0.010151908732950687, 0.00484172347933054, 0.015766363590955734, 0.036387696862220764, 0.05299704149365425, 0.03129654377698898, 0.035330742597579956, 0.0028428658843040466, 0.01509938482195139, 0.055192261934280396, 0.03559064865112305, 0.020787237212061882, 0.046159956604242325, 0.083245649933815, 0.19036038219928741, 0.029338395223021507, 0.15343040227890015], [0.10848873108625412, 0.04673522338271141, 0.026292886584997177, 0.018106674775481224, 0.017338726669549942, 0.03638152778148651, 0.019646598026156425, 0.030762454494833946, 0.06619741767644882, 0.0736004039645195, 0.053030986338853836, 0.02536092698574066, 0.023796584457159042, 0.07183528691530228, 0.04532729834318161, 0.02016061171889305, 0.024273263290524483, 0.08093062043190002, 0.03169195353984833, 0.031453683972358704, 0.14858807623386383], [0.14254209399223328, 0.030643176287412643, 0.03563239425420761, 0.012993925251066685, 0.02527714893221855, 0.02405029907822609, 0.02423713542521, 0.030994849279522896, 0.050247956067323685, 0.05946483463048935, 0.032377272844314575, 0.03739166259765625, 0.03660184517502785, 0.05510779097676277, 0.04969720169901848, 0.02760513871908188, 0.04134037345647812, 0.08162081986665726, 0.05355426296591759, 0.03873487561941147, 0.10988496989011765], [0.09382443875074387, 0.049177877604961395, 0.017755210399627686, 0.0061477660201489925, 0.005323642864823341, 0.014223246835172176, 0.024053024128079414, 0.027683528140187263, 0.07488152384757996, 0.07813183963298798, 0.04167972877621651, 0.018894117325544357, 0.009018800221383572, 0.09619669616222382, 0.016840578988194466, 0.01870466023683548, 0.04561842605471611, 0.1126924380660057, 0.1288820058107376, 0.08951009809970856, 0.030760185793042183], [0.13669216632843018, 0.06029285863041878, 0.027533479034900665, 0.0025310255587100983, 0.03829418867826462, 0.03736967593431473, 0.009004764258861542, 0.023987118154764175, 0.07511936873197556, 0.03485413268208504, 0.04663727059960365, 0.03354780003428459, 0.052094828337430954, 0.07350951433181763, 0.02847503311932087, 0.009666369296610355, 0.017892347648739815, 0.10857398062944412, 0.02905416302382946, 0.03399791568517685, 0.12087194621562958], [0.0790177434682846, 0.027530977502465248, 0.03206291049718857, 0.007999272085726261, 0.025377755984663963, 0.01980547048151493, 0.007822275161743164, 0.010244008153676987, 0.03476338088512421, 0.05962786078453064, 0.02943994477391243, 0.05008973181247711, 0.03753705695271492, 0.03467659652233124, 0.02763562835752964, 0.013043900020420551, 0.006542980670928955, 0.051192037761211395, 0.09950187802314758, 0.02726917713880539, 0.3188193738460541], [0.12881098687648773, 0.027983861044049263, 0.046635258942842484, 0.011654558591544628, 0.028749816119670868, 0.028144314885139465, 0.02443627081811428, 0.031206907704472542, 0.041592586785554886, 0.06705885380506516, 0.026457330211997032, 0.05020427703857422, 0.040366269648075104, 0.04680199548602104, 0.05178424343466759, 0.03122054599225521, 0.04034927114844322, 0.06640983372926712, 0.046489886939525604, 0.04793190211057663, 0.11571109294891357], [0.11726630479097366, 0.036725763231515884, 0.032699309289455414, 0.00404424499720335, 0.00890166126191616, 0.0033262025099247694, 0.03668390214443207, 0.034828994423151016, 0.03800554573535919, 0.2618084251880646, 0.018336882814764977, 0.022445883601903915, 0.012752302922308445, 0.0361374206840992, 0.22634407877922058, 0.009858277626335621, 0.0287367794662714, 0.04476625844836235, 0.003960834350436926, 0.01234216708689928, 0.010028861463069916], [0.12911756336688995, 0.038707513362169266, 0.012256543152034283, 0.007322193123400211, 0.034855034202337265, 0.02646474912762642, 0.007420072332024574, 0.03608391806483269, 0.04956980422139168, 0.07049345225095749, 0.030350442975759506, 0.00967007502913475, 0.05771585926413536, 0.041722990572452545, 0.030716095119714737, 0.023488204926252365, 0.05514927953481674, 0.07600749284029007, 0.07508421689271927, 0.017284801229834557, 0.17051972448825836], [0.11316289752721786, 0.023541083559393883, 0.029387887567281723, 0.008420390076935291, 0.05261846259236336, 0.03228244185447693, 0.007191270589828491, 0.02457333728671074, 0.02998390980064869, 0.047547806054353714, 0.018625736236572266, 0.03066316992044449, 0.08930855989456177, 0.024937856942415237, 0.010834267362952232, 0.018989337608218193, 0.023606574162840843, 0.04303469508886337, 0.016979947686195374, 0.023624589666724205, 0.33068570494651794]], [[0.005783591885119677, 0.03356144577264786, 0.09381476044654846, 0.007331313099712133, 0.005704195238649845, 0.004861620720475912, 0.04954379424452782, 0.016293086111545563, 0.018428683280944824, 0.3462294638156891, 0.015660010278224945, 0.05805841088294983, 0.007830031216144562, 0.022986002266407013, 0.04706129431724548, 0.04062473028898239, 0.03516567870974541, 0.03520970791578293, 0.11253515630960464, 0.01122467964887619, 0.032092154026031494], [0.061135489493608475, 0.110323466360569, 0.009793436154723167, 0.012492217123508453, 0.00875494908541441, 0.015061543323099613, 0.0040598646737635136, 0.007830888964235783, 0.16141605377197266, 0.02371228113770485, 0.10838764160871506, 0.005605321377515793, 0.007774877827614546, 0.15312421321868896, 0.020037980750203133, 0.007971012033522129, 0.007358374074101448, 0.20645545423030853, 0.01345227099955082, 0.006848666351288557, 0.04840408265590668], [0.006876906845718622, 0.07634986937046051, 0.00019730911299120635, 0.0029726573266088963, 0.0002178894792450592, 0.0014514077920466661, 0.00014595792163163424, 0.00040377600817009807, 0.2417115420103073, 0.0015889977803453803, 0.16242019832134247, 0.00012900959700345993, 0.0003471165255177766, 0.16825070977210999, 0.0013641263358294964, 0.0009283695835620165, 0.0007816727156750858, 0.29076090455055237, 0.0003735708596650511, 0.0025962060317397118, 0.040131814777851105], [0.023982221260666847, 0.1377142369747162, 0.0015284809051081538, 0.000583305605687201, 0.0004047159745823592, 0.004622942768037319, 0.0002620197192300111, 0.00030036954558454454, 0.22040624916553497, 0.0021215269807726145, 0.13751377165317535, 0.00044702019658870995, 0.0002753893204499036, 0.14629298448562622, 0.009940426796674728, 0.0006790417246520519, 0.00034896403667517006, 0.26834094524383545, 0.00026683160103857517, 0.0006061983876861632, 0.04336242005228996], [0.014094360172748566, 0.10494736582040787, 0.0036906821187585592, 0.0026610291097313166, 0.001061193528585136, 0.007518746890127659, 0.00047550007002428174, 0.0010945943649858236, 0.24854786694049835, 0.009285462088882923, 0.16110502183437347, 0.0025035261642187834, 0.002048802562057972, 0.14240536093711853, 0.004420398268848658, 0.0028476479928940535, 0.0007649740437045693, 0.255750834941864, 0.001751350937411189, 0.0024204824585467577, 0.030604775995016098], [0.01734384149312973, 0.10929195582866669, 0.0015624802326783538, 0.007478524465113878, 0.0013004634529352188, 0.004205440636724234, 0.0004850644909311086, 0.0012725869892165065, 0.2301253229379654, 0.004408411681652069, 0.14613454043865204, 0.00092182686785236, 0.0019582880195230246, 0.17192667722702026, 0.004079241771250963, 0.002641275990754366, 0.0009967029327526689, 0.26492491364479065, 0.005245573353022337, 0.003557321149855852, 0.020139653235673904], [0.00761468056589365, 0.0420789010822773, 0.0010797586292028427, 0.014971605502068996, 0.002419999334961176, 0.004945540800690651, 0.0003389307239558548, 0.0025897370651364326, 0.23231762647628784, 0.007541346363723278, 0.21512337028980255, 0.0015116409631446004, 0.004878622479736805, 0.1453828662633896, 0.0037102196365594864, 0.0138565544039011, 0.0020784607622772455, 0.240469828248024, 0.003920023329555988, 0.007444155402481556, 0.045726075768470764], [0.03557011857628822, 0.12046051025390625, 0.0025139835197478533, 0.006796558387577534, 0.002624246757477522, 0.009060979820787907, 0.000386640866054222, 0.0014956421218812466, 0.20991651713848114, 0.0025036833249032497, 0.17467445135116577, 0.0011427976423874497, 0.0021788908634334803, 0.14299003779888153, 0.0042823138646781445, 0.002425244078040123, 0.0016154645709320903, 0.22605718672275543, 0.001242568250745535, 0.004959231708198786, 0.04710298404097557], [0.027203526347875595, 0.10134344547986984, 0.006509338039904833, 0.01945430412888527, 0.005964640527963638, 0.008080015890300274, 0.005982099566608667, 0.009117420762777328, 0.16388331353664398, 0.03475578874349594, 0.1179836317896843, 0.004628827329725027, 0.006972367409616709, 0.16247864067554474, 0.03694075718522072, 0.008931242860853672, 0.012766069732606411, 0.20230597257614136, 0.024977784603834152, 0.011074618436396122, 0.02864616923034191], [0.013086775317788124, 0.08513855934143066, 0.0014626458287239075, 0.006359405815601349, 0.0014810900902375579, 0.0017732750857248902, 0.0004437684256117791, 0.00433496106415987, 0.21053354442119598, 0.002478878479450941, 0.1415407955646515, 0.0014025889104232192, 0.0027131729293614626, 0.21848590672016144, 0.008909695781767368, 0.0044766864739358425, 0.010877292603254318, 0.23061178624629974, 0.002715105190873146, 0.009670611470937729, 0.04150349646806717], [0.02821999602019787, 0.12478945404291153, 0.002951444126665592, 0.011987096630036831, 0.003809042042121291, 0.007554727606475353, 0.002678706543520093, 0.0041192970238626, 0.19492407143115997, 0.013020966202020645, 0.12778791785240173, 0.001660783658735454, 0.003644837299361825, 0.17471455037593842, 0.02011297456920147, 0.003983079921454191, 0.0054505979642271996, 0.22425082325935364, 0.009731210768222809, 0.0056333220563828945, 0.028975114226341248], [0.005025324411690235, 0.07240792363882065, 0.00019127341511193663, 0.00303297839127481, 0.00034897433943115175, 0.0012595256557688117, 0.00016250125190708786, 0.0003133533464279026, 0.2515268325805664, 0.0010839777532964945, 0.17606471478939056, 0.0001277392584597692, 0.0004907664842903614, 0.1708044856786728, 0.001412639976479113, 0.0006444237078540027, 0.0007322535384446383, 0.27451708912849426, 0.00023318955209106207, 0.0033591866958886385, 0.03626074641942978], [0.02765464410185814, 0.12411122024059296, 0.006584322080016136, 0.005103526636958122, 0.003541099838912487, 0.01238788291811943, 0.00084582349518314, 0.0024401035625487566, 0.22030039131641388, 0.00912032276391983, 0.16477856040000916, 0.00433558551594615, 0.004497612360864878, 0.12414749711751938, 0.0077069723047316074, 0.003454275196418166, 0.0018442850559949875, 0.2086026817560196, 0.0022531505674123764, 0.0051210857927799225, 0.061169009655714035], [0.02261839248239994, 0.08856557309627533, 0.004521078895777464, 0.016939610242843628, 0.00480142654851079, 0.0063272444531321526, 0.004398118704557419, 0.007496747188270092, 0.17764000594615936, 0.035504356026649475, 0.1164788007736206, 0.00363744399510324, 0.0062951091676950455, 0.16828769445419312, 0.03807377070188522, 0.00815487839281559, 0.009483651258051395, 0.23443561792373657, 0.019541891291737556, 0.00842310395091772, 0.018375493586063385], [0.025312500074505806, 0.10314762592315674, 0.0004037616599816829, 0.004627287853509188, 0.00021474840468727052, 0.000500471331179142, 0.0003915757406502962, 0.0012291407911106944, 0.18999190628528595, 0.002411331981420517, 0.10160601884126663, 0.0001607903395779431, 0.0003719060914590955, 0.1741236299276352, 0.0005498224636539817, 0.0018495775293558836, 0.0029359220061451197, 0.2364591360092163, 0.004215592984110117, 0.0029575678054243326, 0.14653979241847992], [0.008825263939797878, 0.0726279467344284, 0.0005370207945816219, 0.010389585047960281, 0.001234774012118578, 0.006018324289470911, 0.0022413446567952633, 0.002116789110004902, 0.22194796800613403, 0.0018282700330018997, 0.16114898025989532, 0.00045134269748814404, 0.0025126298423856497, 0.17749428749084473, 0.00674087181687355, 0.00478604668751359, 0.0037738254759460688, 0.2883011996746063, 0.003473873483017087, 0.003965224605053663, 0.01958441361784935], [0.05800309032201767, 0.12292821705341339, 0.005863341037184, 0.01360991783440113, 0.006448964588344097, 0.04146798327565193, 0.002268644981086254, 0.00584279652684927, 0.1702842265367508, 0.002389191184192896, 0.16735464334487915, 0.002319169929251075, 0.002886750502511859, 0.11689664423465729, 0.00841761939227581, 0.010151880793273449, 0.003146544797345996, 0.17986717820167542, 0.0022512199357151985, 0.012513292022049427, 0.06508871167898178], [0.024088455364108086, 0.08768370002508163, 0.006640239618718624, 0.023045670241117477, 0.005399010609835386, 0.006513573694974184, 0.007558854762464762, 0.011046137660741806, 0.15539103746414185, 0.049712203443050385, 0.10330554842948914, 0.005191452335566282, 0.006881435867398977, 0.16681954264640808, 0.04541165009140968, 0.013394812121987343, 0.014324736781418324, 0.2063104808330536, 0.03198185935616493, 0.01055737305432558, 0.01874220184981823], [0.04569827392697334, 0.10671316832304001, 0.03175744041800499, 0.02260352112352848, 0.041488565504550934, 0.03610506281256676, 0.0018236985197290778, 0.01675458438694477, 0.1341949850320816, 0.0044632526114583015, 0.10790292918682098, 0.01647494174540043, 0.026754258200526237, 0.1308615356683731, 0.010191689245402813, 0.010938083752989769, 0.009537778794765472, 0.1659507006406784, 0.0028278676327317953, 0.03426629677414894, 0.0426914319396019], [0.06530805677175522, 0.09241810441017151, 0.015968861058354378, 0.030570752918720245, 0.014771061018109322, 0.01507655344903469, 0.009370424784719944, 0.036780767142772675, 0.10040777176618576, 0.005710221827030182, 0.09407939016819, 0.015079174190759659, 0.020797614008188248, 0.0947519987821579, 0.006744930054992437, 0.030454112216830254, 0.04566534608602524, 0.13696396350860596, 0.017339520156383514, 0.10324419289827347, 0.04849717393517494], [0.09754302352666855, 0.1894918531179428, 0.014087556861341, 0.008426234126091003, 0.005981709808111191, 0.010574349202215672, 0.005928929429501295, 0.005858190357685089, 0.12543150782585144, 0.010397810488939285, 0.08941060304641724, 0.004847648553550243, 0.002542840549722314, 0.09197056293487549, 0.0055068726651370525, 0.004973192699253559, 0.007371269632130861, 0.14729180932044983, 0.02628742717206478, 0.01438867300748825, 0.1316879242658615]], [[0.12383601069450378, 0.036805711686611176, 0.01727433130145073, 0.008195487782359123, 0.024765148758888245, 0.006731146015226841, 0.034036196768283844, 0.0974137932062149, 0.06059528514742851, 0.08390507102012634, 0.0376729778945446, 0.024150418117642403, 0.03389501944184303, 0.051605500280857086, 0.02965305931866169, 0.05367835611104965, 0.12655678391456604, 0.05579628422856331, 0.024457048624753952, 0.0156017504632473, 0.05337469279766083], [0.09982987493276596, 0.02424071729183197, 0.0038303150795400143, 0.011221025139093399, 0.011238396167755127, 0.015101486817002296, 0.020174318924546242, 0.02083401568233967, 0.10802450031042099, 0.07994414120912552, 0.11560609191656113, 0.026981297880411148, 0.0166808869689703, 0.10211724042892456, 0.12298056483268738, 0.02059631049633026, 0.013531123287975788, 0.03968537598848343, 0.0063169305212795734, 0.011357621289789677, 0.1297076791524887], [0.008165623992681503, 0.0007572936010546982, 0.03841979801654816, 2.0982186470064335e-05, 0.00010127128916792572, 0.0006848311168141663, 0.0008287085220217705, 6.35066899121739e-05, 0.006201385520398617, 0.0004956213524565101, 0.006949214730411768, 0.9206288456916809, 0.00024400853726547211, 0.0077553000301122665, 0.0005373589228838682, 0.00118476920761168, 7.375910354312509e-05, 0.005465107038617134, 3.3711108699208125e-05, 4.83043822896434e-06, 0.001384075148962438], [0.13173848390579224, 0.03516741842031479, 0.0002538577246014029, 0.2546771168708801, 0.00023452815366908908, 0.0015675887698307633, 0.009021501988172531, 0.007957331836223602, 0.08318524807691574, 0.0035693419631570578, 0.06751661002635956, 0.001122984103858471, 0.003807503031566739, 0.08881249278783798, 0.08130725473165512, 0.011115684174001217, 0.020254740491509438, 0.17560650408267975, 0.004602647852152586, 0.0008915834478102624, 0.017589570954442024], [0.0033336046617478132, 0.00139071315061301, 0.00010279766866005957, 1.3351258530747145e-05, 0.05474399775266647, 7.286485197255388e-05, 6.481642776634544e-05, 0.00156380794942379, 0.0036802187096327543, 7.816154538886622e-05, 0.0016927551478147507, 0.00014222679601516575, 0.9135196805000305, 0.0048221624456346035, 1.2179296390968375e-05, 0.0016647172160446644, 0.0027497033588588238, 0.010014314204454422, 0.0001414638536516577, 5.8902787714032456e-05, 0.0001374492421746254], [0.06176086142659187, 0.0471685416996479, 0.009409462101757526, 0.0036926642060279846, 0.00247341301292181, 0.3011072278022766, 0.00019933814473915845, 0.003055756213143468, 0.08847252279520035, 0.0023750492837280035, 0.06268632411956787, 0.00261558941565454, 0.010461285710334778, 0.10186278074979782, 0.006646930240094662, 0.013103135861456394, 0.00773556949570775, 0.24190284311771393, 0.014401467517018318, 0.012468008324503899, 0.0064012594521045685], [0.14344602823257446, 0.05494615435600281, 0.01194924209266901, 0.032155320048332214, 0.003248983295634389, 0.00021812308114022017, 0.037390436977148056, 0.0010170784080401063, 0.034033387899398804, 0.014602324925363064, 0.09543980658054352, 0.006494427565485239, 0.007144699804484844, 0.08121274411678314, 0.0029640786815434694, 0.05802493169903755, 0.020625082775950432, 0.27584338188171387, 0.014956740662455559, 0.014570657163858414, 0.08971637487411499], [0.13519224524497986, 0.008313228376209736, 0.00017239328008145094, 0.0008103821310214698, 0.008288975805044174, 0.001572002307511866, 0.00016275282541755587, 0.18470659852027893, 0.0032803250942379236, 0.00014149369962979108, 0.013055159710347652, 0.00015425903256982565, 0.0037636542692780495, 0.013096465729176998, 0.00023671364760957658, 0.006118742283433676, 0.5031026601791382, 0.03201105073094368, 0.0010453414870426059, 0.01921733096241951, 0.06555831432342529], [0.13112077116966248, 0.0918530821800232, 0.023970503360033035, 0.020519444718956947, 0.03608831390738487, 0.020952019840478897, 0.009013820439577103, 0.003786554094403982, 0.020156145095825195, 0.00957239605486393, 0.0496130995452404, 0.022928563877940178, 0.03619074448943138, 0.08032924681901932, 0.029197627678513527, 0.009171423502266407, 0.01905703730881214, 0.1254987269639969, 0.04161212965846062, 0.031646210700273514, 0.18772217631340027], [0.2771655321121216, 0.10619081556797028, 0.007189157418906689, 0.0022266628220677376, 0.0015564503846690059, 0.0020701445173472166, 0.007004881743341684, 0.0006791086634621024, 0.01300534326583147, 0.07935640960931778, 0.006280079018324614, 0.0009577012388035655, 0.0062965587712824345, 0.1266600489616394, 0.006450799759477377, 0.000436341215390712, 0.0011038517113775015, 0.12454946339130402, 0.08918130397796631, 0.014100583270192146, 0.12753883004188538], [0.1123795434832573, 0.12922273576259613, 0.03402455523610115, 0.01958066038787365, 0.01346690021455288, 0.012445327825844288, 0.03052843175828457, 0.01714608445763588, 0.07743792980909348, 0.006721701007336378, 0.015343011356890202, 0.0024837905075401068, 0.008808481507003307, 0.1278657466173172, 0.05611089617013931, 0.010087764821946621, 0.011092830449342728, 0.12380515784025192, 0.028872519731521606, 0.02282206527888775, 0.13975387811660767], [0.010187115520238876, 0.0053581055253744125, 0.9282558560371399, 0.00012430606875568628, 0.00020162900909781456, 0.00024335044145118445, 0.00029985158471390605, 5.7493587519275025e-05, 0.010386275127530098, 0.00012564043572638184, 0.0007824002532288432, 0.02180393785238266, 1.6417345250374638e-05, 0.004423403646796942, 8.869311568560079e-05, 0.00030017431708984077, 2.31585290748626e-05, 0.013430447317659855, 0.00032660941360518336, 3.358506364747882e-05, 0.003531575668603182], [0.0067343395203351974, 0.0013227160088717937, 0.00027655073790811, 9.856348333414644e-05, 0.954837441444397, 0.0003310050815343857, 0.00017013117030728608, 0.0006912226090207696, 0.004238192457705736, 0.0005693823914043605, 0.0008957027457654476, 2.140242031600792e-05, 0.02172861061990261, 0.00047943697427399457, 1.2820978554373141e-06, 0.0002447408623993397, 0.0007076245965436101, 0.004942767787724733, 0.00012069537478964776, 6.20729842921719e-05, 0.0015260621439665556], [0.11289903521537781, 0.0858273133635521, 0.03041934408247471, 0.014018015004694462, 0.03494744375348091, 0.01967778615653515, 0.02311522327363491, 0.014558948576450348, 0.10032220184803009, 0.12587970495224, 0.10355765372514725, 0.015385000966489315, 0.005219200626015663, 0.016401423141360283, 0.003937739413231611, 0.007715840358287096, 0.02202964760363102, 0.1347728818655014, 0.04220866411924362, 0.016003359109163284, 0.07110357284545898], [0.19061625003814697, 0.06311702728271484, 0.006652774754911661, 0.051872316747903824, 0.0003147064126096666, 0.0075750527903437614, 0.00497304555028677, 0.0035888575948774815, 0.04614235460758209, 0.02880639210343361, 0.053414441645145416, 0.0014097130624577403, 8.541498391423374e-05, 0.005737918429076672, 0.2621580958366394, 5.685893847839907e-05, 0.0008107682224363089, 0.06899599730968475, 0.08223029226064682, 0.023935353383421898, 0.09750638157129288], [0.17836403846740723, 0.03491285815834999, 0.0062489076517522335, 0.008962860330939293, 0.0158645398914814, 0.009140297770500183, 0.04615494981408119, 0.04257810115814209, 0.06291378289461136, 0.0008242223993875086, 0.05610281974077225, 0.0029355264268815517, 0.0069887153804302216, 0.043572187423706055, 8.150959183694795e-05, 0.27678555250167847, 0.005493098869919777, 0.06415339559316635, 0.010703667998313904, 0.07567501813173294, 0.051543980836868286], [0.21306034922599792, 0.0043940055184066296, 9.537051664665341e-05, 0.0005097227403894067, 0.0053652008064091206, 0.0015568803064525127, 0.0015420775162056088, 0.5439534783363342, 0.01471810881048441, 0.00035803686478175223, 0.008033339865505695, 5.235635762801394e-05, 0.0044816541485488415, 0.023152319714426994, 0.00012574797437991947, 0.0009572233539074659, 0.12670397758483887, 0.004843746777623892, 0.00023479701485484838, 0.007617645896971226, 0.038243941962718964], [0.10448946803808212, 0.02978149801492691, 0.013963284902274609, 0.02067354880273342, 0.047826480120420456, 0.03774873912334442, 0.03186267986893654, 0.027218692004680634, 0.10023083537817001, 0.11541382223367691, 0.07197766751050949, 0.027079496532678604, 0.042078230530023575, 0.09971149265766144, 0.06259896606206894, 0.01258065365254879, 0.005052001681178808, 0.0237989891320467, 0.012170793488621712, 0.028535237535834312, 0.08520752191543579], [0.029509086161851883, 0.002377172466367483, 0.00014860204828437418, 0.000369302841136232, 0.0005508408066816628, 0.0037291008047759533, 0.0005726950475946069, 0.0007162925903685391, 0.015515383332967758, 0.028394067659974098, 0.01054332870990038, 0.001170601462945342, 0.0005935344379395247, 0.019924789667129517, 0.014156345278024673, 0.0034650384914129972, 0.00023579454864375293, 0.005328459199517965, 0.8451085090637207, 0.006408109329640865, 0.011182860471308231], [0.16674894094467163, 0.011473450809717178, 8.15361927379854e-05, 6.43426101305522e-05, 0.0003625556128099561, 0.006898923311382532, 0.003552529960870743, 0.03511739894747734, 0.04614197835326195, 0.011502878740429878, 0.03429631516337395, 0.0005442082765512168, 0.0012620193883776665, 0.03697012737393379, 0.004989251494407654, 0.0379653126001358, 0.014147810637950897, 0.050869472324848175, 0.004160706419497728, 0.5199717879295349, 0.012878435663878918], [0.0610118992626667, 0.06168553605675697, 0.005450966767966747, 0.0028625912964344025, 0.002766529330983758, 0.003541500074788928, 0.021400945261120796, 0.07592727243900299, 0.13622348010540009, 0.07297570258378983, 0.07369352877140045, 0.015646200627088547, 0.042924914509058, 0.08552494645118713, 0.06085650622844696, 0.019069166854023933, 0.07012525200843811, 0.11075259745121002, 0.023637311533093452, 0.005284262355417013, 0.04863889142870903]], [[0.12215486913919449, 0.2108531892299652, 0.017375843599438667, 0.006202398799359798, 0.0073167020455002785, 0.01108770351856947, 0.009455307386815548, 0.003133057616651058, 0.13104015588760376, 0.018780462443828583, 0.09551544487476349, 0.011983842588961124, 0.006333635654300451, 0.1489453762769699, 0.028488067910075188, 0.0036497244145721197, 0.006100910250097513, 0.11127807199954987, 0.020695947110652924, 0.0015878259437158704, 0.028021348640322685], [0.11285088956356049, 0.13132382929325104, 0.019106069579720497, 0.022294316440820694, 0.010071867145597935, 0.018394576385617256, 0.007686318829655647, 0.009217213839292526, 0.10569480061531067, 0.02320893481373787, 0.08184374868869781, 0.011745896190404892, 0.006823734380304813, 0.09390000998973846, 0.03492312133312225, 0.005067401099950075, 0.009334075264632702, 0.11622047424316406, 0.01536825392395258, 0.00569421099498868, 0.1592302769422531], [0.02292332425713539, 0.12914155423641205, 0.011719582602381706, 0.036330390721559525, 0.016368597745895386, 0.03462833911180496, 0.00711841182783246, 0.013674370013177395, 0.0704275444149971, 0.021483588963747025, 0.07338070869445801, 0.009109009057283401, 0.00835746992379427, 0.07834096252918243, 0.00415749941021204, 0.005918890703469515, 0.005477245897054672, 0.09025146812200546, 0.031776826828718185, 0.005946046207100153, 0.3234682083129883], [0.07710641622543335, 0.12265357375144958, 0.025142882019281387, 0.0009644471574574709, 0.00763007253408432, 0.02566479705274105, 0.010354475118219852, 0.016032202169299126, 0.11307213455438614, 0.01942354068160057, 0.10865403711795807, 0.011548955924808979, 0.004510104190558195, 0.15485930442810059, 0.023737439885735512, 0.008997747674584389, 0.016663048416376114, 0.14510472118854523, 0.008441096171736717, 0.0035315973218530416, 0.09590748697519302], [0.08671852946281433, 0.10895659029483795, 0.01543640997260809, 0.007607831619679928, 0.005204305984079838, 0.049800023436546326, 0.008424493484199047, 0.037665076553821564, 0.10949214547872543, 0.025168433785438538, 0.12257140129804611, 0.011804861016571522, 0.005558891221880913, 0.0918365865945816, 0.012503418140113354, 0.013489808887243271, 0.03911823406815529, 0.11832574754953384, 0.025078391656279564, 0.010286146774888039, 0.09495274722576141], [0.0721871629357338, 0.11823247373104095, 0.009479525499045849, 0.027758443728089333, 0.017869791015982628, 0.023366207256913185, 0.005497363395988941, 0.014269687235355377, 0.1079157292842865, 0.016638536006212234, 0.10600977391004562, 0.007079306524246931, 0.011202128604054451, 0.09756947308778763, 0.01546430867165327, 0.012520168907940388, 0.008037854917347431, 0.11104472726583481, 0.02975161001086235, 0.008021912537515163, 0.18008384108543396], [0.05128543823957443, 0.14578045904636383, 0.0050180950202047825, 0.006789750419557095, 0.0020730234682559967, 0.01422792486846447, 0.0013963805977255106, 0.0049721477553248405, 0.1876714676618576, 0.024444710463285446, 0.141537144780159, 0.00374807883054018, 0.0017109866021201015, 0.14849762618541718, 0.00966846477240324, 0.008421003818511963, 0.004055032506585121, 0.18687526881694794, 0.024316027760505676, 0.0035313854459673166, 0.02397960051894188], [0.10760093480348587, 0.14466552436351776, 0.0039310879074037075, 0.019275959581136703, 0.004589029122143984, 0.009113986045122147, 0.0012173001887276769, 0.00576645927503705, 0.12209853529930115, 0.002630240051075816, 0.09498561173677444, 0.002626977162435651, 0.004412567708641291, 0.09868080914020538, 0.004322113934904337, 0.002883357461541891, 0.0038951823953539133, 0.12081034481525421, 0.012911255471408367, 0.0024942969903349876, 0.23108838498592377], [0.08110754936933517, 0.0863548293709755, 0.017422348260879517, 0.033131375908851624, 0.009038835763931274, 0.017261449247598648, 0.00846580695360899, 0.01040696818381548, 0.12912289798259735, 0.03412964195013046, 0.08610432595014572, 0.015727778896689415, 0.009220676496624947, 0.12614771723747253, 0.03147054463624954, 0.007276343181729317, 0.013127216137945652, 0.1724003404378891, 0.020910201594233513, 0.009037917479872704, 0.08213527500629425], [0.09357845783233643, 0.09889743477106094, 0.01152064185589552, 0.009653960354626179, 0.009001231752336025, 0.009981046430766582, 0.005004190839827061, 0.004343228414654732, 0.14437253773212433, 0.00857492070645094, 0.09147965162992477, 0.012477689422667027, 0.009825889952480793, 0.1546558290719986, 0.009626960381865501, 0.003049165941774845, 0.004301857203245163, 0.1815394014120102, 0.04317634925246239, 0.008342704735696316, 0.08659688383340836], [0.08657947182655334, 0.08261376619338989, 0.01653943955898285, 0.03771905228495598, 0.010214808396995068, 0.021915042772889137, 0.006954149808734655, 0.015898464247584343, 0.12938685715198517, 0.026035593822598457, 0.09594520926475525, 0.01587936468422413, 0.010309445671737194, 0.12524491548538208, 0.026198048144578934, 0.008996671065688133, 0.016313258558511734, 0.16643133759498596, 0.02243586629629135, 0.010540635325014591, 0.0678485706448555], [0.02447652444243431, 0.1003575474023819, 0.007619068957865238, 0.03358951210975647, 0.016427893191576004, 0.04230359196662903, 0.008624210953712463, 0.017451411113142967, 0.09907315671443939, 0.02217068336904049, 0.09736467897891998, 0.008592572994530201, 0.010585052892565727, 0.12331676483154297, 0.0035222237929701805, 0.008956710807979107, 0.007442138623446226, 0.15633228421211243, 0.017930936068296432, 0.006360564846545458, 0.18750247359275818], [0.05445605888962746, 0.094492606818676, 0.0066904304549098015, 0.005866925697773695, 0.007175900042057037, 0.041768450289964676, 0.003225571010261774, 0.017457837238907814, 0.14838680624961853, 0.01456438098102808, 0.15002183616161346, 0.00784359872341156, 0.0065785907208919525, 0.1386454701423645, 0.007314126938581467, 0.007754542864859104, 0.01903424970805645, 0.17345069348812103, 0.018291976302862167, 0.006992453243583441, 0.06998751312494278], [0.08475237339735031, 0.06803993880748749, 0.015683814883232117, 0.036392685025930405, 0.009299770928919315, 0.021052377298474312, 0.007393736857920885, 0.010462387464940548, 0.1276400089263916, 0.03785433620214462, 0.09079030901193619, 0.017314480617642403, 0.009335334412753582, 0.12571552395820618, 0.029416479170322418, 0.006701250560581684, 0.013303561136126518, 0.1773519366979599, 0.029115531593561172, 0.009317570365965366, 0.07306661456823349], [0.08158998191356659, 0.1347290575504303, 0.0055708265863358974, 0.005037135444581509, 0.0021431217901408672, 0.007020975463092327, 0.0021137972362339497, 0.003509573871269822, 0.15488870441913605, 0.00610087625682354, 0.13042214512825012, 0.006627674680203199, 0.0030230586417019367, 0.1778794229030609, 0.0013602940598502755, 0.003395720152184367, 0.004755114670842886, 0.16905535757541656, 0.0739167183637619, 0.0031434823758900166, 0.023716971278190613], [0.14610354602336884, 0.07966575026512146, 0.012799969874322414, 0.008797744289040565, 0.007944506593048573, 0.013978110626339912, 0.0022643280681222677, 0.005702692084014416, 0.1667022705078125, 0.011691628955304623, 0.12392230331897736, 0.013086060993373394, 0.007811384275555611, 0.14427398145198822, 0.010458871722221375, 0.006178635638207197, 0.006873609963804483, 0.17309072613716125, 0.02100769244134426, 0.005484790075570345, 0.03216137737035751], [0.14379660785198212, 0.12705305218696594, 0.005661860574036837, 0.006997961550951004, 0.01256717648357153, 0.01952000893652439, 0.0015896273544058204, 0.003005502512678504, 0.13014063239097595, 0.002647046698257327, 0.09725671261548996, 0.005534646101295948, 0.01067153736948967, 0.15024863183498383, 0.0049798921681940556, 0.005788617301732302, 0.0018798343371599913, 0.1376514583826065, 0.008034895174205303, 0.00370737724006176, 0.12126696109771729], [0.07697135955095291, 0.08233193308115005, 0.017995549365878105, 0.04565422609448433, 0.010727797634899616, 0.018318288028240204, 0.010534700937569141, 0.010866688564419746, 0.12866589426994324, 0.04280983656644821, 0.08345551043748856, 0.018830081447958946, 0.011795690283179283, 0.12495609372854233, 0.029957415536046028, 0.00904687400907278, 0.014059726148843765, 0.1649671494960785, 0.02981978841125965, 0.011510281823575497, 0.05672505870461464], [0.14830410480499268, 0.09707547724246979, 0.020026177167892456, 0.005786038935184479, 0.007069002836942673, 0.014368271455168724, 0.020158294588327408, 0.00788870733231306, 0.14066936075687408, 0.013461621478199959, 0.07784280925989151, 0.014224277809262276, 0.008739401586353779, 0.13307972252368927, 0.04127127304673195, 0.006557214539498091, 0.012602590955793858, 0.17827260494232178, 0.0057087852619588375, 0.018561169505119324, 0.028333185240626335], [0.06250979751348495, 0.14199407398700714, 0.012219356372952461, 0.02109641209244728, 0.0069204713217914104, 0.011845747008919716, 0.002981179393827915, 0.008290477097034454, 0.14069323241710663, 0.010543064214289188, 0.10476735234260559, 0.009250977076590061, 0.007123252376914024, 0.13842476904392242, 0.014057561755180359, 0.00441014813259244, 0.006076791323721409, 0.1497139036655426, 0.03619377315044403, 0.008835523389279842, 0.10205218195915222], [0.14944642782211304, 0.11831730604171753, 0.0485934354364872, 0.012011060491204262, 0.016597341746091843, 0.00830896757543087, 0.01678355038166046, 0.015572741627693176, 0.09126012772321701, 0.04042070358991623, 0.0748743787407875, 0.02911466546356678, 0.015107163228094578, 0.08480318635702133, 0.043342847377061844, 0.012624457478523254, 0.033184632658958435, 0.0854448676109314, 0.055664125829935074, 0.01140453852713108, 0.03712337464094162]], [[0.32554396986961365, 0.03905080258846283, 0.03749297186732292, 0.04672529175877571, 0.018929054960608482, 0.006416020914912224, 0.030662627890706062, 0.00962753314524889, 0.0386061817407608, 0.030250130221247673, 0.02950727939605713, 0.021139711141586304, 0.021494852378964424, 0.0352364219725132, 0.05836188793182373, 0.0150900362059474, 0.010642966255545616, 0.0407995767891407, 0.11185307055711746, 0.012112618423998356, 0.06045689061284065], [0.11485862731933594, 0.07822322845458984, 0.03676325082778931, 0.06313275545835495, 0.037097908556461334, 0.03938654065132141, 0.027382468804717064, 0.039249397814273834, 0.05173563212156296, 0.0333457849919796, 0.048340585082769394, 0.025257142260670662, 0.03296329826116562, 0.06118233501911163, 0.06596449017524719, 0.029114482924342155, 0.034594591706991196, 0.052754778414964676, 0.045963454991579056, 0.01796862483024597, 0.06472060829401016], [0.037044424563646317, 0.09031128883361816, 0.03616567328572273, 0.05758262425661087, 0.05092976987361908, 0.04845922440290451, 0.06709771603345871, 0.030048785731196404, 0.06694070249795914, 0.08684787154197693, 0.04819226637482643, 0.03650277107954025, 0.048733871430158615, 0.07957621663808823, 0.032077182084321976, 0.0134096285328269, 0.014859008602797985, 0.0737520083785057, 0.015057610347867012, 0.013913375325500965, 0.0524979867041111], [0.1102801263332367, 0.08361227810382843, 0.009711461141705513, 0.04955149069428444, 0.018810592591762543, 0.024434272199869156, 0.022697756066918373, 0.06826949864625931, 0.06549780815839767, 0.029642287641763687, 0.05175943300127983, 0.00686946976929903, 0.029427172616124153, 0.08654405921697617, 0.02690860815346241, 0.025166185572743416, 0.06906300783157349, 0.08619681000709534, 0.03606101870536804, 0.016979247331619263, 0.08251740783452988], [0.00934294518083334, 0.08292775601148605, 0.004330798517912626, 0.020051605999469757, 0.009855103679001331, 0.01911112293601036, 0.01677551120519638, 0.019463542848825455, 0.1143384575843811, 0.030776750296354294, 0.07214837521314621, 0.006724967621266842, 0.007768756709992886, 0.2462758868932724, 0.023870475590229034, 0.007741106674075127, 0.01989792473614216, 0.20528662204742432, 0.0518965944647789, 0.011120078153908253, 0.02029559761285782], [0.023035340011119843, 0.0816817581653595, 0.005556147079914808, 0.022593673318624496, 0.017006443813443184, 0.0070241536013782024, 0.011451923288404942, 0.021814579144120216, 0.11122781038284302, 0.028675759211182594, 0.057166218757629395, 0.004428270272910595, 0.01581280492246151, 0.15240302681922913, 0.05977906659245491, 0.013838128186762333, 0.02611421048641205, 0.17520752549171448, 0.09142818301916122, 0.012744531035423279, 0.06101042404770851], [0.0083890026435256, 0.08650625497102737, 0.0016002380289137363, 0.009009703993797302, 0.002726501552388072, 0.0068059926852583885, 0.004834531340748072, 0.003355340100824833, 0.15300744771957397, 0.028054295107722282, 0.11805367469787598, 0.001390271121636033, 0.0030271185096353292, 0.20592260360717773, 0.013705655932426453, 0.0023332727141678333, 0.004170530941337347, 0.27349746227264404, 0.025592640042304993, 0.004731618799269199, 0.043285779654979706], [0.046818800270557404, 0.09744285047054291, 0.008103368803858757, 0.02240683138370514, 0.011388963088393211, 0.005477173253893852, 0.010949580930173397, 0.00684054521843791, 0.0979449450969696, 0.024386582896113396, 0.06510819494724274, 0.0055551473051309586, 0.010453477501869202, 0.16437813639640808, 0.08082607388496399, 0.002846830990165472, 0.012397273443639278, 0.19193747639656067, 0.06953777372837067, 0.006376384757459164, 0.05882364511489868], [0.05028299614787102, 0.11021856963634491, 0.01190153881907463, 0.037814561277627945, 0.02126479148864746, 0.0533880814909935, 0.01057332381606102, 0.02471992000937462, 0.10557481646537781, 0.009658819995820522, 0.1291610151529312, 0.01151637639850378, 0.026693476364016533, 0.15795502066612244, 0.01828121580183506, 0.024907512590289116, 0.018490135669708252, 0.11771240085363388, 0.007537081837654114, 0.013260439038276672, 0.039087794721126556], [0.0394214503467083, 0.0257300715893507, 0.04059562459588051, 0.00559244304895401, 0.023981502279639244, 0.007469070143997669, 0.20785194635391235, 0.006107580382376909, 0.035339996218681335, 0.09554058313369751, 0.014452710747718811, 0.04330291226506233, 0.03391842544078827, 0.03359268233180046, 0.024101637303829193, 0.0033483037259429693, 0.005090044811367989, 0.04444747790694237, 0.2100750356912613, 0.010165620595216751, 0.08987484872341156], [0.06813069432973862, 0.12467525154352188, 0.007937517948448658, 0.05778571963310242, 0.015515345148742199, 0.037504542618989944, 0.008267497643828392, 0.028286341577768326, 0.11412829905748367, 0.00673607736825943, 0.1112375482916832, 0.005080915987491608, 0.018710369244217873, 0.17924657464027405, 0.012604981660842896, 0.019509470090270042, 0.015730692073702812, 0.12092392891645432, 0.005556182004511356, 0.007417934946715832, 0.03501412272453308], [0.019196640700101852, 0.10392068326473236, 0.02980087697505951, 0.08037889748811722, 0.03852953761816025, 0.039825424551963806, 0.03868397697806358, 0.022227242588996887, 0.10272932052612305, 0.07357591390609741, 0.06377405673265457, 0.02095028944313526, 0.03922635689377785, 0.1241554245352745, 0.01708742417395115, 0.010182926431298256, 0.008315113373100758, 0.10591576993465424, 0.009479496628046036, 0.011347717605531216, 0.040696799755096436], [0.009152504615485668, 0.05428983271121979, 0.010745789855718613, 0.02884684130549431, 0.02578706108033657, 0.028790561482310295, 0.029936296865344048, 0.011815846897661686, 0.08980725705623627, 0.07589647173881531, 0.04877936467528343, 0.018145287409424782, 0.01901407726109028, 0.15605421364307404, 0.030971329659223557, 0.010541035793721676, 0.018310360610485077, 0.152430459856987, 0.12985840439796448, 0.01905163563787937, 0.03177538886666298], [0.03177822008728981, 0.08820531517267227, 0.014087005518376827, 0.037761103361845016, 0.03145362436771393, 0.06518982350826263, 0.013421153649687767, 0.03384615108370781, 0.09591984748840332, 0.020320948213338852, 0.12258034199476242, 0.015949679538607597, 0.035409972071647644, 0.11381823569536209, 0.02310359477996826, 0.04688470438122749, 0.03053002804517746, 0.10423953086137772, 0.011057768948376179, 0.02536618709564209, 0.0390767864882946], [0.04230456054210663, 0.04057471454143524, 0.019529426470398903, 0.08099770545959473, 0.024630701169371605, 0.0100614745169878, 0.05917133018374443, 0.023409662768244743, 0.04056328535079956, 0.10114256292581558, 0.027572451159358025, 0.016828350722789764, 0.03243052214384079, 0.04947924613952637, 0.09249690920114517, 0.023114362731575966, 0.04429866001009941, 0.06105585768818855, 0.11736202985048294, 0.026080409064888954, 0.06689579039812088], [0.061223581433296204, 0.07222411781549454, 0.004944085143506527, 0.07004888355731964, 0.019863571971654892, 0.011421243660151958, 0.0026381933130323887, 0.03822096437215805, 0.08675027638673782, 0.009202998131513596, 0.07109181582927704, 0.0032563440036028624, 0.01988125406205654, 0.16740018129348755, 0.042518798261880875, 0.011800975538790226, 0.03925122320652008, 0.15293875336647034, 0.02286525070667267, 0.007967626675963402, 0.08448980748653412], [0.024707792326807976, 0.08193880319595337, 0.01889348030090332, 0.03634804114699364, 0.044008441269397736, 0.015481216832995415, 0.014596443623304367, 0.02168770134449005, 0.07494982331991196, 0.01799025945365429, 0.04107991233468056, 0.008145139552652836, 0.036276355385780334, 0.11652875691652298, 0.09264569729566574, 0.010562905110418797, 0.018633464351296425, 0.10352139174938202, 0.12222740799188614, 0.014971801079809666, 0.08480513095855713], [0.034529075026512146, 0.10087576508522034, 0.012738365679979324, 0.058401595801115036, 0.026195239275693893, 0.062203627079725266, 0.011186149902641773, 0.03252111375331879, 0.10533801466226578, 0.011239081621170044, 0.13687317073345184, 0.011876516975462437, 0.030259456485509872, 0.13631634414196014, 0.017712198197841644, 0.04462723433971405, 0.01998111791908741, 0.09266189485788345, 0.006413684692233801, 0.02034214697778225, 0.027708228677511215], [0.011339983902871609, 0.01385534554719925, 0.015909511595964432, 0.020048867911100388, 0.07933247834444046, 0.00914002861827612, 0.0732247531414032, 0.006188099272549152, 0.014046651311218739, 0.14308999478816986, 0.0044821868650615215, 0.01462197583168745, 0.06030432879924774, 0.011981463059782982, 0.17011849582195282, 0.010724319145083427, 0.00919068418443203, 0.02109113521873951, 0.21258269250392914, 0.01646600291132927, 0.08226103335618973], [0.0749523937702179, 0.07774956524372101, 0.0274933110922575, 0.01444354560226202, 0.010388932190835476, 0.005823092069476843, 0.021889938041567802, 0.016182435676455498, 0.08022916316986084, 0.03299974277615547, 0.04092143848538399, 0.013788021169602871, 0.016525423154234886, 0.08773528039455414, 0.10109502822160721, 0.0031240491662174463, 0.015182937495410442, 0.1254364401102066, 0.04572960361838341, 0.006748851854354143, 0.18156076967716217], [0.23060239851474762, 0.07695938646793365, 0.0389971099793911, 0.03665776923298836, 0.010663393884897232, 0.002933913143351674, 0.02856348641216755, 0.012188699096441269, 0.03959635645151138, 0.030175479128956795, 0.015147827565670013, 0.007465943228453398, 0.012305445969104767, 0.0334545262157917, 0.07195964455604553, 0.0023452676832675934, 0.008110297843813896, 0.03965403884649277, 0.1308416873216629, 0.004382036160677671, 0.16699524223804474]], [[0.7260777354240417, 0.004067948088049889, 0.008791336789727211, 0.01276595238596201, 0.003554442198947072, 0.005082220304757357, 0.007730007637292147, 0.006270855199545622, 0.013916103169322014, 0.02088337577879429, 0.00905842985957861, 0.014820129610598087, 0.0095403753221035, 0.015900300815701485, 0.009620985016226768, 0.0062869093380868435, 0.028332769870758057, 0.021973373368382454, 0.06337146461009979, 0.00858217477798462, 0.0033730247523635626], [0.01827806606888771, 0.07301466912031174, 0.02806493639945984, 0.026624569669365883, 0.022391529753804207, 0.02573251537978649, 0.016559019684791565, 0.019719723612070084, 0.1005910187959671, 0.04266206547617912, 0.08006326854228973, 0.027354849502444267, 0.034509070217609406, 0.10677601397037506, 0.0519288070499897, 0.013826925307512283, 0.025682929903268814, 0.10793329775333405, 0.06041498854756355, 0.03567618876695633, 0.08219549059867859], [0.019299937412142754, 0.055247336626052856, 0.015402156859636307, 0.03436114639043808, 0.03818761929869652, 0.058744337409734726, 0.023288801312446594, 0.02776394970715046, 0.04754800349473953, 0.09025207906961441, 0.04073144495487213, 0.01225774735212326, 0.028974860906600952, 0.046913839876651764, 0.03989120200276375, 0.01048390194773674, 0.011949820443987846, 0.04118158295750618, 0.06555897742509842, 0.033068012446165085, 0.2588932514190674], [0.012724349275231361, 0.029173968359827995, 0.026173245161771774, 0.05556989088654518, 0.030984578654170036, 0.03651711717247963, 0.04888785257935524, 0.02700250782072544, 0.030614465475082397, 0.06773019582033157, 0.02796541526913643, 0.021107850596308708, 0.04176904261112213, 0.03126449137926102, 0.1028810665011406, 0.013222118839621544, 0.03067202866077423, 0.032683100551366806, 0.0875992551445961, 0.03966053947806358, 0.20579686760902405], [0.0046979389153420925, 0.02847173810005188, 0.030434196814894676, 0.018809819594025612, 0.028864726424217224, 0.0518905408680439, 0.08059805631637573, 0.015482335351407528, 0.03601197898387909, 0.12376059591770172, 0.035121165215969086, 0.03287822753190994, 0.0420319065451622, 0.03171061351895332, 0.027144301682710648, 0.018677176907658577, 0.015746477991342545, 0.03171882778406143, 0.07970591634511948, 0.05633622035384178, 0.20990735292434692], [0.011920341290533543, 0.030431117862462997, 0.035702601075172424, 0.09311193227767944, 0.058147698640823364, 0.03198247030377388, 0.03263380378484726, 0.06232127919793129, 0.0407530777156353, 0.03155704587697983, 0.04304399713873863, 0.03043254092335701, 0.06336631625890732, 0.039961863309144974, 0.07172650098800659, 0.020807785913348198, 0.06393064558506012, 0.04583706706762314, 0.05593281239271164, 0.061555106192827225, 0.07484405487775803], [0.028243277221918106, 0.08863598108291626, 0.05987507104873657, 0.013286752626299858, 0.0346890352666378, 0.015555452555418015, 0.028171123936772346, 0.036470189690589905, 0.1122245192527771, 0.04756571352481842, 0.08167850971221924, 0.02881728485226631, 0.026116274297237396, 0.10451872646808624, 0.03135531395673752, 0.01378137432038784, 0.029551800340414047, 0.11479349434375763, 0.02783218026161194, 0.017546173185110092, 0.0592917837202549], [0.016088265925645828, 0.034737564623355865, 0.021598218008875847, 0.04230767488479614, 0.016099853441119194, 0.027239175513386726, 0.016735780984163284, 0.02850501984357834, 0.04988652467727661, 0.047904107719659805, 0.03168713301420212, 0.013733013533055782, 0.013375415466725826, 0.042645640671253204, 0.04139671474695206, 0.01119843777269125, 0.036257073283195496, 0.05676892027258873, 0.11345772445201874, 0.05952717736363411, 0.2788505554199219], [0.03096872754395008, 0.09144797921180725, 0.02218702621757984, 0.019817164167761803, 0.020270701497793198, 0.01903332583606243, 0.008675585500895977, 0.013715028762817383, 0.13856758177280426, 0.020054206252098083, 0.09334748983383179, 0.016115376725792885, 0.030392225831747055, 0.1437719315290451, 0.03360249102115631, 0.012470042333006859, 0.019700229167938232, 0.15784946084022522, 0.030766312032938004, 0.026823779568076134, 0.05042329058051109], [0.02940264157950878, 0.049225084483623505, 0.04205765947699547, 0.01391659677028656, 0.04728889465332031, 0.01780075952410698, 0.01753505878150463, 0.014177404344081879, 0.04516282677650452, 0.041622478514909744, 0.024068057537078857, 0.02240902930498123, 0.038297854363918304, 0.03943614661693573, 0.019806530326604843, 0.006555968429893255, 0.026702135801315308, 0.05912681296467781, 0.08311239629983902, 0.024125417694449425, 0.33817026019096375], [0.017847249284386635, 0.0779762864112854, 0.02040012925863266, 0.028098521754145622, 0.026548637077212334, 0.028560910373926163, 0.009850426577031612, 0.018954403698444366, 0.12348469346761703, 0.01829381473362446, 0.09826571494340897, 0.01597035862505436, 0.038236524909734726, 0.12833988666534424, 0.04584218189120293, 0.014659611508250237, 0.022531500086188316, 0.13057461380958557, 0.0354619175195694, 0.03896087035536766, 0.06114165112376213], [0.02121347188949585, 0.05259525775909424, 0.017628472298383713, 0.028447745367884636, 0.049223363399505615, 0.053076934069395065, 0.01615806296467781, 0.02837431989610195, 0.03981050103902817, 0.08689330518245697, 0.032144464552402496, 0.011226994916796684, 0.02857576124370098, 0.03728995844721794, 0.03359421715140343, 0.007748048286885023, 0.010298026725649834, 0.03437269479036331, 0.057142291218042374, 0.026567846536636353, 0.327618271112442], [0.016605645418167114, 0.032288674265146255, 0.04465138167142868, 0.01759643666446209, 0.03693665191531181, 0.030531443655490875, 0.04520764574408531, 0.016558000817894936, 0.02872324362397194, 0.08897679299116135, 0.022466672584414482, 0.03664945438504219, 0.03174503520131111, 0.022474613040685654, 0.015789706259965897, 0.011751619167625904, 0.02089514769613743, 0.030589958652853966, 0.08297059684991837, 0.03607330471277237, 0.3305179476737976], [0.03371080011129379, 0.09012456238269806, 0.023697789758443832, 0.022276215255260468, 0.023632682859897614, 0.019552480429410934, 0.00873524509370327, 0.01645749993622303, 0.1335601955652237, 0.019362282007932663, 0.09181685000658035, 0.016581589356064796, 0.03445030748844147, 0.13888360559940338, 0.031564634293317795, 0.012475072406232357, 0.022663278505206108, 0.15396052598953247, 0.030782083049416542, 0.028306549414992332, 0.04740571230649948], [0.020900828763842583, 0.05057197064161301, 0.03477909788489342, 0.0450720340013504, 0.04074075073003769, 0.036023154854774475, 0.026437057182192802, 0.028040237724781036, 0.057558897882699966, 0.0853845551609993, 0.04553092271089554, 0.026954637840390205, 0.029388492926955223, 0.0560486800968647, 0.07185405492782593, 0.027181167155504227, 0.07229176163673401, 0.05793466418981552, 0.04928668960928917, 0.024466024711728096, 0.11355417221784592], [0.04854711517691612, 0.04360101372003555, 0.04102100804448128, 0.04968416690826416, 0.043782152235507965, 0.029437657445669174, 0.01093000452965498, 0.04549206793308258, 0.06483392417430878, 0.020765161141753197, 0.04704156517982483, 0.023183075711131096, 0.029670927673578262, 0.06345298886299133, 0.10787779837846756, 0.030267000198364258, 0.09574968367815018, 0.08755777776241302, 0.02250821888446808, 0.03292084485292435, 0.0616757869720459], [0.022113988175988197, 0.04026873782277107, 0.02620074898004532, 0.04967590421438217, 0.031983423978090286, 0.038558848202228546, 0.0176292322576046, 0.017306707799434662, 0.0595044381916523, 0.0711229220032692, 0.03980617597699165, 0.017823467031121254, 0.026583388447761536, 0.06071776896715164, 0.06219106167554855, 0.01613364927470684, 0.031112972646951675, 0.07273350656032562, 0.07769490778446198, 0.05736236274242401, 0.1634756624698639], [0.022506829351186752, 0.07971766591072083, 0.01762123964726925, 0.018287189304828644, 0.01963861845433712, 0.01737569086253643, 0.006131818052381277, 0.01210280042141676, 0.15762008726596832, 0.011642257682979107, 0.11609556525945663, 0.014323229901492596, 0.03538037836551666, 0.1779220551252365, 0.026234421879053116, 0.012250177562236786, 0.017505373805761337, 0.17429783940315247, 0.019477568566799164, 0.02760261483490467, 0.016266556456685066], [0.11509637534618378, 0.06641000509262085, 0.08997693657875061, 0.01398989837616682, 0.017525235190987587, 0.012483391910791397, 0.05169643834233284, 0.007723299786448479, 0.07750343531370163, 0.048659563064575195, 0.03835760056972504, 0.04328262805938721, 0.02403201349079609, 0.07601844519376755, 0.033714860677719116, 0.01998928375542164, 0.03307749330997467, 0.09933903813362122, 0.029609831050038338, 0.028341665863990784, 0.07317254692316055], [0.026411548256874084, 0.06078200787305832, 0.024346962571144104, 0.027201248332858086, 0.016873423010110855, 0.014547801576554775, 0.014531291089951992, 0.020142732188105583, 0.07318926602602005, 0.02909151092171669, 0.04691203683614731, 0.016903791576623917, 0.027165066450834274, 0.0680471807718277, 0.0334259495139122, 0.012989101931452751, 0.03999291732907295, 0.07691775262355804, 0.08195767551660538, 0.031973160803318024, 0.25659748911857605], [0.015833817422389984, 0.031147386878728867, 0.02548249624669552, 0.02931990474462509, 0.02559281326830387, 0.014386371709406376, 0.03613223880529404, 0.013795972801744938, 0.03127032890915871, 0.09295687824487686, 0.03028479404747486, 0.03975759819149971, 0.05097092315554619, 0.03227893263101578, 0.09817662835121155, 0.006858399137854576, 0.034445635974407196, 0.027946224436163902, 0.1691056340932846, 0.0386752225458622, 0.1555817872285843]], [[0.005420949310064316, 0.11251524835824966, 0.02779531292617321, 0.0014627317432314157, 0.0014497439842671156, 0.00019419311138335615, 0.008132664486765862, 0.0011716376757249236, 0.009564702399075031, 0.021627476438879967, 0.0078055597841739655, 0.007999030873179436, 0.011596071533858776, 0.011033537797629833, 0.002725947881117463, 0.0004331596428528428, 0.0011371816508471966, 0.007738939486443996, 0.0038261949084699154, 0.00026491234893910587, 0.7561048269271851], [0.020676610991358757, 0.1403883397579193, 0.022672481834888458, 0.010137710720300674, 0.01180833950638771, 0.009240600280463696, 0.010635657235980034, 0.006820633541792631, 0.1611500084400177, 0.01738886348903179, 0.11905381083488464, 0.01293325424194336, 0.015105950646102428, 0.17619763314723969, 0.004076932556927204, 0.0036286364775151014, 0.007282254286110401, 0.15360523760318756, 0.010365036316215992, 0.005547845270484686, 0.08128417283296585], [0.056131891906261444, 0.12888871133327484, 0.03622101992368698, 0.024837031960487366, 0.06698509305715561, 0.051835399121046066, 0.016052354127168655, 0.0295062568038702, 0.10257188230752945, 0.021967275068163872, 0.07255089282989502, 0.016365589573979378, 0.03669736161828041, 0.1083429753780365, 0.002781872171908617, 0.01524983998388052, 0.01633589155972004, 0.10410571098327637, 0.010269024409353733, 0.02043900266289711, 0.06186486780643463], [0.01715124398469925, 0.09252399206161499, 0.023738514631986618, 0.09500566124916077, 0.06114945188164711, 0.030758924782276154, 0.0066200862638652325, 0.0328955352306366, 0.11772948503494263, 0.008342452347278595, 0.10776376724243164, 0.017950283363461494, 0.05757136270403862, 0.1139833927154541, 0.006193538662046194, 0.014947385527193546, 0.017228998243808746, 0.06853151321411133, 0.018253523856401443, 0.013523124158382416, 0.07813773304224014], [0.021869415417313576, 0.05638014152646065, 0.022929439321160316, 0.035119690001010895, 0.0942138284444809, 0.09465349465608597, 0.0041282521560788155, 0.06456737220287323, 0.13119734823703766, 0.004813677165657282, 0.09462282806634903, 0.014792373403906822, 0.047932591289281845, 0.13068467378616333, 0.001968222903087735, 0.017461931332945824, 0.015607459470629692, 0.09647184610366821, 0.0071112001314759254, 0.023180576041340828, 0.020293666049838066], [0.04169075936079025, 0.06262936443090439, 0.02665845677256584, 0.016856910660862923, 0.13083228468894958, 0.04323498159646988, 0.026642348617315292, 0.03097333200275898, 0.12562774121761322, 0.016252871602773666, 0.07423461973667145, 0.017028525471687317, 0.08389686048030853, 0.11315830051898956, 0.003586195409297943, 0.0135013023391366, 0.013956580311059952, 0.0982842743396759, 0.016375834122300148, 0.01501862145960331, 0.0295597855001688], [0.018169837072491646, 0.07535859197378159, 0.025625403970479965, 0.0028858876321464777, 0.008912160992622375, 0.008320740424096584, 0.029248224571347237, 0.008687563240528107, 0.15705275535583496, 0.07540614902973175, 0.07997936755418777, 0.019071247428655624, 0.009379123337566853, 0.15871401131153107, 0.005271826405078173, 0.006781963165849447, 0.009956030175089836, 0.17853853106498718, 0.027700359001755714, 0.012859699316322803, 0.08208056539297104], [0.021960947662591934, 0.06004633754491806, 0.01188723649829626, 0.015287062153220177, 0.08074731379747391, 0.03567936643958092, 0.0019942799117416143, 0.029804866760969162, 0.16692718863487244, 0.0022120405919849873, 0.11454791575670242, 0.01316834706813097, 0.06972729414701462, 0.16833359003067017, 0.0004923250526189804, 0.0067380391992628574, 0.006439542397856712, 0.12815429270267487, 0.003760166699066758, 0.02012438140809536, 0.041967470198869705], [0.017639998346567154, 0.11109744757413864, 0.02917979471385479, 0.005552235990762711, 0.0080330865457654, 0.006724254228174686, 0.017572980374097824, 0.005341370590031147, 0.16167747974395752, 0.033659037202596664, 0.12321846932172775, 0.021448660641908646, 0.015940245240926743, 0.16271652281284332, 0.008160951547324657, 0.003508978057652712, 0.006508145481348038, 0.14823001623153687, 0.016696970909833908, 0.0063015068881213665, 0.0907917395234108], [0.03204604238271713, 0.1019960567355156, 0.013065890409052372, 0.007546518463641405, 0.01669941283762455, 0.01032568421214819, 0.007130159996449947, 0.010209329426288605, 0.1671401560306549, 0.016069496050477028, 0.10745541006326675, 0.012370946817100048, 0.015247819013893604, 0.1565355509519577, 0.000841203611344099, 0.005625245161354542, 0.004589805379509926, 0.15377919375896454, 0.003061464987695217, 0.00762323709204793, 0.1506413370370865], [0.018298855051398277, 0.09477938711643219, 0.01920061558485031, 0.008571241050958633, 0.009445571340620518, 0.008609984070062637, 0.014764671213924885, 0.0065775406546890736, 0.16466763615608215, 0.02744518592953682, 0.14227338135242462, 0.019215498119592667, 0.02268872782588005, 0.16845136880874634, 0.011909064836800098, 0.004146070219576359, 0.006943189073354006, 0.12992644309997559, 0.014048307202756405, 0.006070959847420454, 0.10196626931428909], [0.06696821749210358, 0.08318204432725906, 0.020238470286130905, 0.014192136004567146, 0.0530371367931366, 0.0480927899479866, 0.018918471410870552, 0.02398691512644291, 0.11581630259752274, 0.0224007498472929, 0.08736924082040787, 0.020181642845273018, 0.0670776218175888, 0.11994122713804245, 0.004495180211961269, 0.015082992613315582, 0.015137339942157269, 0.1048857718706131, 0.010804180055856705, 0.0205044224858284, 0.06768722832202911], [0.02330205589532852, 0.059445373713970184, 0.006693062838166952, 0.0067708357237279415, 0.041480161249637604, 0.06496544182300568, 0.004808442201465368, 0.02649616450071335, 0.1605863720178604, 0.00452853599563241, 0.14223572611808777, 0.009019339457154274, 0.0783107578754425, 0.16698221862316132, 0.001098405453376472, 0.009100171737372875, 0.010524477809667587, 0.11111274361610413, 0.0032399671617895365, 0.014706438407301903, 0.05459332466125488], [0.016612142324447632, 0.11662428826093674, 0.019610363990068436, 0.004203021060675383, 0.0066309357061982155, 0.004817456007003784, 0.012121749110519886, 0.003138418775051832, 0.1676856428384781, 0.021326426416635513, 0.12800374627113342, 0.01632956601679325, 0.01591557450592518, 0.19758982956409454, 0.005727261770516634, 0.0034996538888663054, 0.004817561712116003, 0.16601654887199402, 0.008894603699445724, 0.004630651790648699, 0.0758046805858612], [0.05200543627142906, 0.09743557870388031, 0.05096738040447235, 0.021077746525406837, 0.013688498176634312, 0.012117180973291397, 0.01846517249941826, 0.01116082351654768, 0.0942249447107315, 0.03737572580575943, 0.06847868859767914, 0.05003790557384491, 0.018400004133582115, 0.13397367298603058, 0.05383088067173958, 0.01720285788178444, 0.008699565194547176, 0.1174614354968071, 0.03518601134419441, 0.01568945124745369, 0.07252098619937897], [0.01661456562578678, 0.10319236665964127, 0.024405689910054207, 0.009484085254371166, 0.03373133763670921, 0.00990962516516447, 0.0022803018800914288, 0.021883873268961906, 0.14820897579193115, 0.007172741927206516, 0.08589480072259903, 0.016584431752562523, 0.030535070225596428, 0.18628275394439697, 0.00039791304152458906, 0.009308491833508015, 0.0074805342592298985, 0.2147853821516037, 0.0030474839732050896, 0.021935902535915375, 0.046863701194524765], [0.02752789855003357, 0.12106016278266907, 0.006622655317187309, 0.003421017900109291, 0.012029586359858513, 0.004289270844310522, 0.0015817064559087157, 0.005283861421048641, 0.14912275969982147, 0.0023648308124393225, 0.11200186610221863, 0.007326609920710325, 0.03889140114188194, 0.21468231081962585, 0.0008967071771621704, 0.004814053885638714, 0.004679386038333178, 0.16551151871681213, 0.002071254188194871, 0.004541830625385046, 0.11127925664186478], [0.01947101764380932, 0.10925915837287903, 0.04711954668164253, 0.004453557077795267, 0.003346474142745137, 0.0024681673385202885, 0.013362358324229717, 0.0033995644189417362, 0.12798842787742615, 0.03629210963845253, 0.09680242836475372, 0.03251250460743904, 0.009690999053418636, 0.17040181159973145, 0.022091234102845192, 0.003950444515794516, 0.008736238814890385, 0.2025681436061859, 0.02069666236639023, 0.008359062485396862, 0.05702999234199524], [0.024639535695314407, 0.07165887206792831, 0.0037257045041769743, 0.001477347337640822, 0.0054917605593800545, 0.005290376488119364, 0.00178511010017246, 0.0025458468589931726, 0.16855290532112122, 0.004610238131135702, 0.13044634461402893, 0.004629938397556543, 0.00922493264079094, 0.20211394131183624, 0.00022297677060123533, 0.0016108326381072402, 0.004063034895807505, 0.24923215806484222, 0.006307070609182119, 0.00663113035261631, 0.09574001282453537], [0.0213428046554327, 0.06591860949993134, 0.006226482801139355, 0.003717077197507024, 0.015748295933008194, 0.026894377544522285, 0.0044367676600813866, 0.004654756747186184, 0.16788272559642792, 0.0025509216357022524, 0.1386924684047699, 0.00733737088739872, 0.02658466063439846, 0.2173774242401123, 0.0007341271848417819, 0.0048641012981534, 0.00564670842140913, 0.2097618728876114, 0.004406795836985111, 0.018459783867001534, 0.04676197096705437], [0.044924069195985794, 0.06507821381092072, 0.011283157393336296, 0.003696925938129425, 0.017164943739771843, 0.010440838523209095, 0.01911480352282524, 0.00469583086669445, 0.11367295682430267, 0.012508250772953033, 0.09125947207212448, 0.017321377992630005, 0.07371174544095993, 0.15183411538600922, 0.020987259224057198, 0.006118789780884981, 0.011926506645977497, 0.14127252995967865, 0.021355699747800827, 0.007931210100650787, 0.1537013053894043]], [[0.5511330962181091, 0.022068476304411888, 0.0047568874433636665, 0.009917126968502998, 0.00732964463531971, 0.003829525550827384, 0.004341324791312218, 0.006262651644647121, 0.07697860151529312, 0.00693114148452878, 0.05381152406334877, 0.007726593874394894, 0.011875975877046585, 0.0784684419631958, 0.002370027592405677, 0.0037001180462539196, 0.013894425705075264, 0.09986279904842377, 0.00829602126032114, 0.0048316665925085545, 0.02161400578916073], [0.014705889858305454, 0.12571382522583008, 0.016212595626711845, 0.03538667410612106, 0.030413247644901276, 0.018404824659228325, 0.015085852704942226, 0.0283762589097023, 0.13363365828990936, 0.014867082238197327, 0.12890082597732544, 0.011224566027522087, 0.02144891582429409, 0.1556260734796524, 0.01575825735926628, 0.016540134325623512, 0.019427789375185966, 0.14748622477054596, 0.008745296858251095, 0.008965798653662205, 0.03307615965604782], [0.013214531354606152, 0.15095268189907074, 0.00651985127478838, 0.17396043241024017, 0.030456790700554848, 0.020778879523277283, 0.05037667974829674, 0.01288917101919651, 0.08311247080564499, 0.029619630426168442, 0.13650579750537872, 0.0040430850349366665, 0.011690647341310978, 0.09412125498056412, 0.011049224995076656, 0.009841801598668098, 0.012412462383508682, 0.11868802458047867, 0.003273867769166827, 0.0026129973120987415, 0.023879678919911385], [0.008710498921573162, 0.21225059032440186, 0.03188931569457054, 0.02672402560710907, 0.02219630964100361, 0.015650905668735504, 0.027811285108327866, 0.031072931364178658, 0.13123878836631775, 0.017161739990115166, 0.08642186224460602, 0.007987337186932564, 0.015595432370901108, 0.13275891542434692, 0.018630390986800194, 0.006323202978819609, 0.01564987562596798, 0.1403317004442215, 0.004963625222444534, 0.008174767717719078, 0.03845652937889099], [0.015699846670031548, 0.2735695540904999, 0.030169423669576645, 0.0953272208571434, 0.0073211598210036755, 0.04868859052658081, 0.01600935123860836, 0.012078214436769485, 0.12523308396339417, 0.009473900310695171, 0.13929212093353271, 0.011326081119477749, 0.0015258818166330457, 0.07375676929950714, 0.014932765625417233, 0.002817461034283042, 0.0019198806257918477, 0.09737186133861542, 0.0023632089141756296, 0.0044653103686869144, 0.016658389940857887], [0.006434348411858082, 0.15129035711288452, 0.005613741930574179, 0.24262388050556183, 0.03757259249687195, 0.0017863493412733078, 0.004300118889659643, 0.0034841543529182673, 0.11448489129543304, 0.018406996503472328, 0.13128824532032013, 0.0020827397238463163, 0.0070129455998539925, 0.12336919456720352, 0.0031853823456913233, 0.001705354661680758, 0.0032398707699030638, 0.12369275093078613, 0.001260396558791399, 0.002661501755937934, 0.014504232443869114], [0.009496929123997688, 0.1161525771021843, 0.008126191794872284, 0.02327968180179596, 0.02263004705309868, 0.005311944521963596, 0.006635809782892466, 0.00572176231071353, 0.20610587298870087, 0.03756824880838394, 0.11348798125982285, 0.0030718969646841288, 0.01394602283835411, 0.2206583023071289, 0.019453100860118866, 0.0020628725178539753, 0.0034298666287213564, 0.12319755554199219, 0.006369850132614374, 0.0035118297673761845, 0.04978158324956894], [0.005327009595930576, 0.08534321933984756, 0.029975535348057747, 0.12385396659374237, 0.159026637673378, 0.04068833217024803, 0.19480091333389282, 0.006448045372962952, 0.05683143436908722, 0.015615291893482208, 0.05188911408185959, 0.011885272338986397, 0.02814481593668461, 0.08149547129869461, 0.025442082434892654, 0.004225654993206263, 0.0017841114895418286, 0.038911622017621994, 0.008892888203263283, 0.0020059782546013594, 0.027412619441747665], [0.0267852284014225, 0.12153510004281998, 0.029311005026102066, 0.023423071950674057, 0.040986448526382446, 0.03408896178007126, 0.03044794872403145, 0.03371637687087059, 0.13298307359218597, 0.03229168429970741, 0.11489257961511612, 0.018006013706326485, 0.022505860775709152, 0.14731723070144653, 0.014650298282504082, 0.01180131733417511, 0.010284250602126122, 0.10108500719070435, 0.010879295878112316, 0.014862732030451298, 0.02814645878970623], [0.01433603372424841, 0.08713492006063461, 0.020255615934729576, 0.012850155122578144, 0.02778894640505314, 0.0233449749648571, 0.13418042659759521, 0.03513665124773979, 0.17682813107967377, 0.010006356053054333, 0.09997328370809555, 0.015058059245347977, 0.030908845365047455, 0.1657760739326477, 0.013926016166806221, 0.004401338752359152, 0.0059198481030762196, 0.08258496224880219, 0.0036159513983875513, 0.005298844538629055, 0.030674468725919724], [0.022869860753417015, 0.1257571578025818, 0.024567190557718277, 0.018813423812389374, 0.02919669821858406, 0.03625621274113655, 0.026391485705971718, 0.048159558326005936, 0.1719272881746292, 0.03824666514992714, 0.12144991755485535, 0.01350379642099142, 0.019898802042007446, 0.14102984964847565, 0.011146857403218746, 0.011264572851359844, 0.012147994711995125, 0.08750839531421661, 0.005668391939252615, 0.009580912068486214, 0.024614963680505753], [0.01765631139278412, 0.08764531463384628, 0.01092675980180502, 0.10609834641218185, 0.03473358973860741, 0.05742834508419037, 0.08978191763162613, 0.025248322635889053, 0.08682714402675629, 0.13430102169513702, 0.11582065373659134, 0.010312305763363838, 0.022650327533483505, 0.06316784024238586, 0.01795986294746399, 0.011262359097599983, 0.012801448814570904, 0.05216839164495468, 0.0035748903173953295, 0.004286016337573528, 0.03534886613488197], [0.02011317014694214, 0.043272435665130615, 0.049275558441877365, 0.021782996132969856, 0.004299108870327473, 0.058797307312488556, 0.03574378043413162, 0.02140081487596035, 0.04517197608947754, 0.23384518921375275, 0.07898113131523132, 0.23623913526535034, 0.005774711724370718, 0.020470917224884033, 0.06924325227737427, 0.003765660570934415, 0.0033978018909692764, 0.01617369055747986, 0.010906634852290154, 0.0074134403839707375, 0.013931228779256344], [0.03359810635447502, 0.08148683607578278, 0.019567837938666344, 0.018848316743969917, 0.015803249552845955, 0.014231519773602486, 0.01612224243581295, 0.021516062319278717, 0.13724052906036377, 0.051328834146261215, 0.1603945940732956, 0.03927338868379593, 0.02748444490134716, 0.14525476098060608, 0.02316517010331154, 0.015229955315589905, 0.012490375898778439, 0.1111283153295517, 0.01382446102797985, 0.014007216319441795, 0.028003718703985214], [0.009517468512058258, 0.07839103788137436, 0.00545542361214757, 0.014882885850965977, 0.007265451364219189, 0.006730491295456886, 0.01569693349301815, 0.01391295064240694, 0.13290652632713318, 0.014798254705965519, 0.16170188784599304, 0.011052361689507961, 0.040288735181093216, 0.2540357708930969, 0.02347189374268055, 0.017462169751524925, 0.011985435150563717, 0.14433836936950684, 0.0047484529204666615, 0.0058951834216713905, 0.02546227164566517], [0.009519228711724281, 0.06514909863471985, 0.012939367443323135, 0.009632094763219357, 0.01062992587685585, 0.007325492799282074, 0.01059935986995697, 0.008351919241249561, 0.1348198503255844, 0.012073958292603493, 0.11969578266143799, 0.02287118509411812, 0.03505716100335121, 0.3439721465110779, 0.025218922644853592, 0.009857537224888802, 0.0033186799846589565, 0.137038916349411, 0.004729576408863068, 0.004658712074160576, 0.01254113856703043], [0.012187833897769451, 0.05304161459207535, 0.02853456325829029, 0.018590785562992096, 0.028984427452087402, 0.0310065895318985, 0.11120228469371796, 0.008305924944579601, 0.043773192912340164, 0.027724070474505424, 0.045434415340423584, 0.05030325800180435, 0.06710001826286316, 0.14361706376075745, 0.19181442260742188, 0.023714058101177216, 0.003822179278358817, 0.04374188929796219, 0.03998161479830742, 0.005476327147334814, 0.021643415093421936], [0.024724334478378296, 0.08673179149627686, 0.007021182682365179, 0.007124998141080141, 0.007136880420148373, 0.009157595224678516, 0.0073577119037508965, 0.012264206074178219, 0.13319295644760132, 0.014339629560709, 0.1268894225358963, 0.0110794547945261, 0.014108613133430481, 0.2593829333782196, 0.01746521331369877, 0.027210040017962456, 0.01501517090946436, 0.17836421728134155, 0.012218696996569633, 0.011574115604162216, 0.017640817910432816], [0.008897531777620316, 0.0376601405441761, 0.008361687883734703, 0.005107755307108164, 0.008093105629086494, 0.002849043346941471, 0.0244996827095747, 0.008367781527340412, 0.06601813435554504, 0.015913518145680428, 0.051812101155519485, 0.02028840035200119, 0.04973787069320679, 0.1822638362646103, 0.23193737864494324, 0.03242207318544388, 0.04255260154604912, 0.12439049035310745, 0.018871009349822998, 0.010695408098399639, 0.0492604598402977], [0.010723683051764965, 0.028264407068490982, 0.03234844282269478, 0.018724819645285606, 0.011640139855444431, 0.006013813428580761, 0.02095174789428711, 0.013349603861570358, 0.03959854692220688, 0.07985716313123703, 0.03858914598822594, 0.09325195848941803, 0.07257375866174698, 0.07115510106086731, 0.14924301207065582, 0.011823437176644802, 0.07818374037742615, 0.060370419174432755, 0.08658824861049652, 0.009391209110617638, 0.0673576220870018], [0.006392447743564844, 0.09941819310188293, 0.02599441260099411, 0.04068739712238312, 0.04869256541132927, 0.021676737815141678, 0.013676002621650696, 0.03416161984205246, 0.06550350040197372, 0.04929273575544357, 0.06200544908642769, 0.03200088068842888, 0.10146909207105637, 0.11322566866874695, 0.028001097962260246, 0.01992761343717575, 0.07154939323663712, 0.08761242032051086, 0.02470843307673931, 0.030786551535129547, 0.023217834532260895]], [[0.3507295250892639, 0.08164194971323013, 0.0007890540873631835, 0.0017547607421875, 0.001459917868487537, 0.004735896363854408, 0.0004870666889473796, 0.0010192010086029768, 0.15766145288944244, 0.0005574632086791098, 0.09400493651628494, 0.000692867673933506, 0.002127924235537648, 0.1211925819516182, 0.00012582236377056688, 0.0010809426894411445, 0.0021571137476712465, 0.1698560118675232, 0.0005867815925739706, 0.002519954927265644, 0.004818880930542946], [0.0035066159907728434, 0.12505272030830383, 0.004211893770843744, 0.023745162412524223, 0.005030165426433086, 0.006589229218661785, 0.0061994693242013454, 0.0030366918072104454, 0.23155201971530914, 0.013474801555275917, 0.14925415813922882, 0.0030311045702546835, 0.004936079494655132, 0.1806950569152832, 0.013858942314982414, 0.004717481788247824, 0.005797858349978924, 0.19339175522327423, 0.007860471494495869, 0.005320302210748196, 0.008738010190427303], [0.00516817532479763, 0.11595853418111801, 0.011970924213528633, 0.012938379310071468, 0.008750120177865028, 0.038668736815452576, 0.0007202367414720356, 0.012737193144857883, 0.20848315954208374, 0.004544445779174566, 0.16407863795757294, 0.00792305450886488, 0.00839182361960411, 0.12739168107509613, 0.001994662219658494, 0.004557428881525993, 0.01307772845029831, 0.21382202208042145, 0.0009288585279136896, 0.0139748090878129, 0.023919494822621346], [0.008949009701609612, 0.13701383769512177, 0.00926689337939024, 0.044916775077581406, 0.011847847141325474, 0.09564322978258133, 0.002488109515979886, 0.017843104898929596, 0.1374213993549347, 0.006325197871774435, 0.176127091050148, 0.004585140850394964, 0.007033774629235268, 0.09669148921966553, 0.0037206660490483046, 0.04727943241596222, 0.05484175682067871, 0.11770850419998169, 0.0033736415207386017, 0.006748144049197435, 0.010174998082220554], [0.010970253497362137, 0.06514371931552887, 0.022812090814113617, 0.018931390717625618, 0.055199023336172104, 0.19764840602874756, 0.0020090099424123764, 0.016746770590543747, 0.1517637073993683, 0.008288645185530186, 0.12503044307231903, 0.0190864410251379, 0.03964906930923462, 0.11098664999008179, 0.0017031654715538025, 0.008410687558352947, 0.009695538319647312, 0.10433193296194077, 0.0013774731196463108, 0.0076509504579007626, 0.022564547136425972], [0.00954670924693346, 0.08073269575834274, 0.015403266996145248, 0.024460922926664352, 0.03152323514223099, 0.17363858222961426, 0.005521854851394892, 0.01783881150186062, 0.15889321267604828, 0.007980232127010822, 0.137603759765625, 0.009193742647767067, 0.019898023456335068, 0.12108726054430008, 0.004340874496847391, 0.010496336966753006, 0.016171403229236603, 0.12979121506214142, 0.003052053041756153, 0.01009305939078331, 0.012732760980725288], [0.0037305750884115696, 0.11875137686729431, 0.0028779329732060432, 0.0026716587599366903, 0.003463264089077711, 0.02740139700472355, 0.005170096643269062, 0.012179510667920113, 0.21960482001304626, 0.00907479040324688, 0.17385928332805634, 0.0024973878171294928, 0.006628184113651514, 0.15884622931480408, 0.0013234521029517055, 0.01217255461961031, 0.02684871107339859, 0.17035342752933502, 0.004286527168005705, 0.03216022625565529, 0.006098628509789705], [0.0037102827336639166, 0.06347091495990753, 0.0029182282742112875, 0.03391003981232643, 0.012766093015670776, 0.08108830451965332, 0.0005604579928331077, 0.03041694685816765, 0.19187697768211365, 0.005272277165204287, 0.2065179944038391, 0.002194472122937441, 0.011156372725963593, 0.09472207725048065, 0.0009794678771868348, 0.010736852884292603, 0.043908052146434784, 0.16513507068157196, 0.0009142435155808926, 0.015875887125730515, 0.021868988871574402], [0.013606201857328415, 0.08576127886772156, 0.011593015864491463, 0.02873881161212921, 0.010351990349590778, 0.011536519043147564, 0.03765127435326576, 0.007067862898111343, 0.1573243886232376, 0.046906474977731705, 0.09648868441581726, 0.010866672731935978, 0.010369066148996353, 0.14983989298343658, 0.05595361068844795, 0.007505429908633232, 0.009944992139935493, 0.14427262544631958, 0.049990214407444, 0.007724948227405548, 0.046505969017744064], [0.016930028796195984, 0.0881229117512703, 0.018062973394989967, 0.009493204765021801, 0.016265053302049637, 0.041131194680929184, 0.0020539031829684973, 0.010660246945917606, 0.18878862261772156, 0.015779975801706314, 0.1413949877023697, 0.014619546011090279, 0.030712710693478584, 0.12793314456939697, 0.0015179163310676813, 0.005737996660172939, 0.010689795017242432, 0.1890029013156891, 0.005883404053747654, 0.029552889987826347, 0.035666633397340775], [0.009382969699800014, 0.09605366736650467, 0.008293312974274158, 0.029102329164743423, 0.011033311486244202, 0.017125209793448448, 0.022318588569760323, 0.009113430976867676, 0.1743270754814148, 0.0348651260137558, 0.1439751237630844, 0.0076348078437149525, 0.010857178829610348, 0.14355558156967163, 0.032996587455272675, 0.01047820970416069, 0.014047466218471527, 0.15207582712173462, 0.025893619284033775, 0.008694193325936794, 0.03817636892199516], [0.007422601338475943, 0.10189730674028397, 0.012493059039115906, 0.010127470828592777, 0.007501624524593353, 0.03758750483393669, 0.001133248209953308, 0.010873604565858841, 0.1982332319021225, 0.005057878792285919, 0.17236356437206268, 0.010985659435391426, 0.009302183985710144, 0.11821077764034271, 0.0018654370214790106, 0.004847459960728884, 0.01232921052724123, 0.21574263274669647, 0.0010609242599457502, 0.013596294447779655, 0.047368329018354416], [0.011811856180429459, 0.0999700203537941, 0.01316845417022705, 0.006825805641710758, 0.017907507717609406, 0.056683313101530075, 0.0015586016234010458, 0.004578209016472101, 0.204376220703125, 0.007335860747843981, 0.17342586815357208, 0.01314428262412548, 0.035590242594480515, 0.12968605756759644, 0.0011797018814831972, 0.004844950046390295, 0.004674577619880438, 0.17263637483119965, 0.001143515924923122, 0.008494039997458458, 0.03096458688378334], [0.011983745731413364, 0.07789158821105957, 0.012876511551439762, 0.02966548316180706, 0.006233832333236933, 0.00611854949966073, 0.04328782111406326, 0.004948589019477367, 0.13489574193954468, 0.06123485043644905, 0.08047615736722946, 0.012473855167627335, 0.007854490540921688, 0.14693021774291992, 0.10089557617902756, 0.007224332541227341, 0.009124142117798328, 0.13628046214580536, 0.07241297513246536, 0.006493210326880217, 0.03069777972996235], [0.014710570685565472, 0.1052846685051918, 0.007360545918345451, 0.020826149731874466, 0.022549044340848923, 0.06011432781815529, 0.0022722750436514616, 0.021022114902734756, 0.15882639586925507, 0.005048375576734543, 0.1891247183084488, 0.007633300963789225, 0.020533176138997078, 0.12519961595535278, 0.0032094402704387903, 0.025386082008481026, 0.03388423100113869, 0.1327783614397049, 0.003355536377057433, 0.02089562639594078, 0.019985472783446312], [0.0059045893140137196, 0.08579327166080475, 0.0027033353690057993, 0.020068496465682983, 0.008764215745031834, 0.039998408406972885, 0.002552058082073927, 0.021790780127048492, 0.15296295285224915, 0.006896614097058773, 0.1579323410987854, 0.0022996896877884865, 0.009188459254801273, 0.11442310363054276, 0.0021350469905883074, 0.0816342830657959, 0.08532295376062393, 0.15504775941371918, 0.004382800310850143, 0.022195473313331604, 0.018003404140472412], [0.003117957850918174, 0.07754448801279068, 0.0016149186994880438, 0.013251065276563168, 0.0031730474438518286, 0.021815333515405655, 0.0006817449466325343, 0.01493871584534645, 0.19144651293754578, 0.0034046133514493704, 0.20179517567157745, 0.0015033336821943521, 0.0046384381130337715, 0.12670348584651947, 0.0013589870650321245, 0.02581188827753067, 0.08449240028858185, 0.1890556514263153, 0.001302999909967184, 0.0232069194316864, 0.009142260067164898], [0.014964323490858078, 0.0515194870531559, 0.01750011183321476, 0.036532189697027206, 0.009604104794561863, 0.00823250412940979, 0.05752602219581604, 0.006240478251129389, 0.0958562046289444, 0.07084672898054123, 0.060668591409921646, 0.01901453174650669, 0.010721093975007534, 0.11301446706056595, 0.11836834996938705, 0.006762821227312088, 0.010672553442418575, 0.10433496534824371, 0.1435520201921463, 0.008830966427922249, 0.035237427800893784], [0.015973757952451706, 0.07165797799825668, 0.006298676133155823, 0.041690096259117126, 0.014774508774280548, 0.06931237876415253, 0.0022731462959200144, 0.020038018003106117, 0.11899396777153015, 0.0082978755235672, 0.1518973708152771, 0.0077998754568398, 0.024533282965421677, 0.0715952217578888, 0.0038241201546043158, 0.017376866191625595, 0.05040273815393448, 0.12591929733753204, 0.050500620156526566, 0.10533284395933151, 0.021507278084754944], [0.012925523333251476, 0.06868986785411835, 0.00392075115814805, 0.024335086345672607, 0.009455831721425056, 0.03723173961043358, 0.002686448395252228, 0.015478289686143398, 0.1752162128686905, 0.008192814886569977, 0.16296574473381042, 0.0049178279004991055, 0.01563429646193981, 0.1168494001030922, 0.002476413967087865, 0.007443766575306654, 0.03069164790213108, 0.2088807076215744, 0.006701165810227394, 0.04567406699061394, 0.03963246941566467], [0.0023401016369462013, 0.15831007063388824, 0.0015490221558138728, 0.004288290161639452, 0.005332488100975752, 0.008026103489100933, 0.0010493278969079256, 0.003291598055511713, 0.2017236053943634, 0.001019052229821682, 0.18541835248470306, 0.0009487522183917463, 0.006180810276418924, 0.12310560047626495, 0.00035535768256522715, 0.007107364013791084, 0.008739737793803215, 0.22189861536026, 0.0007111275917850435, 0.012212174944579601, 0.046392444521188736]], [[0.05413512885570526, 0.07145307958126068, 0.02409774623811245, 0.04517532140016556, 0.014849085360765457, 0.015720095485448837, 0.013377916999161243, 0.03990497812628746, 0.10430274903774261, 0.019848298281431198, 0.09974174946546555, 0.030663136392831802, 0.019192399457097054, 0.09751653671264648, 0.020556937903165817, 0.02606971561908722, 0.03631163388490677, 0.10236279666423798, 0.012358845211565495, 0.01748526841402054, 0.1348765790462494], [0.09876466542482376, 0.08400069922208786, 0.03230665624141693, 0.03738855570554733, 0.026505690068006516, 0.024667706340551376, 0.023428181186318398, 0.017999790608882904, 0.10662199556827545, 0.03921141475439072, 0.07784176617860794, 0.023428959771990776, 0.025510728359222412, 0.10955097526311874, 0.030854523181915283, 0.01881754957139492, 0.009760670363903046, 0.09583309292793274, 0.020056623965501785, 0.0115036116912961, 0.0859462171792984], [0.12941017746925354, 0.06861681491136551, 0.004287643823772669, 0.05675042048096657, 0.06544345617294312, 0.044402945786714554, 0.010753879323601723, 0.028870949521660805, 0.06683799624443054, 0.033700063824653625, 0.061923835426568985, 0.0029099597595632076, 0.0633707195520401, 0.07095345109701157, 0.06430233269929886, 0.017780372872948647, 0.028145594522356987, 0.07119470089673996, 0.024346809834241867, 0.023362604901194572, 0.06263528764247894], [0.11458475887775421, 0.06272580474615097, 0.07830490916967392, 0.003858886193484068, 0.04760119691491127, 0.025937547907233238, 0.03575722873210907, 0.01722893677651882, 0.07103712856769562, 0.022874906659126282, 0.06470420211553574, 0.07009734958410263, 0.04872053861618042, 0.06037804111838341, 0.02062482014298439, 0.011509889736771584, 0.009280072525143623, 0.0674733817577362, 0.026588598266243935, 0.010846627876162529, 0.12986518442630768], [0.12824726104736328, 0.0733410194516182, 0.07667899876832962, 0.117169089615345, 0.025095991790294647, 0.027665993198752403, 0.008870295248925686, 0.019229739904403687, 0.05417105555534363, 0.08417028933763504, 0.05053025856614113, 0.05071044713258743, 0.02855180948972702, 0.04634379222989082, 0.018729398027062416, 0.006735954899340868, 0.012488530948758125, 0.04988083988428116, 0.04578649625182152, 0.007057946175336838, 0.06854474544525146], [0.1027613952755928, 0.054293084889650345, 0.04346156865358353, 0.1166020855307579, 0.058138009160757065, 0.0061251092702150345, 0.009176923893392086, 0.027674531564116478, 0.062108445912599564, 0.026508718729019165, 0.05880916491150856, 0.04321892559528351, 0.08873733133077621, 0.053905900567770004, 0.026880508288741112, 0.011671165935695171, 0.016724741086363792, 0.06147896125912666, 0.03082459792494774, 0.01538316160440445, 0.08551561832427979], [0.10115145146846771, 0.10644277185201645, 0.02860429510474205, 0.08228424191474915, 0.022024475038051605, 0.009634793736040592, 0.0011133799562230706, 0.032729148864746094, 0.11331992596387863, 0.02822248637676239, 0.06263218820095062, 0.01562856137752533, 0.022968728095293045, 0.10217910259962082, 0.01357331033796072, 0.01471945084631443, 0.022913733497262, 0.09544379264116287, 0.006749320775270462, 0.012354714795947075, 0.10531020909547806], [0.14141878485679626, 0.07196681201457977, 0.03881159424781799, 0.024137843400239944, 0.024762852117419243, 0.007703422103077173, 0.006144761573523283, 0.005833734758198261, 0.09314664453268051, 0.02766582928597927, 0.0795944556593895, 0.03886491432785988, 0.025336854159832, 0.07145533710718155, 0.012940325774252415, 0.010692747309803963, 0.003297590184956789, 0.07483382523059845, 0.020940888673067093, 0.036780212074518204, 0.18367040157318115], [0.1031767800450325, 0.07962433993816376, 0.03330660238862038, 0.039148714393377304, 0.02502104826271534, 0.01892063580453396, 0.023363765329122543, 0.017722783610224724, 0.11061109602451324, 0.04075853154063225, 0.0734655112028122, 0.027156304568052292, 0.028254415839910507, 0.11429683864116669, 0.030088774859905243, 0.014838475733995438, 0.01318659819662571, 0.10469048470258713, 0.031803250312805176, 0.01500073354691267, 0.055564358830451965], [0.12712503969669342, 0.07391156256198883, 0.032444410026073456, 0.01358602475374937, 0.038425512611866, 0.03524092212319374, 0.010062524117529392, 0.022308778017759323, 0.10052331537008286, 0.011364519596099854, 0.057233065366744995, 0.03256470710039139, 0.050407517701387405, 0.1049022525548935, 0.05612712353467941, 0.022450825199484825, 0.023451611399650574, 0.09421063959598541, 0.02885768748819828, 0.016052307561039925, 0.048749614506959915], [0.12804216146469116, 0.0852317363023758, 0.026623724028468132, 0.0529145747423172, 0.02538667432963848, 0.017715947702527046, 0.01622716523706913, 0.016286322847008705, 0.10745183378458023, 0.024420971050858498, 0.0804317444562912, 0.020968463271856308, 0.027235588058829308, 0.10624606162309647, 0.020819688215851784, 0.012737823650240898, 0.009499273262917995, 0.09455906599760056, 0.01764470525085926, 0.011433483101427555, 0.09812302887439728], [0.14292530715465546, 0.055844780057668686, 0.005181135609745979, 0.05701058730483055, 0.08534958958625793, 0.03852593153715134, 0.009377519600093365, 0.027760470286011696, 0.0590166375041008, 0.03696683421730995, 0.055839091539382935, 0.003432844765484333, 0.07927805185317993, 0.05933672562241554, 0.05258285999298096, 0.009576266631484032, 0.02597130835056305, 0.06140926480293274, 0.017983626574277878, 0.026135239750146866, 0.09049580991268158], [0.09054671227931976, 0.05005885288119316, 0.09125914424657822, 0.05788502097129822, 0.04497377201914787, 0.05082522705197334, 0.008386611007153988, 0.020368576049804688, 0.046681251376867294, 0.09176690876483917, 0.040718983858823776, 0.07700769603252411, 0.05098462104797363, 0.03869679570198059, 0.02207932062447071, 0.00581221142783761, 0.017658986151218414, 0.042182017117738724, 0.04695400968194008, 0.008464907296001911, 0.09668832272291183], [0.1049749106168747, 0.07598146051168442, 0.029904596507549286, 0.03508608788251877, 0.019169222563505173, 0.017540831118822098, 0.020875265821814537, 0.016290908679366112, 0.11054465919733047, 0.03967507928609848, 0.07070044428110123, 0.025898616760969162, 0.02494535967707634, 0.11381806433200836, 0.034345485270023346, 0.015887923538684845, 0.016535310074687004, 0.11267013847827911, 0.042861226946115494, 0.01940695196390152, 0.05288753658533096], [0.07421250641345978, 0.08188790827989578, 0.13150788843631744, 0.03284947946667671, 0.013673870824277401, 0.02153177373111248, 0.025508267804980278, 0.010898808017373085, 0.09548141807317734, 0.05992624908685684, 0.05373379588127136, 0.07231089472770691, 0.013823704794049263, 0.09627531468868256, 0.015122764743864536, 0.00946035422384739, 0.007248287554830313, 0.10172396153211594, 0.029012510553002357, 0.014417532831430435, 0.03939266875386238], [0.12322844564914703, 0.06579439342021942, 0.023370005190372467, 0.029878517612814903, 0.04215077683329582, 0.020437438040971756, 0.017017163336277008, 0.026121769100427628, 0.10332725197076797, 0.022932058200240135, 0.08267247676849365, 0.016760336235165596, 0.04517837241292, 0.09598623216152191, 0.02865641936659813, 0.007775743491947651, 0.026760339736938477, 0.09911959618330002, 0.014954319223761559, 0.030966930091381073, 0.07691134512424469], [0.15938042104244232, 0.05863799527287483, 0.03976551815867424, 0.01327779795974493, 0.027840683236718178, 0.008305351249873638, 0.006619620602577925, 0.005471040029078722, 0.10413442552089691, 0.05452437326312065, 0.063310906291008, 0.03538694232702255, 0.03449146822094917, 0.09370575845241547, 0.02079669199883938, 0.009581202641129494, 0.0029930819291621447, 0.1031171977519989, 0.031693391501903534, 0.050628598779439926, 0.07633747160434723], [0.08510459959506989, 0.07306884229183197, 0.02733718417584896, 0.03140217065811157, 0.019901124760508537, 0.01762199215590954, 0.023079464212059975, 0.018009813502430916, 0.11326001584529877, 0.04083074629306793, 0.07106998562812805, 0.025518104434013367, 0.02585291862487793, 0.12547607719898224, 0.0359358936548233, 0.022481614723801613, 0.020400704815983772, 0.11656274646520615, 0.040910281240940094, 0.02154809981584549, 0.04462766274809837], [0.041484538465738297, 0.08161626756191254, 0.04024122655391693, 0.020041370764374733, 0.01583215408027172, 0.03228091821074486, 0.01226834673434496, 0.0648990273475647, 0.12690269947052002, 0.026073666289448738, 0.05924785137176514, 0.017380958423018456, 0.019400568678975105, 0.1296514868736267, 0.05249355360865593, 0.023636896163225174, 0.0486779622733593, 0.12177170068025589, 0.0007452393765561283, 0.005963089410215616, 0.05939050018787384], [0.06406515836715698, 0.05723688006401062, 0.06468265503644943, 0.018172219395637512, 0.020276429131627083, 0.016386091709136963, 0.007801896892488003, 0.07251132279634476, 0.08893682807683945, 0.01914338767528534, 0.06594070047140121, 0.07007557898759842, 0.027579644694924355, 0.07653609663248062, 0.012659520842134953, 0.02747553400695324, 0.08471860736608505, 0.08683471381664276, 0.006733263842761517, 0.007525272201746702, 0.104708231985569], [0.036699168384075165, 0.06085089594125748, 0.05119237303733826, 0.04952056333422661, 0.05688035860657692, 0.0350668802857399, 0.018431998789310455, 0.03341923654079437, 0.06346495449542999, 0.018881652504205704, 0.06397591531276703, 0.0378427617251873, 0.041478533297777176, 0.05273349955677986, 0.01428828202188015, 0.009599345736205578, 0.015494071878492832, 0.053069375455379486, 0.0050140973180532455, 0.009944523684680462, 0.2721515893936157]]], [[[0.004760235082358122, 0.03540252149105072, 0.011478761211037636, 0.005076708272099495, 0.017520898953080177, 0.0021835064981132746, 0.06247808411717415, 0.02317565307021141, 0.029854604974389076, 0.035964976996183395, 0.02289155311882496, 0.019047603011131287, 0.010977327823638916, 0.0403926819562912, 0.009907949715852737, 0.006334559991955757, 0.024496549740433693, 0.021045660600066185, 0.015334625728428364, 0.029000895097851753, 0.572674572467804], [0.029203375801444054, 0.04556618630886078, 0.021349811926484108, 0.037448011338710785, 0.04826594144105911, 0.014002279378473759, 0.0489099882543087, 0.0599004365503788, 0.09150069952011108, 0.027181148529052734, 0.060561925172805786, 0.02622164785861969, 0.03060130588710308, 0.09950575977563858, 0.04753052815794945, 0.01694294437766075, 0.03844611719250679, 0.0884905681014061, 0.026851501315832138, 0.017689531669020653, 0.12383019179105759], [0.014776679687201977, 0.1252284198999405, 0.013490821234881878, 0.008260875940322876, 0.005928177386522293, 0.000711571890860796, 0.007599420379847288, 0.01670701801776886, 0.17987291514873505, 0.011212008073925972, 0.10699083656072617, 0.01517541240900755, 0.004215309862047434, 0.18073731660842896, 0.004007815383374691, 0.004373947624117136, 0.010139252059161663, 0.16589628159999847, 0.005065230652689934, 0.003987384028732777, 0.11562345921993256], [0.028167836368083954, 0.10588660836219788, 0.013427532278001308, 0.034646403044462204, 0.003708724630996585, 0.0016150682931765914, 0.003569814609363675, 0.023103460669517517, 0.1576160192489624, 0.007989073172211647, 0.14218021929264069, 0.014467781409621239, 0.002602087799459696, 0.1550189107656479, 0.007007863838225603, 0.008834478445351124, 0.015543407760560513, 0.170381098985672, 0.002695658477023244, 0.0035983328707516193, 0.09793965518474579], [0.01560733187943697, 0.049076542258262634, 0.044737666845321655, 0.007078962400555611, 0.2116290181875229, 0.0009460897999815643, 0.007029545959085226, 0.02597000077366829, 0.09906657040119171, 0.024109328165650368, 0.06849820911884308, 0.030333558097481728, 0.16237060725688934, 0.07809104770421982, 0.00491379713639617, 0.016866197809576988, 0.026531532406806946, 0.07750918716192245, 0.007536715362221003, 0.00683285528793931, 0.03526521101593971], [0.0035598052199929953, 0.07867302000522614, 0.030644742771983147, 0.04809079319238663, 0.004053386393934488, 0.08488242328166962, 0.008440430276095867, 0.02794790267944336, 0.16040480136871338, 0.007697486784309149, 0.10259746015071869, 0.02777266316115856, 0.004327783361077309, 0.14516790211200714, 0.00896464753895998, 0.022319668903946877, 0.03217308223247528, 0.1606658399105072, 0.013141152448952198, 0.007148894015699625, 0.021326029673218727], [0.0237351655960083, 0.12096446007490158, 0.03512803837656975, 0.0008404644904658198, 0.00623274827376008, 0.0014156467514112592, 0.004062088672071695, 0.004144243896007538, 0.19064222276210785, 0.04556038975715637, 0.13075527548789978, 0.04094531759619713, 0.00442930031567812, 0.1595185399055481, 0.0011483548441901803, 0.0038448877166956663, 0.0030300726648420095, 0.17860977351665497, 0.012047260999679565, 0.009805961512029171, 0.023139802739024162], [0.007620405871421099, 0.09914898127317429, 0.011538601480424404, 0.05436484515666962, 0.005468935705721378, 0.003274601185694337, 0.0030825904104858637, 0.1661698818206787, 0.1214878261089325, 0.007151315920054913, 0.09456780552864075, 0.009036650881171227, 0.003110771533101797, 0.10237419605255127, 0.007983878254890442, 0.022458525374531746, 0.11168541014194489, 0.09701111167669296, 0.0012221339857205749, 0.0015715836780145764, 0.06966984272003174], [0.035786453634500504, 0.051758524030447006, 0.013996781781315804, 0.021104061976075172, 0.017062798142433167, 0.005965393967926502, 0.01902499608695507, 0.0238441564142704, 0.12946206331253052, 0.04445766657590866, 0.07843789458274841, 0.015459610149264336, 0.021003304049372673, 0.15161548554897308, 0.031921982765197754, 0.010161775164306164, 0.02511877380311489, 0.18652042746543884, 0.038000427186489105, 0.02554890140891075, 0.053748492151498795], [0.013964785262942314, 0.11684197187423706, 0.04961599409580231, 0.0021576937288045883, 0.005130583420395851, 0.0008172716479748487, 0.021083924919366837, 0.004673878196626902, 0.138102188706398, 0.05551547184586525, 0.06473739445209503, 0.045819368213415146, 0.0049265241250395775, 0.14522786438465118, 0.002400971483439207, 0.0029470219742506742, 0.0073956893756985664, 0.2001781165599823, 0.07141350954771042, 0.01628369837999344, 0.030765997245907784], [0.03453271836042404, 0.06480547785758972, 0.022458799183368683, 0.01563974656164646, 0.017401840537786484, 0.005172214936465025, 0.01322595588862896, 0.019324511289596558, 0.15662941336631775, 0.036909397691488266, 0.09794871509075165, 0.023016992956399918, 0.020929943770170212, 0.15629157423973083, 0.01819966919720173, 0.007991435006260872, 0.02046065777540207, 0.1612296849489212, 0.0266258604824543, 0.01278696022927761, 0.0684184655547142], [0.022237075492739677, 0.1017148420214653, 0.018093889579176903, 0.002773513086140156, 0.00504841236397624, 0.0001909388811327517, 0.0047098323702812195, 0.00712628336623311, 0.20125523209571838, 0.01300419494509697, 0.11022687703371048, 0.01888604462146759, 0.006092974916100502, 0.1870000809431076, 0.0024187725502997637, 0.0032485330011695623, 0.0078927893191576, 0.19475238025188446, 0.005269654095172882, 0.0032202829606831074, 0.08483733981847763], [0.008174457587301731, 0.030456647276878357, 0.03886881098151207, 0.0028709769248962402, 0.17631058394908905, 0.0011008701985701919, 0.003713097656145692, 0.015226033516228199, 0.10948547720909119, 0.028970355167984962, 0.07192516326904297, 0.033043719828128815, 0.19236476719379425, 0.09541787207126617, 0.0033944149035960436, 0.015230625867843628, 0.021308880299329758, 0.10413218289613724, 0.01039832178503275, 0.014443661086261272, 0.023163115605711937], [0.030926471576094627, 0.03530390188097954, 0.008830494247376919, 0.015984859317541122, 0.016346490010619164, 0.007550226990133524, 0.012142463587224483, 0.0208954568952322, 0.14310652017593384, 0.0415206141769886, 0.07259751856327057, 0.010295205749571323, 0.02618306688964367, 0.14758233726024628, 0.02419416978955269, 0.010037205182015896, 0.021929221227765083, 0.2554951310157776, 0.04060208797454834, 0.024898141622543335, 0.03357849270105362], [0.008177277632057667, 0.05599435046315193, 0.0036525821778923273, 0.04092658311128616, 0.007641451433300972, 0.002220925409346819, 0.0021234084852039814, 0.008314301259815693, 0.18945281207561493, 0.0031920182518661022, 0.1302100121974945, 0.004775937646627426, 0.005066694226115942, 0.21843954920768738, 0.0016387036303058267, 0.009619370102882385, 0.004449461121112108, 0.27329927682876587, 0.006655897945165634, 0.012963750399649143, 0.011185596697032452], [0.006235235836356878, 0.11638262867927551, 0.009963209740817547, 0.0061835371889173985, 0.003772389842197299, 0.00029305400676093996, 0.000654337287414819, 0.018476001918315887, 0.2056851089000702, 0.005319564137607813, 0.15060023963451385, 0.009457824751734734, 0.0022854902781546116, 0.20282821357250214, 0.0013250387273728848, 0.005897587165236473, 0.006703267805278301, 0.2283819317817688, 0.0014330365229398012, 0.0025007727090269327, 0.01562153734266758], [0.00806464534252882, 0.06000566482543945, 0.004833689890801907, 0.037057362496852875, 0.0031322892755270004, 0.0010039336048066616, 0.0031523481011390686, 0.11819282919168472, 0.13810084760189056, 0.005257701501250267, 0.0993068590760231, 0.005199437960982323, 0.0020479364320635796, 0.17264443635940552, 0.00377458892762661, 0.013011896051466465, 0.10797260701656342, 0.17904169857501984, 0.0014417843194678426, 0.0059766084887087345, 0.030780764296650887], [0.03577268496155739, 0.02387772500514984, 0.005895720329135656, 0.02601609006524086, 0.021298760548233986, 0.027915911749005318, 0.024217452853918076, 0.030011342838406563, 0.09531047195196152, 0.06568445265293121, 0.04800929129123688, 0.006995669100433588, 0.03319287300109863, 0.1271749585866928, 0.05563609302043915, 0.014319641515612602, 0.02276564948260784, 0.18722151219844818, 0.06606172025203705, 0.049366503953933716, 0.03325553610920906], [0.05889376252889633, 0.05450792983174324, 0.012250794097781181, 0.00923317950218916, 0.011303205974400043, 0.0006773867644369602, 0.006548670586198568, 0.007931719534099102, 0.11764509975910187, 0.023930519819259644, 0.06417267769575119, 0.017715606838464737, 0.010336317121982574, 0.12080255150794983, 0.005394774954766035, 0.006369079928845167, 0.009691099636256695, 0.1596987247467041, 0.17805063724517822, 0.1042366772890091, 0.020609520375728607], [0.009321043267846107, 0.08152209967374802, 0.011834707111120224, 0.012608291581273079, 0.008657327853143215, 0.006052515469491482, 0.01157640665769577, 0.01587916724383831, 0.17453521490097046, 0.0077544813975691795, 0.13129708170890808, 0.018637357279658318, 0.0097803408280015, 0.1958039551973343, 0.003550472902134061, 0.02295871265232563, 0.01479618065059185, 0.1637391299009323, 0.008501499891281128, 0.07393128424882889, 0.017262740060687065], [0.014149179682135582, 0.08666809648275375, 0.020760323852300644, 0.007155549246817827, 0.0070398710668087006, 0.017433470115065575, 0.032426223158836365, 0.04915543273091316, 0.0901675596833229, 0.017619971185922623, 0.07372616231441498, 0.037728048861026764, 0.010448767803609371, 0.07748639583587646, 0.021780353039503098, 0.028721893206238747, 0.08973287791013718, 0.07042913883924484, 0.02247031405568123, 0.008328398689627647, 0.21657195687294006]], [[0.012172172777354717, 0.05522004887461662, 0.09789884090423584, 0.048855915665626526, 0.05401377007365227, 0.019629009068012238, 0.06670574843883514, 0.06702931225299835, 0.06240871921181679, 0.005461375694721937, 0.045866284519433975, 0.15371668338775635, 0.042713575065135956, 0.04782760888338089, 0.018753524869680405, 0.017616314813494682, 0.030029598623514175, 0.08729440718889236, 0.011210786178708076, 0.012340081855654716, 0.04323624074459076], [0.15657953917980194, 0.08696704357862473, 0.020709678530693054, 0.040432143956422806, 0.1062004491686821, 0.04370123893022537, 0.015105740167200565, 0.025569722056388855, 0.01749991439282894, 0.0595705509185791, 0.03794654831290245, 0.006065391004085541, 0.04833545163273811, 0.00839055236428976, 0.012342657893896103, 0.02767905965447426, 0.00932086817920208, 0.004116518888622522, 0.004443059209734201, 0.056777507066726685, 0.21224629878997803], [0.28076881170272827, 0.05778881534934044, 0.015331773087382317, 0.04559176042675972, 0.06845667958259583, 0.032689884305000305, 0.014191027730703354, 0.014875597320497036, 0.018929023295640945, 0.05604204535484314, 0.03510627523064613, 0.008281550370156765, 0.05717235058546066, 0.008965534158051014, 0.021422145888209343, 0.03039538487792015, 0.008710854686796665, 0.004613233730196953, 0.005480392836034298, 0.06970377266407013, 0.14548306167125702], [0.3395799994468689, 0.057216577231884, 0.009440002031624317, 0.015088990330696106, 0.0337548702955246, 0.0300945732742548, 0.009181111119687557, 0.012294725514948368, 0.02258777990937233, 0.026936663314700127, 0.034737247973680496, 0.0053190747275948524, 0.04153748229146004, 0.01629825308918953, 0.011596491560339928, 0.029710808768868446, 0.01030037086457014, 0.007508167065680027, 0.006655294913798571, 0.046531256288290024, 0.2336302548646927], [0.4402466118335724, 0.044004470109939575, 0.0053595248609781265, 0.018811648711562157, 0.04143844172358513, 0.03869425132870674, 0.00662647932767868, 0.013368225656449795, 0.01670682430267334, 0.03735721856355667, 0.033689867705106735, 0.0031583316158503294, 0.03959556296467781, 0.00949121918529272, 0.011081570759415627, 0.035490840673446655, 0.010129868052899837, 0.0042256517335772514, 0.004387352149933577, 0.039143189787864685, 0.14699271321296692], [0.2876812815666199, 0.08194932341575623, 0.019872313365340233, 0.0470358282327652, 0.07395292818546295, 0.050938092172145844, 0.033717818558216095, 0.01883709244430065, 0.02549041621387005, 0.041521765291690826, 0.03762178122997284, 0.010857464745640755, 0.04321149364113808, 0.016321970149874687, 0.024710461497306824, 0.022701671347022057, 0.013831940479576588, 0.010452919639647007, 0.011773044243454933, 0.02412351779639721, 0.10339689999818802], [0.018878720700740814, 0.12735287845134735, 0.026758018881082535, 0.021192990243434906, 0.07123264670372009, 0.10751313716173172, 0.012752563692629337, 0.05797005444765091, 0.06715463101863861, 0.03195499628782272, 0.08521147817373276, 0.009450983256101608, 0.03380469232797623, 0.03567183390259743, 0.007399361114948988, 0.04151751846075058, 0.023261843249201775, 0.035251300781965256, 0.011558933183550835, 0.04586512967944145, 0.1282462477684021], [0.3053518533706665, 0.06921504437923431, 0.00737873325124383, 0.019594592973589897, 0.024166759103536606, 0.026747893542051315, 0.012570255436003208, 0.01164642907679081, 0.03172707185149193, 0.022903092205524445, 0.0440116785466671, 0.007251811679452658, 0.0456869974732399, 0.022974342107772827, 0.013677903451025486, 0.019954126328229904, 0.010267370380461216, 0.012147041969001293, 0.0068016513250768185, 0.04172221198678017, 0.24420315027236938], [0.15300147235393524, 0.05907321721315384, 0.03429767116904259, 0.0334693007171154, 0.04925314709544182, 0.02649114839732647, 0.02711724489927292, 0.021522648632526398, 0.040575914084911346, 0.05071587115526199, 0.03839816898107529, 0.02978917770087719, 0.05733109265565872, 0.03606138005852699, 0.028882283717393875, 0.0233400110155344, 0.02815621718764305, 0.04496311768889427, 0.03479555994272232, 0.03209760785102844, 0.1506676971912384], [0.09975990653038025, 0.0524006225168705, 0.011208360083401203, 0.01845868118107319, 0.028705503791570663, 0.013856605626642704, 0.004351345356553793, 0.015421324409544468, 0.03119559772312641, 0.008043758571147919, 0.03624259680509567, 0.010901265777647495, 0.038482554256916046, 0.021006237715482712, 0.006457291077822447, 0.021342379972338676, 0.015129223465919495, 0.021056246012449265, 0.005493771750479937, 0.037964604794979095, 0.5025221109390259], [0.27642199397087097, 0.04583964869379997, 0.01708260364830494, 0.03102799877524376, 0.03723962977528572, 0.018743792548775673, 0.01751597970724106, 0.016642151400446892, 0.03066769614815712, 0.03290319815278053, 0.03382590413093567, 0.019247932359576225, 0.05736807733774185, 0.026913275942206383, 0.023588335141539574, 0.019814778119325638, 0.02168552204966545, 0.024924393743276596, 0.01749068684875965, 0.03114507347345352, 0.1999112367630005], [0.24247713387012482, 0.05419359728693962, 0.010749995708465576, 0.029653403908014297, 0.021782951429486275, 0.01374388113617897, 0.012526009231805801, 0.01236369926482439, 0.04888357222080231, 0.017010463401675224, 0.0426970012485981, 0.02022561989724636, 0.06064634770154953, 0.03844279795885086, 0.02335917390882969, 0.018912404775619507, 0.016356084495782852, 0.03800790011882782, 0.010806143283843994, 0.03176736459136009, 0.23539447784423828], [0.3748856484889984, 0.03722260892391205, 0.0037165959365665913, 0.013631105422973633, 0.013135815039277077, 0.010188188403844833, 0.004781654104590416, 0.010827497579157352, 0.03341355174779892, 0.013131115585565567, 0.03742832690477371, 0.008506660349667072, 0.03721864894032478, 0.026810530573129654, 0.011567904613912106, 0.016348939388990402, 0.014123517088592052, 0.01948051154613495, 0.005875255912542343, 0.019120097160339355, 0.28858593106269836], [0.08501089364290237, 0.0560116246342659, 0.03801856189966202, 0.02399999462068081, 0.027359308674931526, 0.015966102480888367, 0.024660758674144745, 0.015728572383522987, 0.061908602714538574, 0.037399932742118835, 0.03682280704379082, 0.04146173223853111, 0.039079152047634125, 0.06476089358329773, 0.022939428687095642, 0.01912606507539749, 0.032420750707387924, 0.12481570243835449, 0.047643136233091354, 0.020204603672027588, 0.16466136276721954], [0.1609916090965271, 0.05440386384725571, 0.006148394197225571, 0.009148931130766869, 0.011207891628146172, 0.010992378927767277, 0.002958493772894144, 0.011155064217746258, 0.05921035259962082, 0.006731885951012373, 0.047021254897117615, 0.010749147273600101, 0.02503156289458275, 0.050694551318883896, 0.003711251774802804, 0.023685630410909653, 0.028713850304484367, 0.05865957587957382, 0.01198570616543293, 0.022037899121642113, 0.3847607374191284], [0.10103492438793182, 0.08318308740854263, 0.01202357467263937, 0.01338862907141447, 0.013424755074083805, 0.008199437521398067, 0.002749233040958643, 0.017713269218802452, 0.08277478814125061, 0.004273214377462864, 0.05231235921382904, 0.018638061359524727, 0.03184617683291435, 0.06448960304260254, 0.0036384775303304195, 0.01209471095353365, 0.019667336717247963, 0.08277877420186996, 0.004456107039004564, 0.014670372940599918, 0.35664311051368713], [0.2507353127002716, 0.06394721567630768, 0.014612173661589622, 0.013834412209689617, 0.013369625434279442, 0.005590266082435846, 0.005249549634754658, 0.011432462371885777, 0.07597461342811584, 0.007195668760687113, 0.04654517397284508, 0.03285159543156624, 0.043889280408620834, 0.06104482337832451, 0.007892858237028122, 0.012108545750379562, 0.01645475998520851, 0.07057562470436096, 0.009106775745749474, 0.019461117684841156, 0.21812820434570312], [0.02295031026005745, 0.0432082898914814, 0.08291123062372208, 0.016696125268936157, 0.028239918872714043, 0.013373156078159809, 0.036608658730983734, 0.014260469004511833, 0.060246679931879044, 0.03583524748682976, 0.025577954947948456, 0.08871417492628098, 0.0332619845867157, 0.07017937302589417, 0.02568511664867401, 0.010665640234947205, 0.027881421148777008, 0.21473750472068787, 0.08498764038085938, 0.010587702505290508, 0.05339151993393898], [0.09769300371408463, 0.056364331394433975, 0.017496325075626373, 0.020664310082793236, 0.040320537984371185, 0.009286368265748024, 0.006695520132780075, 0.029630383476614952, 0.07684691995382309, 0.015044785104691982, 0.05522855371236801, 0.039542414247989655, 0.07503297179937363, 0.05175270140171051, 0.01133601926267147, 0.02797875925898552, 0.030294833704829216, 0.07963935285806656, 0.02037443220615387, 0.05203522741794586, 0.18674221634864807], [0.15176960825920105, 0.049046993255615234, 0.008657586760818958, 0.01636071316897869, 0.010532992891967297, 0.007069987244904041, 0.003830262692645192, 0.011972043663263321, 0.06493260711431503, 0.010345250368118286, 0.04572184383869171, 0.02353765070438385, 0.03979136049747467, 0.06317873299121857, 0.01618371717631817, 0.013906659558415413, 0.023204490542411804, 0.07717575132846832, 0.011182049289345741, 0.02346891537308693, 0.328130841255188], [0.06803394854068756, 0.06865684688091278, 0.0349518284201622, 0.02577156201004982, 0.06122921407222748, 0.02266956865787506, 0.025821905583143234, 0.037644367665052414, 0.06128217279911041, 0.025777680799365044, 0.07141389697790146, 0.09270171076059341, 0.1818549484014511, 0.03772691264748573, 0.02042362652719021, 0.007462545298039913, 0.01275218278169632, 0.030205393210053444, 0.00984710082411766, 0.03754604235291481, 0.0662265419960022]], [[0.22816503047943115, 0.013661042787134647, 0.012202303856611252, 0.03398383781313896, 0.01979854702949524, 0.005904511548578739, 0.009504013694822788, 0.013340977020561695, 0.029347065836191177, 0.014501404948532581, 0.03003852069377899, 0.026366423815488815, 0.025419315323233604, 0.026180580258369446, 0.0029370631091296673, 0.0049079111777246, 0.020174406468868256, 0.042510922998189926, 0.027824999764561653, 0.02178945392370224, 0.3914417326450348], [0.030006403103470802, 0.06621765345335007, 0.052710238844156265, 0.11122197657823563, 0.049049198627471924, 0.03127337247133255, 0.03844239562749863, 0.026109550148248672, 0.075851671397686, 0.05166056379675865, 0.07431914657354355, 0.051319245249032974, 0.03282928094267845, 0.047884661704301834, 0.027513694018125534, 0.01386692188680172, 0.01766013726592064, 0.048893727362155914, 0.03281310945749283, 0.01456456258893013, 0.10579262673854828], [0.05161753669381142, 0.07644592225551605, 0.004070995841175318, 0.15387260913848877, 0.06112741678953171, 0.01677059568464756, 0.04212582856416702, 0.03194301947951317, 0.10399537533521652, 0.06788656860589981, 0.0824408233165741, 0.006198224611580372, 0.04404108598828316, 0.06923135370016098, 0.023987600579857826, 0.007842413149774075, 0.01299372874200344, 0.048587020486593246, 0.03493655100464821, 0.008347880095243454, 0.051537517458200455], [0.028250273317098618, 0.06694132834672928, 0.10042500495910645, 0.013584071770310402, 0.03147765249013901, 0.032147523015737534, 0.03442532941699028, 0.017443731427192688, 0.09139023721218109, 0.0382906049489975, 0.08224785327911377, 0.08233526349067688, 0.018922217190265656, 0.0602024681866169, 0.009736519306898117, 0.006894024554640055, 0.01363611314445734, 0.07726766169071198, 0.01772339642047882, 0.006121646147221327, 0.17053699493408203], [0.03353052958846092, 0.07667643576860428, 0.04535004124045372, 0.04816090315580368, 0.03016485832631588, 0.045068033039569855, 0.05749616026878357, 0.027780616655945778, 0.11186229437589645, 0.08198906481266022, 0.08372775465250015, 0.06513260304927826, 0.024192605167627335, 0.07460548728704453, 0.011222784407436848, 0.011320517398416996, 0.014725713059306145, 0.06564215570688248, 0.009041653014719486, 0.00839376263320446, 0.0739159882068634], [0.013154370710253716, 0.04766085743904114, 0.051504846662282944, 0.11474590003490448, 0.12753009796142578, 0.007014399394392967, 0.026672182604670525, 0.02474345825612545, 0.07745715975761414, 0.05048714950680733, 0.06581079959869385, 0.06130482256412506, 0.12655825912952423, 0.0650424212217331, 0.018848227337002754, 0.01998312957584858, 0.01635514758527279, 0.052917227149009705, 0.005130750592797995, 0.004178475122898817, 0.022900285199284554], [0.06296709179878235, 0.0567992739379406, 0.03867427259683609, 0.13373930752277374, 0.08622992783784866, 0.04448087140917778, 0.005864499602466822, 0.04507862776517868, 0.06259752064943314, 0.04023902118206024, 0.05495477095246315, 0.04650050029158592, 0.05095839500427246, 0.05777261406183243, 0.02146126516163349, 0.028009459376335144, 0.02686361037194729, 0.04083111882209778, 0.01928725279867649, 0.00859080720692873, 0.06809978187084198], [0.007036022841930389, 0.07411973923444748, 0.056818220764398575, 0.023507894948124886, 0.028301363810896873, 0.0242682583630085, 0.027817081660032272, 0.004799385089427233, 0.12177420407533646, 0.08559073507785797, 0.1116722822189331, 0.05047452077269554, 0.028513239696621895, 0.09199322015047073, 0.02453945018351078, 0.013981880620121956, 0.0061384206637740135, 0.08643996715545654, 0.01978243701159954, 0.04763203486800194, 0.06479962915182114], [0.029152706265449524, 0.06618397682905197, 0.05801454186439514, 0.05513952299952507, 0.04808555170893669, 0.026030488312244415, 0.03263134881854057, 0.023492256179451942, 0.07714734226465225, 0.043097686022520065, 0.0742248073220253, 0.06050151586532593, 0.0465870276093483, 0.062236011028289795, 0.028771795332431793, 0.013987629674375057, 0.02287130430340767, 0.06289085000753403, 0.03394283726811409, 0.01910453476011753, 0.11590622365474701], [0.04600205644965172, 0.07035154849290848, 0.06009872630238533, 0.055172938853502274, 0.04393967613577843, 0.054964084178209305, 0.008230878971517086, 0.029510438442230225, 0.08524169772863388, 0.009628137573599815, 0.049896225333213806, 0.06959746032953262, 0.02739197202026844, 0.07254794239997864, 0.07116708159446716, 0.012373484671115875, 0.015314866788685322, 0.06771991401910782, 0.09059275686740875, 0.03122122958302498, 0.0290368665009737], [0.022122550755739212, 0.06244785711169243, 0.04888083413243294, 0.06143101304769516, 0.058500904589891434, 0.025482192635536194, 0.027408460155129433, 0.03223930671811104, 0.07085753977298737, 0.02929352968931198, 0.07395125925540924, 0.06268826872110367, 0.05921468883752823, 0.05483552813529968, 0.023321550339460373, 0.015425409190356731, 0.029985446482896805, 0.053606342524290085, 0.02084249071776867, 0.02437950298190117, 0.14308536052703857], [0.03606666997075081, 0.05043703317642212, 0.004446602426469326, 0.07508675754070282, 0.05386154353618622, 0.013347822241485119, 0.04114476963877678, 0.030514467507600784, 0.08347193151712418, 0.10355337709188461, 0.07482371479272842, 0.010033325292170048, 0.09131547063589096, 0.07070103287696838, 0.029668468981981277, 0.00987753551453352, 0.021601136773824692, 0.047865379601716995, 0.042804278433322906, 0.021637221798300743, 0.08774155378341675], [0.022338218986988068, 0.044049542397260666, 0.043384138494729996, 0.03106592409312725, 0.027948273345828056, 0.03621712699532509, 0.024711094796657562, 0.031718600541353226, 0.0931449607014656, 0.05633777379989624, 0.07684493809938431, 0.12728054821491241, 0.04598916321992874, 0.07835981994867325, 0.01924779638648033, 0.01316179521381855, 0.02315887250006199, 0.06714504957199097, 0.021407820284366608, 0.02484864555299282, 0.09163987636566162], [0.033334046602249146, 0.048854097723960876, 0.04955742508172989, 0.04234397038817406, 0.031357258558273315, 0.02268092893064022, 0.029767978936433792, 0.020990237593650818, 0.0759580135345459, 0.049718599766492844, 0.06827383488416672, 0.06510001420974731, 0.04235224425792694, 0.07538095861673355, 0.03918036073446274, 0.017455948516726494, 0.026688482612371445, 0.08274228125810623, 0.04851477965712547, 0.029261711984872818, 0.1004868820309639], [0.051780812442302704, 0.04227651655673981, 0.04875505343079567, 0.014939771965146065, 0.028677314519882202, 0.02323533594608307, 0.03642727807164192, 0.02384929358959198, 0.06854083389043808, 0.1389208883047104, 0.04530738666653633, 0.05245797708630562, 0.03909122198820114, 0.07963360100984573, 0.01238689199090004, 0.026367411017417908, 0.01788248121738434, 0.08583469688892365, 0.09123498946428299, 0.030618151649832726, 0.041782114654779434], [0.02318774163722992, 0.04892396926879883, 0.06997673213481903, 0.017593340948224068, 0.038761939853429794, 0.02755863033235073, 0.028402836993336678, 0.028667917475104332, 0.08166387677192688, 0.06080181524157524, 0.07323390990495682, 0.08520963042974472, 0.04940487816929817, 0.07686683535575867, 0.04100006818771362, 0.011316588148474693, 0.03544213995337486, 0.07266568392515182, 0.034828897565603256, 0.03621339425444603, 0.0582791306078434], [0.015984822064638138, 0.04251540079712868, 0.030478177592158318, 0.0208775345236063, 0.014135051518678665, 0.02070222795009613, 0.016727173700928688, 0.006088276859372854, 0.08038037270307541, 0.04670167714357376, 0.09299226105213165, 0.04678516089916229, 0.02718554064631462, 0.08116095513105392, 0.04255905747413635, 0.015565871261060238, 0.007766547612845898, 0.09112616628408432, 0.05298071354627609, 0.13645777106285095, 0.11082930117845535], [0.034560561180114746, 0.049905143678188324, 0.044369716197252274, 0.04163185507059097, 0.03114248439669609, 0.022615576162934303, 0.03268153965473175, 0.021946778520941734, 0.07825043052434921, 0.031968288123607635, 0.07419087737798691, 0.05329824239015579, 0.04469180479645729, 0.08776092529296875, 0.05146052688360214, 0.024909118190407753, 0.03617195039987564, 0.099998340010643, 0.04583016037940979, 0.025494124740362167, 0.0671214908361435], [0.03772909566760063, 0.04078337550163269, 0.04495813697576523, 0.026514338329434395, 0.020393792539834976, 0.0168442502617836, 0.013961171731352806, 0.049831174314022064, 0.08956001698970795, 0.06033307686448097, 0.07016162574291229, 0.03697473183274269, 0.036181505769491196, 0.1227852925658226, 0.07080617547035217, 0.024043388664722443, 0.06150064244866371, 0.12822844088077545, 0.0009866866748780012, 0.03680188208818436, 0.01062105130404234], [0.015348926186561584, 0.018942497670650482, 0.03942939639091492, 0.031043458729982376, 0.02071663923561573, 0.010832992382347584, 0.00730466702952981, 0.13528567552566528, 0.047421541064977646, 0.04079583287239075, 0.04679939150810242, 0.074152871966362, 0.03857940435409546, 0.05232497304677963, 0.014724948443472385, 0.012014767155051231, 0.26573771238327026, 0.049444086849689484, 0.020922334864735603, 0.00819694995880127, 0.04998089745640755], [0.030895493924617767, 0.04543730244040489, 0.0466148778796196, 0.0723685696721077, 0.03760222718119621, 0.011760031804442406, 0.017017347738146782, 0.03433793783187866, 0.06707438826560974, 0.032922886312007904, 0.06238539144396782, 0.11985229700803757, 0.07342850416898727, 0.050582729279994965, 0.05259060114622116, 0.01758984476327896, 0.05057963356375694, 0.05190544202923775, 0.05598490312695503, 0.024095380678772926, 0.04497424513101578]], [[0.10072022676467896, 0.08682261407375336, 0.02630268782377243, 0.008163015358150005, 0.01375344954431057, 0.013707057572901249, 0.07512299716472626, 0.03293285146355629, 0.0860673040151596, 0.07718546688556671, 0.028371410444378853, 0.024668516591191292, 0.013230995275080204, 0.08325879275798798, 0.07211928814649582, 0.00952291488647461, 0.07682744413614273, 0.08486790210008621, 0.029973292723298073, 0.031694501638412476, 0.024687273427844048], [0.185841366648674, 0.07888158410787582, 0.0020416402257978916, 0.004196333698928356, 0.004925912246108055, 0.004812338389456272, 0.004349150694906712, 0.0032105452846735716, 0.04778093099594116, 0.012099247425794601, 0.034856073558330536, 0.0015501142479479313, 0.0078698405995965, 0.043525904417037964, 0.010926831513643265, 0.004969508852809668, 0.002789032645523548, 0.053873833268880844, 0.004837865475565195, 0.012986967340111732, 0.4736749827861786], [0.22987064719200134, 0.07362562417984009, 0.001950497506186366, 0.012243256904184818, 0.02364817075431347, 0.006762559060007334, 0.005055523011833429, 0.0151869747787714, 0.06564883142709732, 0.011181972920894623, 0.05694127827882767, 0.0026791004929691553, 0.030573667958378792, 0.04101938009262085, 0.0031944941729307175, 0.0065939282067120075, 0.006366866175085306, 0.04716601222753525, 0.00608924450352788, 0.016716888174414635, 0.33748501539230347], [0.10193121433258057, 0.11574584990739822, 0.005579221993684769, 0.010878633707761765, 0.017661137506365776, 0.010751540772616863, 0.002924110507592559, 0.005355785135179758, 0.15129819512367249, 0.01517618540674448, 0.13220608234405518, 0.006634402554482222, 0.031423646956682205, 0.12222982943058014, 0.0037848378997296095, 0.006856574676930904, 0.0032840613275766373, 0.13189482688903809, 0.005479156039655209, 0.012440299615263939, 0.1064644455909729], [0.043177854269742966, 0.12693257629871368, 0.006654676981270313, 0.012890481390058994, 0.032194823026657104, 0.02262130007147789, 0.003321992699056864, 0.012123494409024715, 0.17860238254070282, 0.012760150246322155, 0.12968353927135468, 0.010367314331233501, 0.056772440671920776, 0.13402676582336426, 0.002884024754166603, 0.00893346220254898, 0.00763748912140727, 0.15449471771717072, 0.002355296164751053, 0.008515898138284683, 0.033049412071704865], [0.09750207513570786, 0.1405261754989624, 0.006281807087361813, 0.009806019254028797, 0.02442901022732258, 0.016705717891454697, 0.00582469254732132, 0.025605274364352226, 0.1367684155702591, 0.013452601619064808, 0.09054534137248993, 0.007821287959814072, 0.04872385412454605, 0.09750215709209442, 0.005067471880465746, 0.008726086467504501, 0.01297601219266653, 0.11714036762714386, 0.004477268550544977, 0.020152907818555832, 0.10996557772159576], [0.0017092667985707521, 0.07343706488609314, 0.04202776029706001, 0.02410808391869068, 0.010688389651477337, 0.012526686303317547, 0.005052692722529173, 0.029005497694015503, 0.1502891629934311, 0.0399029441177845, 0.10373876988887787, 0.0888078436255455, 0.02266484871506691, 0.11753580719232559, 0.006228868383914232, 0.04135869815945625, 0.04485810920596123, 0.13237619400024414, 0.0029913675971329212, 0.0492764487862587, 0.0014154523378238082], [0.22077764570713043, 0.09642861038446426, 0.0027066459879279137, 0.0063915494829416275, 0.012444252148270607, 0.012476461939513683, 0.005885593127459288, 0.018537847325205803, 0.09029149264097214, 0.02160990796983242, 0.058462198823690414, 0.002740907948464155, 0.03791794553399086, 0.07036592811346054, 0.008250506594777107, 0.011229235678911209, 0.01618172414600849, 0.10948117077350616, 0.006747445557266474, 0.04061179980635643, 0.1504611372947693], [0.04934440180659294, 0.09061912447214127, 0.00627895537763834, 0.01114097610116005, 0.00853328499943018, 0.01674284227192402, 0.008040893822908401, 0.009641794487833977, 0.16696001589298248, 0.03395626321434975, 0.07938285171985626, 0.0054320078343153, 0.014405496418476105, 0.15718398988246918, 0.01950439065694809, 0.018651103600859642, 0.012912098318338394, 0.2377851903438568, 0.010114866308867931, 0.022092118859291077, 0.021277394145727158], [0.016223803162574768, 0.0683535784482956, 0.021503103896975517, 0.04059378430247307, 0.019659550860524178, 0.01711447164416313, 0.005705703515559435, 0.016280440613627434, 0.15840330719947815, 0.045363374054431915, 0.1192963570356369, 0.02880738116800785, 0.023001480847597122, 0.12461728602647781, 0.014065882191061974, 0.03250902146100998, 0.018672503530979156, 0.1694551706314087, 0.009987769648432732, 0.03963584080338478, 0.010750244371592999], [0.07105554640293121, 0.09477011859416962, 0.0033066123723983765, 0.00776226632297039, 0.010793234221637249, 0.024034813046455383, 0.004067813046276569, 0.0077505107037723064, 0.1663539558649063, 0.022270672023296356, 0.07947934418916702, 0.002518399152904749, 0.021448273211717606, 0.15096913278102875, 0.016749167814850807, 0.012916513718664646, 0.008206617087125778, 0.2514992356300354, 0.005280315410345793, 0.013773118145763874, 0.024994373321533203], [0.12109924107789993, 0.08512485772371292, 0.0011766878888010979, 0.01330273225903511, 0.024692757055163383, 0.02250790037214756, 0.0037032573018223047, 0.012403805740177631, 0.1573159545660019, 0.015330403111875057, 0.09340102225542068, 0.0011803946690633893, 0.04851289838552475, 0.1184544712305069, 0.006397007033228874, 0.013619440607726574, 0.007016791962087154, 0.18178829550743103, 0.006737444084137678, 0.015160142444074154, 0.05107451230287552], [0.03314024209976196, 0.06892368942499161, 0.0017488178564235568, 0.009391097351908684, 0.028627855703234673, 0.06006709486246109, 0.0015415840316563845, 0.007141720503568649, 0.15756338834762573, 0.008889223448932171, 0.09501797705888748, 0.002096066251397133, 0.07218657433986664, 0.15959081053733826, 0.005890188738703728, 0.014276846311986446, 0.006412209942936897, 0.2504938244819641, 0.001779148355126381, 0.005087448284029961, 0.010134239681065083], [0.01828118786215782, 0.07262519747018814, 0.0061975386925041676, 0.010073416866362095, 0.006563212722539902, 0.018615582957863808, 0.005417084787040949, 0.006181214936077595, 0.1806943416595459, 0.026284633204340935, 0.08215605467557907, 0.005037023685872555, 0.01159965991973877, 0.18272168934345245, 0.015098714269697666, 0.020819535478949547, 0.008329818956553936, 0.2941344380378723, 0.007826033048331738, 0.014327498152852058, 0.007016053423285484], [0.017267003655433655, 0.05926743894815445, 0.0049854968674480915, 0.017173366621136665, 0.006354841403663158, 0.014112930744886398, 0.0032132689375430346, 0.005531223025172949, 0.22984115779399872, 0.014134252443909645, 0.10887529700994492, 0.006654696073383093, 0.011378341354429722, 0.2011146992444992, 0.00462203286588192, 0.010591423138976097, 0.0028243146371096373, 0.26291725039482117, 0.002797006396576762, 0.010110894218087196, 0.006233051419258118], [0.03532051667571068, 0.05278339982032776, 0.00802563689649105, 0.015916360542178154, 0.007740981876850128, 0.029844744130969048, 0.0015625777887180448, 0.008861325681209564, 0.16810224950313568, 0.013060042634606361, 0.08290503174066544, 0.006445511244237423, 0.01696837693452835, 0.16465049982070923, 0.007080859038978815, 0.019413890317082405, 0.005713020917028189, 0.33102449774742126, 0.005721477326005697, 0.012317145243287086, 0.006541898474097252], [0.07135237008333206, 0.06371061503887177, 0.005718975327908993, 0.012394117191433907, 0.0137089928612113, 0.05123194307088852, 0.0032547819428145885, 0.006620971951633692, 0.13828282058238983, 0.020415082573890686, 0.07428484410047531, 0.0044858092442154884, 0.030131438747048378, 0.14627793431282043, 0.014584346674382687, 0.016762780025601387, 0.00599699979647994, 0.28655537962913513, 0.005004725884646177, 0.011335370130836964, 0.01788964495062828], [0.011803674511611462, 0.0687856376171112, 0.019779598340392113, 0.01579200103878975, 0.007272239774465561, 0.019219789654016495, 0.012098387815058231, 0.009966900572180748, 0.15051887929439545, 0.053349997848272324, 0.07277780026197433, 0.015556042082607746, 0.010786780156195164, 0.16243095695972443, 0.03312550485134125, 0.03375696390867233, 0.01846352033317089, 0.23652635514736176, 0.01786752976477146, 0.02474069781601429, 0.005380758084356785], [0.012184684164822102, 0.04335661605000496, 0.002465835539624095, 0.026479030027985573, 0.0077974833548069, 0.040577035397291183, 0.004419313743710518, 0.004261406138539314, 0.19387421011924744, 0.020064285025000572, 0.12688519060611725, 0.0038030033465474844, 0.019578242674469948, 0.1999952495098114, 0.005305576603859663, 0.021359188482165337, 0.0020230389200150967, 0.24365976452827454, 0.002505845855921507, 0.013802510686218739, 0.005602553952485323], [0.04777250438928604, 0.051252007484436035, 0.0006532343686558306, 0.0030237892642617226, 0.005956477019935846, 0.042597878724336624, 0.00187741219997406, 0.003910637926310301, 0.1746072918176651, 0.012902705930173397, 0.07935716211795807, 0.0006236393237486482, 0.019927332177758217, 0.1721942275762558, 0.009059973061084747, 0.012149909511208534, 0.003385655116289854, 0.33794164657592773, 0.0017404446844011545, 0.006037983577698469, 0.013028077781200409], [0.31428593397140503, 0.07523920387029648, 0.0006723366677761078, 0.0015315180644392967, 0.0047397976741194725, 0.007276562973856926, 0.011035388335585594, 0.009535611607134342, 0.06654977798461914, 0.007755529135465622, 0.03623100370168686, 0.0008527922327630222, 0.01893620565533638, 0.07356728613376617, 0.014621940441429615, 0.00423989724367857, 0.014790363609790802, 0.0858413353562355, 0.005110567435622215, 0.01606166362762451, 0.2311253398656845]], [[0.08814655989408493, 0.0609050989151001, 0.01477806642651558, 0.0055200629867613316, 0.03029068373143673, 0.03002038411796093, 0.12734384834766388, 0.009396350011229515, 0.06544756144285202, 0.03656309098005295, 0.0447610467672348, 0.016615604981780052, 0.03925321251153946, 0.06349693983793259, 0.061609961092472076, 0.015969345346093178, 0.011611082591116428, 0.07117094844579697, 0.07243156433105469, 0.018505802378058434, 0.1161627545952797], [0.1999429166316986, 0.030199700966477394, 0.030111555010080338, 0.028326231986284256, 0.020408228039741516, 0.03075234219431877, 0.030658697709441185, 0.027606336399912834, 0.0367104671895504, 0.06477490812540054, 0.0324343778192997, 0.03240298479795456, 0.029296191409230232, 0.03429913893342018, 0.03539072349667549, 0.022748412564396858, 0.03335318714380264, 0.039903152734041214, 0.10906952619552612, 0.026201579719781876, 0.10540937632322311], [0.029402850195765495, 0.019027801230549812, 0.09927491098642349, 0.007074642460793257, 0.011478115804493427, 0.008807169273495674, 0.011014417745172977, 0.0027890708297491074, 0.02881482243537903, 0.14517705142498016, 0.025914452970027924, 0.12892380356788635, 0.045491501688957214, 0.03569066524505615, 0.07316604256629944, 0.006136124487966299, 0.002061679260805249, 0.03833366930484772, 0.1282617300748825, 0.016272909939289093, 0.1368865668773651], [0.013918820768594742, 0.022443870082497597, 0.013789919205009937, 0.13429959118366241, 0.031733326613903046, 0.013124053366482258, 0.007831697352230549, 0.04285743087530136, 0.03188561275601387, 0.03899861499667168, 0.036993205547332764, 0.017204217612743378, 0.06861642003059387, 0.03055926039814949, 0.0419309064745903, 0.028098952025175095, 0.011513203382492065, 0.038340043276548386, 0.2493429183959961, 0.054530855268239975, 0.0719870775938034], [0.036133356392383575, 0.02246580272912979, 0.015520095825195312, 0.04995091259479523, 0.007803793530911207, 0.015969805419445038, 0.010395551100373268, 0.0463782474398613, 0.0273339431732893, 0.05167585611343384, 0.020335890352725983, 0.015475200489163399, 0.01915106736123562, 0.03077525645494461, 0.0542624294757843, 0.00901252031326294, 0.021975701674818993, 0.03251224011182785, 0.41464269161224365, 0.025179540738463402, 0.07305014133453369], [0.09892579168081284, 0.051109928637742996, 0.03740962967276573, 0.04807063564658165, 0.022439636290073395, 0.03739457577466965, 0.018529508262872696, 0.05162203684449196, 0.05295997112989426, 0.03581681847572327, 0.0526394248008728, 0.0333172082901001, 0.029622187837958336, 0.04341336339712143, 0.05541747063398361, 0.01916569471359253, 0.0443565770983696, 0.048968423157930374, 0.06951140612363815, 0.052779801189899445, 0.09652987122535706], [0.04564547911286354, 0.016847003251314163, 0.07286514341831207, 0.022359931841492653, 0.02010556124150753, 0.004218681249767542, 0.02697858214378357, 0.010822939686477184, 0.03230518475174904, 0.2524629831314087, 0.020978065207600594, 0.06262367963790894, 0.05200204625725746, 0.03985314443707466, 0.01819230429828167, 0.0033303825184702873, 0.011877119541168213, 0.038837455213069916, 0.11725113540887833, 0.017431898042559624, 0.11301133036613464], [0.03539348021149635, 0.02951381914317608, 0.00448551494628191, 0.1258223056793213, 0.030062876641750336, 0.02746899612247944, 0.008911356329917908, 0.22927524149417877, 0.026249347254633904, 0.0059541198424994946, 0.02623685821890831, 0.004195814020931721, 0.027881421148777008, 0.02532941848039627, 0.029027406126260757, 0.030398810282349586, 0.13964885473251343, 0.033950816839933395, 0.07840652763843536, 0.03514893352985382, 0.04663807526230812], [0.2174353301525116, 0.0536312498152256, 0.02196814864873886, 0.02971584163606167, 0.02212417870759964, 0.026530252769589424, 0.031797364354133606, 0.022259382531046867, 0.04720393568277359, 0.04896534979343414, 0.04356509447097778, 0.018111370503902435, 0.024469180032610893, 0.05082569271326065, 0.0543954074382782, 0.0147749874740839, 0.02329825796186924, 0.06903459131717682, 0.04663080722093582, 0.026214396581053734, 0.10704917460680008], [0.020173605531454086, 0.01218623761087656, 0.02263503335416317, 0.004579624626785517, 0.003399925772100687, 0.0036594655830413103, 0.024426866322755814, 0.0034188800491392612, 0.020049531012773514, 0.04243098571896553, 0.016312407329678535, 0.01576395146548748, 0.014528309926390648, 0.021990276873111725, 0.06743856519460678, 0.008733347058296204, 0.00335011282004416, 0.028288228437304497, 0.5704220533370972, 0.008435678668320179, 0.08777689188718796], [0.20163670182228088, 0.04844757914543152, 0.024338973686099052, 0.03585216775536537, 0.0229350458830595, 0.026854611933231354, 0.031376637518405914, 0.03670629486441612, 0.04327559843659401, 0.043213486671447754, 0.034155383706092834, 0.0156877338886261, 0.02595733478665352, 0.047617629170417786, 0.05531691014766693, 0.01434770505875349, 0.028146469965577126, 0.05448292940855026, 0.058757901191711426, 0.0303431898355484, 0.12054964900016785], [0.03808741644024849, 0.037405434995889664, 0.07203434407711029, 0.011126451194286346, 0.01262405700981617, 0.00945982988923788, 0.013551733456552029, 0.004665416665375233, 0.03537852317094803, 0.0860622450709343, 0.026339661329984665, 0.04810861870646477, 0.033130984753370285, 0.04208080470561981, 0.08170784264802933, 0.004623683635145426, 0.0022974140010774136, 0.04608304798603058, 0.1902758628129959, 0.025366025045514107, 0.17959056794643402], [0.03526010364294052, 0.01906629651784897, 0.021061770617961884, 0.029981393367052078, 0.006930666044354439, 0.009609200060367584, 0.00847125519067049, 0.01939532347023487, 0.01920897327363491, 0.051579225808382034, 0.01644766330718994, 0.013838844373822212, 0.011142222210764885, 0.018121549859642982, 0.04082953557372093, 0.005841855425387621, 0.008693155832588673, 0.019524136558175087, 0.5386855602264404, 0.0232858844101429, 0.08302538841962814], [0.22491729259490967, 0.048158008605241776, 0.02339996211230755, 0.024973340332508087, 0.018449531868100166, 0.02722565084695816, 0.026455622166395187, 0.02102482318878174, 0.05072954669594765, 0.06052784621715546, 0.0451604425907135, 0.018544120714068413, 0.019593294709920883, 0.04808636009693146, 0.05530383810400963, 0.016093067824840546, 0.018415376543998718, 0.06484095007181168, 0.043299976736307144, 0.027155818417668343, 0.11764516681432724], [0.08492128551006317, 0.03630857169628143, 0.03190188854932785, 0.03475797176361084, 0.025060340762138367, 0.026534708216786385, 0.023192724213004112, 0.03225848823785782, 0.06507320702075958, 0.04324501007795334, 0.057590048760175705, 0.02797822654247284, 0.026254255324602127, 0.053135283291339874, 0.1094672679901123, 0.026611538603901863, 0.03275694325566292, 0.09013634920120239, 0.03608452528715134, 0.035267122089862823, 0.10146426409482956], [0.03909042105078697, 0.03356532007455826, 0.01638048142194748, 0.16745366156101227, 0.03120994381606579, 0.027437405660748482, 0.014187777414917946, 0.1447763293981552, 0.03278866782784462, 0.014918242581188679, 0.027518078684806824, 0.009353071451187134, 0.03630680590867996, 0.03560228645801544, 0.0722024068236351, 0.06572247296571732, 0.08317290991544724, 0.04241333529353142, 0.025339389219880104, 0.03556327149271965, 0.044997744262218475], [0.0335426963865757, 0.02833990752696991, 0.004888052586466074, 0.10109712928533554, 0.01500625442713499, 0.012849276885390282, 0.007149490062147379, 0.21099287271499634, 0.022287605330348015, 0.005289061926305294, 0.02084672451019287, 0.0028501455672085285, 0.016018779948353767, 0.01998710259795189, 0.03229750320315361, 0.04610256105661392, 0.31750795245170593, 0.027980390936136246, 0.025732863694429398, 0.01861279271543026, 0.03062083013355732], [0.22127844393253326, 0.04646140709519386, 0.03316555917263031, 0.021768853068351746, 0.02157452143728733, 0.02784847654402256, 0.039085350930690765, 0.02965921349823475, 0.0471699982881546, 0.05875330790877342, 0.03898289054632187, 0.026341808959841728, 0.020251810550689697, 0.046207960695028305, 0.048031996935606, 0.02017000876367092, 0.02972448244690895, 0.054162293672561646, 0.034093938767910004, 0.025731615722179413, 0.1095360815525055], [0.09504318982362747, 0.0857977420091629, 0.0024584827478975058, 0.02411641925573349, 0.018897205591201782, 0.022868629544973373, 0.021406356245279312, 0.007906949147582054, 0.05680760368704796, 0.010697560384869576, 0.08408857136964798, 0.0021581873297691345, 0.026194622740149498, 0.0439591184258461, 0.0397418737411499, 0.011932933703064919, 0.008656317368149757, 0.04998409003019333, 0.2936610281467438, 0.02317012846469879, 0.07045292109251022], [0.06263396888971329, 0.061874277889728546, 0.011658258736133575, 0.07980012893676758, 0.04507036879658699, 0.028105124831199646, 0.010614736936986446, 0.03978003188967705, 0.051625508815050125, 0.020609375089406967, 0.04741419851779938, 0.012965092435479164, 0.05336395278573036, 0.04615135118365288, 0.03042501211166382, 0.018606459721922874, 0.02393089048564434, 0.05295509099960327, 0.14126068353652954, 0.09854213893413544, 0.0626133382320404], [0.07571485638618469, 0.09074462205171585, 0.013461608439683914, 0.03225063160061836, 0.0350971594452858, 0.025054341182112694, 0.034130584448575974, 0.038092099130153656, 0.06471659243106842, 0.030418433248996735, 0.05444243922829628, 0.013545254245400429, 0.03440231829881668, 0.05711378902196884, 0.019685223698616028, 0.019734378904104233, 0.05574566125869751, 0.07181526720523834, 0.08435041457414627, 0.05005441606044769, 0.09942992776632309]], [[0.069743812084198, 0.008134190924465656, 0.009417158551514149, 0.016488224267959595, 0.006481368560343981, 0.004199882037937641, 0.013399794697761536, 0.004216804634779692, 0.027733098715543747, 0.010898338630795479, 0.020447369664907455, 0.026033708825707436, 0.030457209795713425, 0.06443829089403152, 0.02106340229511261, 0.018209079280495644, 0.05784150958061218, 0.08706545829772949, 0.13833467662334442, 0.03227739408612251, 0.3331192433834076], [0.00298838852904737, 0.026260359212756157, 0.16279026865959167, 0.27978190779685974, 0.16235487163066864, 0.043663788586854935, 0.08116108179092407, 0.04334206506609917, 0.02387203276157379, 0.05469295009970665, 0.01623288169503212, 0.019854318350553513, 0.01562952622771263, 0.00843747891485691, 0.01032420713454485, 0.0018112333491444588, 0.005999990273267031, 0.005318680312484503, 0.0145719600841403, 0.00690435990691185, 0.014007745310664177], [0.005406934767961502, 0.01672735996544361, 0.04195091500878334, 0.2439187616109848, 0.15167953073978424, 0.06342456489801407, 0.0741429477930069, 0.09747052937746048, 0.06488600373268127, 0.06690439581871033, 0.03787710890173912, 0.01900879666209221, 0.008585519157350063, 0.024153772741556168, 0.011443976312875748, 0.0032449213322252035, 0.004374066833406687, 0.0082239443436265, 0.013120410963892937, 0.017466722056269646, 0.025988774374127388], [0.013698006048798561, 0.014446060173213482, 0.020132914185523987, 0.06958352029323578, 0.07767390459775925, 0.12489787489175797, 0.13922728598117828, 0.17220979928970337, 0.07424937188625336, 0.05413438379764557, 0.0279743280261755, 0.016861382871866226, 0.00619519641622901, 0.027865217998623848, 0.032346732914447784, 0.004734694492071867, 0.03293624892830849, 0.015213187783956528, 0.007276689633727074, 0.003866112558171153, 0.06447702646255493], [0.0019033955177292228, 0.0019144294783473015, 0.006046149414032698, 0.009037097916007042, 0.004613066557794809, 0.04342767968773842, 0.567777693271637, 0.15606644749641418, 0.02872605063021183, 0.12256897240877151, 0.010515634901821613, 0.013000818900763988, 0.0007081069052219391, 0.005538211669772863, 0.010061964392662048, 0.0006634854362346232, 0.0038867502007633448, 0.001482356688939035, 0.003117308020591736, 0.001452236669138074, 0.007492193020880222], [0.0019133096793666482, 0.0023279362358152866, 0.003912696614861488, 0.0029897745698690414, 0.004550589714199305, 0.00287009053863585, 0.7585669159889221, 0.047604840248823166, 0.03711684048175812, 0.07790277153253555, 0.010805299505591393, 0.014091278426349163, 0.006784358993172646, 0.008102944120764732, 0.008800108917057514, 0.0009329913300462067, 0.0023076424840837717, 0.0032147597521543503, 0.002433215035125613, 0.0005400061490945518, 0.0022316151298582554], [0.010842699557542801, 0.019312679767608643, 0.0036039375700056553, 0.003451113123446703, 0.002509994897991419, 0.0010332772508263588, 0.008814758621156216, 0.04957692697644234, 0.37556561827659607, 0.1870615929365158, 0.09938841313123703, 0.011759836226701736, 0.013742774724960327, 0.11846262216567993, 0.005926365498453379, 0.005340786185115576, 0.005868873093277216, 0.06529034674167633, 0.002056505298241973, 0.003913115710020065, 0.006477815099060535], [0.00507361488416791, 0.010784654878079891, 0.004898834973573685, 0.009456696920096874, 0.004507343750447035, 0.0018094222759827971, 0.022945230826735497, 0.02411949448287487, 0.23088347911834717, 0.15298862755298615, 0.22675564885139465, 0.0823400542140007, 0.04326517879962921, 0.07947919517755508, 0.014139736071228981, 0.0055820755660533905, 0.0071871234104037285, 0.04859286546707153, 0.00851963646709919, 0.004486312158405781, 0.012184797786176205], [0.010531477630138397, 0.01598459482192993, 0.007221637759357691, 0.013074731454253197, 0.010133998468518257, 0.0063176644034683704, 0.0141387227922678, 0.023874569684267044, 0.10333652049303055, 0.09443250298500061, 0.21958445012569427, 0.12081736326217651, 0.09025586396455765, 0.0867253988981247, 0.024867771193385124, 0.01498140674084425, 0.02780642919242382, 0.05810156464576721, 0.015539308078587055, 0.015794970095157623, 0.026479072868824005], [0.013091475702822208, 0.010002825409173965, 0.0018549629021435976, 0.004969076253473759, 0.0016228153835982084, 0.001871684449724853, 0.0027034608647227287, 0.005253160372376442, 0.06225410848855972, 0.02220047265291214, 0.23014870285987854, 0.11566640436649323, 0.10450206696987152, 0.22039926052093506, 0.028385663405060768, 0.007082436233758926, 0.022937586531043053, 0.09119144827127457, 0.016894713044166565, 0.01802733540534973, 0.018940355628728867], [0.008214483968913555, 0.008349456824362278, 0.0064368462190032005, 0.008145215921103954, 0.0064162155613303185, 0.0054872059263288975, 0.014892266131937504, 0.007133444771170616, 0.017436537891626358, 0.028231307864189148, 0.048413269221782684, 0.17384812235832214, 0.29192087054252625, 0.09925978630781174, 0.08780194818973541, 0.02102813497185707, 0.04838266968727112, 0.03118741698563099, 0.030269956216216087, 0.020065397024154663, 0.03707950562238693], [0.005942555610090494, 0.0035374993458390236, 0.0018856788519769907, 0.005648920312523842, 0.0008691813563928008, 0.0014641531743109226, 0.00733793992549181, 0.0036241544876247644, 0.014637062326073647, 0.011538403108716011, 0.025894947350025177, 0.08021596074104309, 0.11768466979265213, 0.19420276582241058, 0.19155174493789673, 0.040992092341184616, 0.06004764512181282, 0.0386216938495636, 0.060084592550992966, 0.07736194878816605, 0.056856345385313034], [0.002382432110607624, 0.0007826350047253072, 0.00248892093077302, 0.0017453498439863324, 0.00028353542438708246, 0.0007998616783879697, 0.01464495062828064, 0.001466093584895134, 0.0033893478102982044, 0.024844221770763397, 0.0032251630909740925, 0.02610764466226101, 0.011419943533837795, 0.02921406365931034, 0.36292916536331177, 0.02352755516767502, 0.076240174472332, 0.007454368751496077, 0.1731887310743332, 0.15092028677463531, 0.0829455554485321], [0.016998469829559326, 0.020650601014494896, 0.012745303101837635, 0.014898624271154404, 0.007129864301532507, 0.006226298864930868, 0.014461671933531761, 0.011940663680434227, 0.05295912176370621, 0.02439056523144245, 0.02716875821352005, 0.019832702353596687, 0.03133692964911461, 0.1124165877699852, 0.11282631009817123, 0.059948552399873734, 0.1409185826778412, 0.13465172052383423, 0.0585838221013546, 0.06230061501264572, 0.05761433765292168], [0.010665679350495338, 0.007589397020637989, 0.011122348718345165, 0.010938582941889763, 0.0023689046502113342, 0.0017045469721779227, 0.0059666745364665985, 0.0017410478321835399, 0.025844698771834373, 0.020265832543373108, 0.011020257137715816, 0.010153298266232014, 0.005684340838342905, 0.03808778151869774, 0.12064485996961594, 0.017573466524481773, 0.13020840287208557, 0.11072173714637756, 0.18056385219097137, 0.198362797498703, 0.07877139747142792], [0.018174637109041214, 0.0190072450786829, 0.014603202231228352, 0.009251742623746395, 0.005120638757944107, 0.002920685103163123, 0.009904678910970688, 0.001643569441512227, 0.03079267032444477, 0.014665916562080383, 0.014568527229130268, 0.010157044045627117, 0.008293087594211102, 0.057693175971508026, 0.07347827404737473, 0.020621556788682938, 0.06976617127656937, 0.20517325401306152, 0.173383429646492, 0.16280652582645416, 0.07797389477491379], [0.010588803328573704, 0.01821753941476345, 0.011664065532386303, 0.011314629577100277, 0.003768478287383914, 0.001480771810747683, 0.0027580822352319956, 0.0009407759644091129, 0.0365544855594635, 0.004273119382560253, 0.017570888623595238, 0.006466749124228954, 0.008706606924533844, 0.07022292166948318, 0.008826700039207935, 0.009347320534288883, 0.018655894324183464, 0.40411078929901123, 0.14425629377365112, 0.11520468443632126, 0.09507038444280624], [0.027121206745505333, 0.060055408626794815, 0.009298750199377537, 0.015255482867360115, 0.0058968085795640945, 0.005726840812712908, 0.005358381196856499, 0.006138155236840248, 0.09274673461914062, 0.004237049724906683, 0.03227483481168747, 0.0042716870084404945, 0.008428562432527542, 0.16507825255393982, 0.008006633259356022, 0.009944912046194077, 0.015169147402048111, 0.42616894841194153, 0.031084474176168442, 0.03648743778467178, 0.03125021979212761], [0.017370758578181267, 0.014962046407163143, 0.005152231082320213, 0.009455006569623947, 0.003190069692209363, 0.0038318473380059004, 0.014370662160217762, 0.0030180022586137056, 0.06829147040843964, 0.004330446943640709, 0.021625589579343796, 0.005547182634472847, 0.0036335806362330914, 0.1649918407201767, 0.054075371474027634, 0.007362208794802427, 0.012257088907063007, 0.17304109036922455, 0.10758090764284134, 0.12984375655651093, 0.1760687530040741], [0.010518208146095276, 0.010118497535586357, 0.001980084925889969, 0.004729895386844873, 0.0111202048137784, 0.004031833726912737, 0.017628220841288567, 0.002755553927272558, 0.07903039455413818, 0.00529167614877224, 0.017273198813199997, 0.0031065165530890226, 0.011193943209946156, 0.19245703518390656, 0.02449471689760685, 0.008312888443470001, 0.010779077187180519, 0.25644350051879883, 0.10735690593719482, 0.041303105652332306, 0.1800745278596878], [0.009886316955089569, 0.06540748476982117, 0.0214428398758173, 0.06189749389886856, 0.02263023890554905, 0.014734472148120403, 0.040888525545597076, 0.019216110929846764, 0.11016621440649033, 0.03966445475816727, 0.024343034252524376, 0.010907061398029327, 0.023207487538456917, 0.14859850704669952, 0.04207463935017586, 0.010361408814787865, 0.02804536744952202, 0.1764719933271408, 0.06644121557474136, 0.02595490776002407, 0.03766026720404625]], [[0.03299587965011597, 0.021078765392303467, 0.008261440321803093, 0.02207290381193161, 0.010107854381203651, 0.010112800635397434, 0.009043539874255657, 0.004846001043915749, 0.07598000764846802, 0.013412294909358025, 0.08519785851240158, 0.0126314302906394, 0.015647897496819496, 0.08013808727264404, 0.009027792140841484, 0.023451274260878563, 0.010044456459581852, 0.24772755801677704, 0.07711529731750488, 0.05987467244267464, 0.1712321937084198], [0.08507746458053589, 0.1794952005147934, 0.030460698530077934, 0.027655815705657005, 0.016747133806347847, 0.016410110518336296, 0.07816237211227417, 0.009606481529772282, 0.06792084127664566, 0.005733644589781761, 0.045134253799915314, 0.012571888975799084, 0.018619781360030174, 0.10522427409887314, 0.01953824982047081, 0.028463495895266533, 0.021244926378130913, 0.20599843561649323, 0.01284260768443346, 0.0028818959835916758, 0.010210405103862286], [0.018378600478172302, 0.7152222394943237, 0.07219603657722473, 0.039336126297712326, 0.006211419589817524, 0.01377763319760561, 0.018439583480358124, 0.008640483021736145, 0.010155638679862022, 0.0035704371985048056, 0.007077685557305813, 0.000425645150244236, 0.0021079203579574823, 0.007840973325073719, 0.012304711155593395, 0.004145047161728144, 0.011976701207458973, 0.019197626039385796, 0.018257074058055878, 0.004771641455590725, 0.005966679658740759], [0.02319660596549511, 0.4145546853542328, 0.39528027176856995, 0.0413968600332737, 0.019142882898449898, 0.0013649639440700412, 0.002478179056197405, 0.0012675219913944602, 0.013807606883347034, 0.0007638160022906959, 0.004157991148531437, 0.0005446170689538121, 0.0012711378512904048, 0.01216992549598217, 0.0008686613291501999, 0.0010578283108770847, 0.0010497799376025796, 0.05316881462931633, 0.00580656249076128, 0.0032058567740023136, 0.0034453654661774635], [0.0014572017826139927, 0.11415620148181915, 0.2391965538263321, 0.58643639087677, 0.015549222938716412, 0.005065739620476961, 0.00040553792496211827, 0.0002993725938722491, 0.0036303282249718904, 0.0014007700374349952, 0.0032749101519584656, 0.0003038112190552056, 7.046691462164745e-05, 0.0022254283539950848, 0.0005240608588792384, 0.0006236292538233101, 0.0002806612756103277, 0.004956166259944439, 0.007922619581222534, 0.0057002948597073555, 0.006520566064864397], [0.0004183895653113723, 0.015604322776198387, 0.011103552766144276, 0.4315766990184784, 0.5182828307151794, 0.00682759378105402, 0.0013465257361531258, 0.00011866303975693882, 0.002138923155143857, 0.0001660275593167171, 0.0027584300842136145, 0.00013786146882921457, 0.0001381183392368257, 0.00226764683611691, 0.00020925035641994327, 8.943907596403733e-05, 3.711467797984369e-05, 0.0052980645559728146, 0.00016117100312840194, 0.00013065601524431258, 0.0011887558503076434], [0.01909949816763401, 0.07071857899427414, 0.01512831449508667, 0.0877675861120224, 0.23360447585582733, 0.3838632106781006, 0.020789053291082382, 0.010653665289282799, 0.037795934826135635, 0.005097575485706329, 0.015339273028075695, 0.0010971612064167857, 0.0005451652687042952, 0.051428601145744324, 0.00714315427467227, 0.0002061225677607581, 0.00035605396260507405, 0.03642504662275314, 0.0010121890809386969, 0.000220833026105538, 0.0017086181323975325], [0.0011353050358593464, 0.020723648369312286, 0.006483924109488726, 0.012816575355827808, 0.11312326788902283, 0.1225970983505249, 0.6218710541725159, 0.020630158483982086, 0.04094192385673523, 0.0035553236957639456, 0.005266872234642506, 0.0004973381292074919, 0.0010236100060865283, 0.01968243531882763, 0.000560174637939781, 9.733725892147049e-05, 4.438347968971357e-05, 0.005425664130598307, 0.0003719718079082668, 0.0001264643797185272, 0.00302539742551744], [0.006084664724767208, 0.02014339156448841, 0.009374596178531647, 0.015545738860964775, 0.021485647186636925, 0.06629519164562225, 0.5672353506088257, 0.1289723962545395, 0.09308522939682007, 0.010090460069477558, 0.007314616814255714, 0.0014987197937443852, 0.0045899925753474236, 0.022900961339473724, 0.005385804455727339, 0.0015503757167607546, 0.000821937108412385, 0.006338679231703281, 0.0020008189603686333, 0.000544724811334163, 0.008740806020796299], [0.0013372866669669747, 0.003161190077662468, 0.005070893093943596, 0.001640148344449699, 0.0030329744331538677, 0.008771022781729698, 0.5032117962837219, 0.3096371591091156, 0.12279576808214188, 0.029170125722885132, 0.0032831307034939528, 0.0005329187260940671, 0.0005875254864804447, 0.0027466986794024706, 0.0025000274181365967, 0.0004494998720474541, 0.00034242653055116534, 0.0006299749366007745, 0.0003277766809333116, 8.639059524284676e-05, 0.0006851934012956917], [0.003737262450158596, 0.010485897772014141, 0.0033761905506253242, 0.00557872885838151, 0.0039266422390937805, 0.004847373813390732, 0.057453420013189316, 0.09422925859689713, 0.42036789655685425, 0.214517280459404, 0.13887906074523926, 0.010734356939792633, 0.002970748580992222, 0.009339428506791592, 0.0016150579322129488, 0.0017596252728253603, 0.001402991940267384, 0.008983474224805832, 0.00048248207895085216, 0.00018792098853737116, 0.005124849267303944], [0.00023187440820038319, 0.0029153130017220974, 0.0003867322229780257, 0.000961651501711458, 0.0008092038915492594, 0.006053332705050707, 0.007828217931091785, 0.02437366358935833, 0.04940374195575714, 0.46058884263038635, 0.417259156703949, 0.018436308950185776, 0.0040388391353189945, 0.001341743627563119, 0.0013977296184748411, 0.00047563452972099185, 0.0003742930421140045, 0.0005043104174546897, 0.0005477611557580531, 0.00016882152704056352, 0.0019027777016162872], [0.000749116821680218, 0.003535079536959529, 0.0003534686693456024, 0.001078224740922451, 4.384302883408964e-05, 0.0014883815310895443, 0.0026590165216475725, 0.002238469198346138, 0.025463899597525597, 0.07478123903274536, 0.5440453886985779, 0.29930630326271057, 0.011121039278805256, 0.020694537088274956, 0.001558523392304778, 0.001598987029865384, 0.0004313009849283844, 0.004880920518189669, 0.0010911416029557586, 0.0002378394128754735, 0.00264331535436213], [0.010935695841908455, 0.014151966199278831, 0.004140186123549938, 0.007040820084512234, 0.003312688786536455, 0.011942598968744278, 0.019925689324736595, 0.008544902317225933, 0.034082282334566116, 0.016206083819270134, 0.17462439835071564, 0.1873883157968521, 0.2471829205751419, 0.17085900902748108, 0.015693917870521545, 0.006737211253494024, 0.0035574145149439573, 0.0243893563747406, 0.010623522102832794, 0.004927427973598242, 0.023733563721179962], [0.001621593488380313, 0.0019493568688631058, 0.003674236126244068, 0.0019314071396365762, 0.001373590319417417, 0.004460609517991543, 0.012267212383449078, 0.006865234114229679, 0.01000024750828743, 0.014393686316907406, 0.02508481591939926, 0.15746286511421204, 0.4663722515106201, 0.1765202432870865, 0.08191057294607162, 0.01685742661356926, 0.0022193691693246365, 0.0023254973348230124, 0.0033554055262356997, 0.0016116577899083495, 0.00774266617372632], [0.001123136724345386, 0.0014689811505377293, 0.000457005575299263, 0.0005680853500962257, 0.002234720392152667, 0.0004908759729005396, 0.0005760567728430033, 0.0030213268473744392, 0.014998214319348335, 0.004647879861295223, 0.02289516106247902, 0.027690162882208824, 0.47380736470222473, 0.3609956204891205, 0.055652063339948654, 0.005712398327887058, 0.003710142569616437, 0.008967315778136253, 0.0004247651086188853, 0.0010926518589258194, 0.00946605484932661], [0.0009548951056785882, 0.002800432499498129, 0.0002277301246067509, 0.00033216277370229363, 0.002897365717217326, 0.0006756815710105002, 0.0019871501717716455, 0.0008017139625735581, 0.01202458143234253, 0.006443037651479244, 0.01807740516960621, 0.01265332754701376, 0.24936619400978088, 0.3148573637008667, 0.31502917408943176, 0.02566705457866192, 0.005513222422450781, 0.015033192001283169, 0.0018559452146291733, 0.0010178409283980727, 0.011784512549638748], [0.029086850583553314, 0.021079204976558685, 0.002063908614218235, 0.004167668055742979, 0.0014823884703218937, 0.005991657730191946, 0.011824127286672592, 0.005468752235174179, 0.04969728738069534, 0.00863636378198862, 0.05605350434780121, 0.018581202253699303, 0.030316725373268127, 0.17964302003383636, 0.10086019337177277, 0.10735677182674408, 0.1091814637184143, 0.18364199995994568, 0.023225119337439537, 0.009288042783737183, 0.042353708297014236], [0.005245751701295376, 0.01374912355095148, 0.012180255725979805, 0.000690172309987247, 0.00015788929886184633, 0.0002771011786535382, 0.004348800051957369, 0.0011569139314815402, 0.0039663719944655895, 0.004028786905109882, 0.003923447802662849, 0.014876140281558037, 0.019501645117998123, 0.021029841154813766, 0.07535947859287262, 0.07194152474403381, 0.5182738900184631, 0.10339163988828659, 0.06961953639984131, 0.018845710903406143, 0.03743584826588631], [0.0030702161602675915, 0.009056207723915577, 0.004895152524113655, 0.0008101966232061386, 0.00022786902263760567, 0.000180352246388793, 0.0009260764927603304, 0.0020268133375793695, 0.006351741962134838, 0.0018240223871544003, 0.005547225009649992, 0.01318775862455368, 0.15444636344909668, 0.035275381058454514, 0.029629137367010117, 0.015546387992799282, 0.37852177023887634, 0.14414942264556885, 0.04980092868208885, 0.016537992283701897, 0.12798894941806793], [0.03358369693160057, 0.05065952241420746, 0.013767373748123646, 0.013213644735515118, 0.0024175227154046297, 0.0010206586448475718, 0.003217855002731085, 0.001163979759439826, 0.030073847621679306, 0.0030082121957093477, 0.026132337749004364, 0.003920334856957197, 0.009536037221550941, 0.0799315944314003, 0.0196430254727602, 0.0217357836663723, 0.02016792818903923, 0.3254625201225281, 0.15863122045993805, 0.10991782695055008, 0.07279510051012039]], [[0.0038461082149297, 0.026005277410149574, 0.04181242734193802, 0.042825985699892044, 0.006661716848611832, 0.0029004232492297888, 0.042901355773210526, 0.023407652974128723, 0.04723592475056648, 0.40973329544067383, 0.03960786759853363, 0.04453353211283684, 0.005078630521893501, 0.054562557488679886, 0.013278010301291943, 0.003956388682126999, 0.011956104077398777, 0.06949672102928162, 0.03738798946142197, 0.01491368468850851, 0.057898253202438354], [0.19612623751163483, 0.035574059933423996, 0.005597653333097696, 0.015516625717282295, 0.003918622154742479, 0.009980048052966595, 0.010170667432248592, 0.0096967201679945, 0.04413170740008354, 0.014591382816433907, 0.0466005839407444, 0.004974975250661373, 0.004884383641183376, 0.042029935866594315, 0.009975050576031208, 0.009876498021185398, 0.006897205486893654, 0.0730203166604042, 0.013236473314464092, 0.018510032445192337, 0.42469078302383423], [0.0407898910343647, 0.07395324856042862, 0.00034988950937986374, 0.0015997798182070255, 0.0005821557133458555, 0.007777772378176451, 0.0006590069970116019, 0.007879145443439484, 0.21360281109809875, 0.004066525027155876, 0.15088880062103271, 0.00044110443559475243, 0.0017199032008647919, 0.18832924962043762, 0.00287065957672894, 0.0037267219740897417, 0.006089295260608196, 0.2442704290151596, 0.0009197755134664476, 0.009735146537423134, 0.03974870592355728], [0.05480587109923363, 0.11791174113750458, 0.0013316778931766748, 0.012561562471091747, 0.0015400111442431808, 0.03488082066178322, 0.006632304284721613, 0.01899908110499382, 0.17006540298461914, 0.008489676751196384, 0.12307406961917877, 0.0011927974410355091, 0.0029038735665380955, 0.17876185476779938, 0.0043189628049731255, 0.0032425234094262123, 0.005688529461622238, 0.214578777551651, 0.00166152766905725, 0.014676352962851524, 0.022682663053274155], [0.030053183436393738, 0.09294931590557098, 0.0037427935749292374, 0.012428628280758858, 0.0013476517051458359, 0.014711083844304085, 0.0015486994525417686, 0.007252200972288847, 0.21049511432647705, 0.007354435510933399, 0.1561867594718933, 0.0038390785921365023, 0.00225052353926003, 0.1846037358045578, 0.008561843074858189, 0.006289190147072077, 0.004688376095145941, 0.22263363003730774, 0.0017743748612701893, 0.016033006832003593, 0.011256476864218712], [0.02411072328686714, 0.09755056351423264, 0.002624127082526684, 0.01245094370096922, 0.003344553057104349, 0.040319327265024185, 0.004644390661269426, 0.003940436989068985, 0.17440517246723175, 0.018884584307670593, 0.15092596411705017, 0.0018309151055291295, 0.005879675038158894, 0.21292610466480255, 0.007271552924066782, 0.0015768331941217184, 0.0010227628517895937, 0.2070353478193283, 0.0033389439340680838, 0.013039113022387028, 0.012877884320914745], [0.005107512231916189, 0.10164390504360199, 0.0045591057278215885, 0.004400926176458597, 0.0038754057604819536, 0.07753945887088776, 0.006416634190827608, 0.014286995865404606, 0.21875204145908356, 0.012679158709943295, 0.11930370330810547, 0.00409722002223134, 0.0077826096676290035, 0.21024231612682343, 0.004485197830945253, 0.004687023349106312, 0.010587048716843128, 0.1699926108121872, 0.0018291173037141562, 0.01609395071864128, 0.0016378770815208554], [0.02216878905892372, 0.1176929622888565, 0.0004908404662273824, 0.008461454883217812, 0.0008400590741075575, 0.01656663417816162, 0.002731689950451255, 0.20016305148601532, 0.13587644696235657, 0.004653652664273977, 0.11257915198802948, 0.0003909852239303291, 0.0017332846764475107, 0.1246633380651474, 0.0017351236892864108, 0.002480579074472189, 0.03208038955926895, 0.18887600302696228, 0.0005802460946142673, 0.015141605399549007, 0.01009366661310196], [0.045584291219711304, 0.062020089477300644, 0.005572198424488306, 0.013979661278426647, 0.0030287900008261204, 0.024476082995533943, 0.015135640278458595, 0.023578215390443802, 0.15533395111560822, 0.019249001517891884, 0.10012103617191315, 0.005467742681503296, 0.005398903042078018, 0.17855075001716614, 0.00859149731695652, 0.007313029374927282, 0.01110243983566761, 0.27035412192344666, 0.004820394329726696, 0.026525385677814484, 0.013796842657029629], [0.008076086640357971, 0.09802761673927307, 0.0018901985604315996, 0.008565729483962059, 0.0022589953150600195, 0.014956530183553696, 0.0075109838508069515, 0.005102801136672497, 0.19660982489585876, 0.02094249241054058, 0.1387946605682373, 0.0021571917459368706, 0.006061079911887646, 0.22474467754364014, 0.009227980859577656, 0.0024573567789047956, 0.002077479148283601, 0.22718709707260132, 0.0016131000593304634, 0.016367418691515923, 0.0053708371706306934], [0.06457775086164474, 0.07017138600349426, 0.003883623518049717, 0.00965144857764244, 0.0024421412963420153, 0.027206901460886, 0.006742879748344421, 0.01898648776113987, 0.1670185625553131, 0.011100120842456818, 0.11669016629457474, 0.003912161570042372, 0.005032585933804512, 0.16972284018993378, 0.005736819468438625, 0.006780881434679031, 0.0102331368252635, 0.24396006762981415, 0.003675400046631694, 0.0286862850189209, 0.023788422346115112], [0.0298153106123209, 0.06243308261036873, 0.00019655353389680386, 0.0011221520835533738, 0.0002069890615530312, 0.005650984589010477, 0.00036935030948370695, 0.0048637911677360535, 0.23737584054470062, 0.0018736891215667129, 0.1537940949201584, 0.0003098254674114287, 0.0008400427759625018, 0.203590527176857, 0.0011678828159347177, 0.001684942515566945, 0.003104252740740776, 0.27009135484695435, 0.0002948894980363548, 0.007245942950248718, 0.01396846491843462], [0.021893145516514778, 0.07163936644792557, 0.0031377309933304787, 0.010400126688182354, 0.0010062940418720245, 0.011457234621047974, 0.0010039177723228931, 0.0065951575525105, 0.22984303534030914, 0.004299691878259182, 0.15581916272640228, 0.0038988611195236444, 0.001997958403080702, 0.20945577323436737, 0.007421242073178291, 0.005977426655590534, 0.0047896504402160645, 0.2292906790971756, 0.0009979536989703774, 0.01253183837980032, 0.006543682422488928], [0.034376997500658035, 0.05907052382826805, 0.005675239022821188, 0.01151595264673233, 0.0022864823695272207, 0.022124871611595154, 0.012759859673678875, 0.01602352410554886, 0.1627776175737381, 0.015905888751149178, 0.10169877856969833, 0.005901831202208996, 0.004475530236959457, 0.18717798590660095, 0.008085222914814949, 0.006333478726446629, 0.008487042039632797, 0.2958727777004242, 0.003451864467933774, 0.024317298084497452, 0.011681205593049526], [0.007533974014222622, 0.08366810530424118, 0.002795094856992364, 0.008427750319242477, 0.006720507517457008, 0.02365337871015072, 0.015540871769189835, 0.02913227118551731, 0.17872518301010132, 0.020294824615120888, 0.11713845282793045, 0.0028200745582580566, 0.019571619108319283, 0.21401867270469666, 0.02216842956840992, 0.0045890784822404385, 0.009053124114871025, 0.181589737534523, 0.0030412760097533464, 0.03697870299220085, 0.012538937851786613], [0.022875899448990822, 0.10151991248130798, 0.002678296063095331, 0.005326635669916868, 0.002105340361595154, 0.041362348943948746, 0.0025061455089598894, 0.007101456634700298, 0.20588232576847076, 0.006788432132452726, 0.15816263854503632, 0.002543192356824875, 0.003955136053264141, 0.18576580286026, 0.007658245973289013, 0.004055290948599577, 0.005404788535088301, 0.205791637301445, 0.0010779527947306633, 0.01831759512424469, 0.009120885282754898], [0.021727263927459717, 0.07003060728311539, 0.0005126871401444077, 0.005668046418577433, 0.0005668238154612482, 0.006588883697986603, 0.002943312982097268, 0.4189319908618927, 0.07830405235290527, 0.004239765461534262, 0.06831859797239304, 0.0006315680220723152, 0.0011508835013955832, 0.06042435020208359, 0.0024466223549097776, 0.0033920500427484512, 0.13523438572883606, 0.08810105174779892, 0.0006138770841062069, 0.017815550789237022, 0.012357598170638084], [0.0295706894248724, 0.06483834981918335, 0.005769002716988325, 0.012955463491380215, 0.0025490368716418743, 0.029505936428904533, 0.02527136169373989, 0.027519289404153824, 0.14700987935066223, 0.02277289144694805, 0.08624302595853806, 0.005669448059052229, 0.0052114431746304035, 0.1767815351486206, 0.005800091195851564, 0.00614696042612195, 0.013218024745583534, 0.29359135031700134, 0.004323374945670366, 0.02823401242494583, 0.007018845062702894], [0.03859046846628189, 0.10778443515300751, 0.006025335751473904, 0.008556828834116459, 0.003869719337671995, 0.016181297600269318, 0.007869265042245388, 0.026396311819553375, 0.14786404371261597, 0.017404109239578247, 0.13633795082569122, 0.006088509690016508, 0.010478125885128975, 0.1309879720211029, 0.009076554328203201, 0.00896103773266077, 0.015902204439044, 0.1633148491382599, 0.004347789566963911, 0.03404836729168892, 0.0999148041009903], [0.016807550564408302, 0.06883395463228226, 0.008718003518879414, 0.013723209500312805, 0.005546568427234888, 0.030024541541934013, 0.006237160414457321, 0.010931232944130898, 0.18753942847251892, 0.013467365875840187, 0.1379128247499466, 0.008112078532576561, 0.00860135443508625, 0.20920337736606598, 0.012285223230719566, 0.0077719311229884624, 0.007848022505640984, 0.21210698783397675, 0.00377467623911798, 0.020146045833826065, 0.01040840893983841], [0.05554880574345589, 0.04308963194489479, 0.04162633791565895, 0.047891244292259216, 0.012501968070864677, 0.009352515451610088, 0.02476491965353489, 0.08025860041379929, 0.08653675019741058, 0.04529959335923195, 0.0642198696732521, 0.03027140349149704, 0.012973083183169365, 0.10962734371423721, 0.0036048362962901592, 0.025875471532344818, 0.042663075029850006, 0.09657813608646393, 0.06022397801280022, 0.01760926842689514, 0.08948316425085068]], [[0.005087888799607754, 0.02076099067926407, 0.01848098821938038, 0.04922671616077423, 0.02940461039543152, 0.015753136947751045, 0.07727399468421936, 0.026303034275770187, 0.026138531044125557, 0.31269708275794983, 0.029728876426815987, 0.03513108193874359, 0.05238613486289978, 0.01794062927365303, 0.037759244441986084, 0.015942037105560303, 0.014842557720839977, 0.01407726388424635, 0.09661939740180969, 0.02122998610138893, 0.08321593701839447], [0.0163996834307909, 0.03413587436079979, 0.023869000375270844, 0.047161273658275604, 0.0533718578517437, 0.016780462116003036, 0.05651814118027687, 0.05532292649149895, 0.053660228848457336, 0.09489642083644867, 0.056712910532951355, 0.047073278576135635, 0.08612433820962906, 0.03665833920240402, 0.027930114418268204, 0.008779741823673248, 0.04562827944755554, 0.031944192945957184, 0.06547237187623978, 0.020650556311011314, 0.12091001123189926], [0.03530137613415718, 0.07093975692987442, 0.02799653261899948, 0.10307791829109192, 0.032316822558641434, 0.03560498729348183, 0.05708695948123932, 0.011743291281163692, 0.08430133759975433, 0.02156849205493927, 0.08387968689203262, 0.08917397260665894, 0.08862357586622238, 0.06370160728693008, 0.0068089645355939865, 0.004060608800500631, 0.0065298923291265965, 0.0735178217291832, 0.0044768513180315495, 0.005760143045336008, 0.09352932125329971], [0.013500341214239597, 0.05270162224769592, 0.017921652644872665, 0.06169171258807182, 0.062712661921978, 0.049649015069007874, 0.018026558682322502, 0.033593107014894485, 0.0765642300248146, 0.024310875684022903, 0.0720442458987236, 0.027898676693439484, 0.08012714982032776, 0.08021591603755951, 0.05848442763090134, 0.012072916142642498, 0.055956415832042694, 0.07083098590373993, 0.023966016247868538, 0.02784622646868229, 0.07988519966602325], [0.018371015787124634, 0.05010512098670006, 0.051285624504089355, 0.03793581575155258, 0.014740988612174988, 0.025467239320278168, 0.011575267650187016, 0.08596981316804886, 0.0811147466301918, 0.04084549471735954, 0.07561612129211426, 0.0874844565987587, 0.024271033704280853, 0.06265964359045029, 0.015957850962877274, 0.014686859212815762, 0.05406421422958374, 0.06982078403234482, 0.020282482728362083, 0.013661598786711693, 0.1440838873386383], [0.011842206120491028, 0.03061848320066929, 0.04865679889917374, 0.0850033387541771, 0.028937650844454765, 0.0772203654050827, 0.01707056537270546, 0.08623809367418289, 0.037755079567432404, 0.07693686336278915, 0.04125066101551056, 0.08409057557582855, 0.03477117419242859, 0.03402772918343544, 0.02137095108628273, 0.022811606526374817, 0.062453288584947586, 0.030563246458768845, 0.08319788426160812, 0.018033353611826897, 0.06714996695518494], [0.06140684708952904, 0.07426469027996063, 0.059528596699237823, 0.019092103466391563, 0.021073102951049805, 0.005849761422723532, 0.05557753145694733, 0.014689655974507332, 0.08076343685388565, 0.11473725736141205, 0.06571843475103378, 0.03926559537649155, 0.01598920114338398, 0.06381797790527344, 0.02708812616765499, 0.009835285134613514, 0.008720564655959606, 0.08502712845802307, 0.0251974668353796, 0.05575846880674362, 0.09659869223833084], [0.013633793219923973, 0.03739513084292412, 0.018646350130438805, 0.052940528839826584, 0.05104253068566322, 0.05956915393471718, 0.03199338912963867, 0.12768596410751343, 0.0440526157617569, 0.010814306326210499, 0.047004371881484985, 0.019933877512812614, 0.042298831045627594, 0.050727345049381256, 0.030774345621466637, 0.020379096269607544, 0.18538619577884674, 0.03416486456990242, 0.007026762701570988, 0.01656801626086235, 0.09796258807182312], [0.0342692993581295, 0.04394453763961792, 0.025350378826260567, 0.04319688305258751, 0.040918655693531036, 0.022060325369238853, 0.04188019782304764, 0.034945473074913025, 0.06078802049160004, 0.08019349724054337, 0.06260892748832703, 0.03431635722517967, 0.07019848376512527, 0.055955950170755386, 0.06466846168041229, 0.012613460421562195, 0.039979055523872375, 0.05178368091583252, 0.04465650022029877, 0.030586805194616318, 0.10508516430854797], [0.03183020278811455, 0.04342466965317726, 0.02151617594063282, 0.016409235075116158, 0.01093979924917221, 0.019430674612522125, 0.3072849214076996, 0.004849607590585947, 0.046617135405540466, 0.08041369169950485, 0.036429502069950104, 0.01787477917969227, 0.03406042233109474, 0.07023642957210541, 0.019051257520914078, 0.012346548028290272, 0.004196137189865112, 0.08490167558193207, 0.011788261123001575, 0.016209494322538376, 0.11018934845924377], [0.03687313571572304, 0.04452323541045189, 0.019556276500225067, 0.048632167279720306, 0.043533071875572205, 0.021726662293076515, 0.03547351434826851, 0.04003768414258957, 0.06266605854034424, 0.06870441883802414, 0.059295445680618286, 0.02505718544125557, 0.07503733038902283, 0.05389941856265068, 0.06292302906513214, 0.01354025024920702, 0.05231836810708046, 0.046779125928878784, 0.04635107144713402, 0.03870349004864693, 0.1043691411614418], [0.0702783390879631, 0.09046991169452667, 0.034075044095516205, 0.06555909663438797, 0.026552274823188782, 0.03825761750340462, 0.02997523732483387, 0.013670708052814007, 0.09678985923528671, 0.015012740157544613, 0.07558692991733551, 0.062017180025577545, 0.061599407345056534, 0.08166327327489853, 0.015138866379857063, 0.003971319645643234, 0.009296534582972527, 0.09752257168292999, 0.004603056702762842, 0.00901233870536089, 0.09894765168428421], [0.02893831394612789, 0.04753120243549347, 0.07107540220022202, 0.04089188948273659, 0.02472686395049095, 0.023498445749282837, 0.014007116667926311, 0.03517036885023117, 0.0721888542175293, 0.03936164826154709, 0.0680806115269661, 0.10441438853740692, 0.06386365741491318, 0.062401965260505676, 0.016032230108976364, 0.00719844875857234, 0.03959633409976959, 0.06839315593242645, 0.015487616881728172, 0.01880091242492199, 0.13834063708782196], [0.03659222275018692, 0.03994357958436012, 0.02694273181259632, 0.0490000881254673, 0.02968081459403038, 0.016045112162828445, 0.03281589597463608, 0.042356058955192566, 0.06164513900876045, 0.11627024412155151, 0.06308412551879883, 0.03580940142273903, 0.050867173820734024, 0.052687134593725204, 0.058797381818294525, 0.012393740005791187, 0.03356514498591423, 0.055586520582437515, 0.05138470605015755, 0.03635517135262489, 0.09817761927843094], [0.01153492834419012, 0.044422540813684464, 0.05152570828795433, 0.12179894745349884, 0.06343428045511246, 0.030876144766807556, 0.021262191236019135, 0.05124139413237572, 0.04596319422125816, 0.04516565799713135, 0.042149439454078674, 0.04215383529663086, 0.07942226529121399, 0.05052156373858452, 0.048843856900930405, 0.016765307635068893, 0.05691714584827423, 0.04144669696688652, 0.05073325335979462, 0.030161617323756218, 0.053660035133361816], [0.0230367761105299, 0.03095826879143715, 0.03132711723446846, 0.12263639271259308, 0.0650881826877594, 0.021439552307128906, 0.03401726856827736, 0.0327254943549633, 0.03342529386281967, 0.07950256764888763, 0.0348498672246933, 0.023880301043391228, 0.0947728157043457, 0.036746546626091, 0.043957244604825974, 0.01935613714158535, 0.052343178540468216, 0.036012835800647736, 0.056060872972011566, 0.03784412145614624, 0.09001918882131577], [0.03854706138372421, 0.050499409437179565, 0.03325425833463669, 0.027194468304514885, 0.010990168899297714, 0.019127128645777702, 0.03444790467619896, 0.18043851852416992, 0.04995820298790932, 0.02722054533660412, 0.03934022784233093, 0.021425794810056686, 0.01391855999827385, 0.0619455948472023, 0.04397938400506973, 0.010863316245377064, 0.11492966115474701, 0.041423603892326355, 0.018565349280834198, 0.051158152520656586, 0.11077272146940231], [0.05065218731760979, 0.04707743600010872, 0.021286550909280777, 0.046045660972595215, 0.03575733304023743, 0.024329887703061104, 0.0393543504178524, 0.034907396882772446, 0.06805825978517532, 0.08009600639343262, 0.06668078899383545, 0.027818594127893448, 0.05962398648262024, 0.06223700940608978, 0.07780992239713669, 0.019890060648322105, 0.032493095844984055, 0.05445149913430214, 0.04881511256098747, 0.05254172161221504, 0.050073131918907166], [0.0968642309308052, 0.05891339108347893, 0.029906127601861954, 0.012300832197070122, 0.005686159245669842, 0.003684084629639983, 0.01185860950499773, 0.005648455116897821, 0.06968425959348679, 0.04182901233434677, 0.04182913899421692, 0.03437578305602074, 0.012952552177011967, 0.06283538788557053, 0.050792399793863297, 0.00303409481421113, 0.005463992245495319, 0.07436910271644592, 0.035703618079423904, 0.0777272880077362, 0.2645415663719177], [0.06608626991510391, 0.07114285230636597, 0.028060978278517723, 0.029164060950279236, 0.019481297582387924, 0.00936522614210844, 0.02069059945642948, 0.008341479115188122, 0.07400976121425629, 0.024430453777313232, 0.0671176016330719, 0.045049067586660385, 0.045870162546634674, 0.06801407039165497, 0.04581648111343384, 0.005759557243436575, 0.010101141408085823, 0.07365184277296066, 0.05531582608819008, 0.10337673127651215, 0.1291544884443283], [0.05151989310979843, 0.04643828794360161, 0.026370324194431305, 0.04086364060640335, 0.028208350762724876, 0.012557204812765121, 0.05177495628595352, 0.04059963673353195, 0.0620969720184803, 0.13607949018478394, 0.05898638069629669, 0.04206441342830658, 0.048681244254112244, 0.042056988924741745, 0.02231009677052498, 0.021539729088544846, 0.032743848860263824, 0.03790494427084923, 0.08514020591974258, 0.030657822266221046, 0.08140554279088974]], [[0.04939555749297142, 0.043103065341711044, 0.021050075069069862, 0.020111292600631714, 0.011249259114265442, 0.011381752789020538, 0.023732058703899384, 0.01884845457971096, 0.05505526065826416, 0.08652054518461227, 0.054290659725666046, 0.017165303230285645, 0.015579616650938988, 0.04863235726952553, 0.06270221620798111, 0.015879232436418533, 0.015201800502836704, 0.06412915885448456, 0.15565700829029083, 0.07979044318199158, 0.13052493333816528], [0.07486260682344437, 0.04186133295297623, 0.016536764800548553, 0.030523600056767464, 0.027771171182394028, 0.017501378431916237, 0.03966764360666275, 0.045330483466386795, 0.05643733963370323, 0.08589853346347809, 0.04732293635606766, 0.020225537940859795, 0.030193448066711426, 0.04693570360541344, 0.039371635764837265, 0.02200881578028202, 0.051354698836803436, 0.06048410013318062, 0.052980728447437286, 0.04047834128141403, 0.15225322544574738], [0.08967272192239761, 0.016794893890619278, 0.003572062822058797, 0.05143757164478302, 0.08707000315189362, 0.039780810475349426, 0.005141126457601786, 0.057138968259096146, 0.03066491149365902, 0.07929334789514542, 0.029632680118083954, 0.006035477854311466, 0.059246502816677094, 0.025153089314699173, 0.018405241891741753, 0.03131435066461563, 0.01075979694724083, 0.042893338948488235, 0.0688493475317955, 0.03707239404320717, 0.21007126569747925], [0.06425067782402039, 0.036289509385824203, 0.019790353253483772, 0.00042040314292535186, 0.010230532847344875, 0.027787374332547188, 0.035508278757333755, 0.004420564044266939, 0.06157714128494263, 0.1207711324095726, 0.04342372342944145, 0.01480625756084919, 0.01375487633049488, 0.04961211606860161, 0.14187872409820557, 0.007973450236022472, 0.004482827614992857, 0.05904479697346687, 0.04149136319756508, 0.016461309045553207, 0.22602452337741852], [0.07916270941495895, 0.0494377464056015, 0.01376684196293354, 0.009987959638237953, 0.03756837919354439, 0.03888998180627823, 0.03844863176345825, 0.023637235164642334, 0.057894010096788406, 0.14095796644687653, 0.0518735833466053, 0.012952830642461777, 0.06010676175355911, 0.06268465518951416, 0.05304102227091789, 0.023735644295811653, 0.01842530257999897, 0.08004102855920792, 0.025821615010499954, 0.01593373529613018, 0.10563234239816666], [0.0787200853228569, 0.043468039482831955, 0.028958695009350777, 0.03553399816155434, 0.05283043906092644, 0.027607088908553123, 0.040601376444101334, 0.050784602761268616, 0.052239369601011276, 0.06509965658187866, 0.051780931651592255, 0.028751829639077187, 0.056736066937446594, 0.05261378735303879, 0.04536037519574165, 0.026776887476444244, 0.04033566266298294, 0.06418927758932114, 0.05218096077442169, 0.03254919871687889, 0.07288172841072083], [0.14909540116786957, 0.06038526073098183, 0.020500363782048225, 0.005113227758556604, 0.012127888388931751, 0.017658380791544914, 0.00880682934075594, 0.014181808568537235, 0.06187883019447327, 0.12212946265935898, 0.052864350378513336, 0.02456803061068058, 0.008017485961318016, 0.04798607900738716, 0.014704396016895771, 0.010770350694656372, 0.00917262677103281, 0.06275341659784317, 0.1535758227109909, 0.0453253835439682, 0.09838460385799408], [0.1180964782834053, 0.044950343668460846, 0.015604482032358646, 0.004037921782582998, 0.015387983992695808, 0.03685171529650688, 0.028956621885299683, 0.00842586625367403, 0.054359160363674164, 0.10800079256296158, 0.04830337315797806, 0.017431043088436127, 0.017721690237522125, 0.05911138653755188, 0.04810483753681183, 0.020789870992302895, 0.008301408030092716, 0.06756862252950668, 0.04424862563610077, 0.03599831834435463, 0.19774962961673737], [0.10048674046993256, 0.04405984655022621, 0.01949741318821907, 0.03676731511950493, 0.03054659627377987, 0.02141283079981804, 0.03869887441396713, 0.04161003232002258, 0.050707463175058365, 0.0835481807589531, 0.04359987750649452, 0.022388488054275513, 0.037591636180877686, 0.04709308221936226, 0.06655881553888321, 0.018177591264247894, 0.04604561999440193, 0.05582628771662712, 0.0602901466190815, 0.04036055877804756, 0.09473263472318649], [0.18890565633773804, 0.038666870445013046, 0.009495362639427185, 0.006900627166032791, 0.05075499415397644, 0.02422775700688362, 0.020881298929452896, 0.01326142530888319, 0.052031099796295166, 0.06743880361318588, 0.04044897109270096, 0.01187240518629551, 0.04565591737627983, 0.04789317026734352, 0.014554668217897415, 0.0066151246428489685, 0.005922993645071983, 0.0644340068101883, 0.1487036794424057, 0.01446574553847313, 0.12686951458454132], [0.092111736536026, 0.0379033237695694, 0.017567643895745277, 0.03129089996218681, 0.03815040737390518, 0.023662026971578598, 0.04312456026673317, 0.04330270364880562, 0.04978202283382416, 0.0641537681221962, 0.04091767966747284, 0.0193644966930151, 0.044939834624528885, 0.044606614857912064, 0.04931463673710823, 0.021168818697333336, 0.04464516043663025, 0.05512932687997818, 0.055556196719408035, 0.05298962816596031, 0.13031847774982452], [0.06783539056777954, 0.016726814210414886, 0.004035420250147581, 0.03627311810851097, 0.0603000670671463, 0.040845416486263275, 0.006706965155899525, 0.05647794157266617, 0.03192557394504547, 0.09936076402664185, 0.030830929055809975, 0.005339795723557472, 0.05037694051861763, 0.025804204866290092, 0.024282587692141533, 0.029714765027165413, 0.011095094494521618, 0.047178324311971664, 0.05346153676509857, 0.05693870410323143, 0.24448953568935394], [0.08324489742517471, 0.03813635930418968, 0.01097839418798685, 0.00507460767403245, 0.047632064670324326, 0.05380665883421898, 0.024923866614699364, 0.020795248448848724, 0.054350923746824265, 0.11336531490087509, 0.04823857545852661, 0.010680093429982662, 0.06942257285118103, 0.061423081904649734, 0.06706931442022324, 0.034798942506313324, 0.015634676441550255, 0.07339324057102203, 0.02329530566930771, 0.019964225590229034, 0.12377159297466278], [0.10485987365245819, 0.04355216398835182, 0.021187499165534973, 0.03397950902581215, 0.026311339810490608, 0.02152436040341854, 0.03427836671471596, 0.040439505130052567, 0.05150843411684036, 0.09222573786973953, 0.04295885190367699, 0.02391182817518711, 0.03304499760270119, 0.04798414185643196, 0.08037152886390686, 0.01937711611390114, 0.04644721746444702, 0.05830324441194534, 0.052202802151441574, 0.028967227786779404, 0.09656424075365067], [0.19119562208652496, 0.06382577121257782, 0.02517642453312874, 0.015724554657936096, 0.02874406799674034, 0.05789679288864136, 0.03358103707432747, 0.011093754321336746, 0.0767534002661705, 0.04931958019733429, 0.05714410915970802, 0.020410317927598953, 0.03492354601621628, 0.08674599975347519, 0.006074727047234774, 0.016575971618294716, 0.008970797061920166, 0.08952341228723526, 0.07209055870771408, 0.009516080841422081, 0.04471341148018837], [0.17860017716884613, 0.03684056177735329, 0.014028939418494701, 0.005213494412600994, 0.036396246403455734, 0.0654057115316391, 0.031074002385139465, 0.012647267431020737, 0.049947649240493774, 0.04491426423192024, 0.044800277799367905, 0.014070121571421623, 0.05310233309864998, 0.06689765304327011, 0.035778168588876724, 0.018516888841986656, 0.014134377241134644, 0.07501545548439026, 0.06304939091205597, 0.019587889313697815, 0.11997906863689423], [0.13342633843421936, 0.04450685530900955, 0.013887007720768452, 0.005236208438873291, 0.03431073576211929, 0.052132539451122284, 0.015510211698710918, 0.01218231301754713, 0.06590922176837921, 0.06721378117799759, 0.05408230051398277, 0.017254935577511787, 0.03509123623371124, 0.06730473786592484, 0.04933521896600723, 0.042351193726062775, 0.004950814414769411, 0.07171201705932617, 0.03254802152514458, 0.03873048722743988, 0.142323836684227], [0.10047850757837296, 0.04383537545800209, 0.023160971701145172, 0.03157610073685646, 0.03629722073674202, 0.021378029137849808, 0.03866010904312134, 0.041648443788290024, 0.050176095217466354, 0.09418076276779175, 0.03997126221656799, 0.026028653606772423, 0.043864328414201736, 0.04685826599597931, 0.07427320629358292, 0.021340971812605858, 0.04809126257896423, 0.05134046822786331, 0.05002165585756302, 0.032786305993795395, 0.08403204381465912], [0.08171199262142181, 0.05269451439380646, 0.015749908983707428, 0.0010258336551487446, 0.0037247054278850555, 0.017455771565437317, 0.12235920131206512, 0.0056924764066934586, 0.05844496563076973, 0.14948058128356934, 0.046258099377155304, 0.009933115914463997, 0.005056479014456272, 0.04875591769814491, 0.11141209304332733, 0.007293272763490677, 0.005529012531042099, 0.06993205845355988, 0.013506132178008556, 0.04853196069598198, 0.125451922416687], [0.12439519166946411, 0.04503890872001648, 0.0182377640157938, 0.0064989058300852776, 0.015278523787856102, 0.01881251111626625, 0.029871899634599686, 0.01658082939684391, 0.053045693784952164, 0.07967817038297653, 0.04343026876449585, 0.014547917060554028, 0.015075967647135258, 0.04496385157108307, 0.03190261870622635, 0.007846077904105186, 0.017538217827677727, 0.06677812337875366, 0.11411666870117188, 0.02540513500571251, 0.2109568566083908], [0.05237182602286339, 0.04082103446125984, 0.022125933319330215, 0.10708566755056381, 0.04099654778838158, 0.02158617228269577, 0.033035632222890854, 0.06247586011886597, 0.04935969039797783, 0.05671067535877228, 0.04750826209783554, 0.019320515915751457, 0.061111267656087875, 0.03993643820285797, 0.0205234382301569, 0.01702311635017395, 0.049960363656282425, 0.05504778400063515, 0.06580125540494919, 0.04507015272974968, 0.09212843328714371]], [[0.0643056184053421, 0.04591386392712593, 0.033148910850286484, 0.016609851270914078, 0.02951664850115776, 0.10880080610513687, 0.03316119313240051, 0.024729114025831223, 0.04144297167658806, 0.13787402212619781, 0.03300833702087402, 0.03717619925737381, 0.03476306051015854, 0.03746752068400383, 0.03501826897263527, 0.02071024663746357, 0.024588434025645256, 0.041073549538850784, 0.1391827017068863, 0.040530040860176086, 0.020978622138500214], [0.09091455489397049, 0.1316126137971878, 0.022030683234333992, 0.02536970190703869, 0.007718959357589483, 0.021882349625229836, 0.030538519844412804, 0.01771184802055359, 0.11101334542036057, 0.029521619901061058, 0.049359507858753204, 0.016660498455166817, 0.006332761608064175, 0.12145522981882095, 0.012995441444218159, 0.009154217317700386, 0.018839942291378975, 0.20208415389060974, 0.04091775044798851, 0.014938890933990479, 0.018947314471006393], [4.518092464422807e-05, 3.1930278055369854e-05, 0.7977863550186157, 3.069628746743547e-06, 7.320957138290396e-06, 3.126056617475115e-05, 3.367752651683986e-05, 3.4604101983859437e-07, 8.292208076454699e-05, 0.0002595038095023483, 2.3924481865833513e-05, 0.20140135288238525, 5.167670678929426e-06, 7.947600533952937e-05, 7.63264688430354e-06, 5.944150416326011e-07, 4.488386480261397e-07, 0.00017949882021639496, 1.046403940563323e-05, 5.165739366930211e-06, 4.7233179429895245e-06], [8.632498065708205e-05, 2.7359337764210068e-05, 1.0382982509327121e-06, 0.9989209175109863, 2.9398564947769046e-05, 8.601722220191732e-05, 2.2535618882102426e-06, 0.00012117747246520594, 3.973599086748436e-05, 3.1282152122003026e-06, 1.6338533896487206e-05, 4.347375295310485e-07, 7.77928016759688e-06, 4.5171374949859455e-05, 0.00035261461744084954, 6.61833691992797e-05, 9.175174636766315e-05, 9.399039117852226e-05, 8.638378403702518e-07, 2.435292344671325e-06, 5.071022769698175e-06], [0.002018147613853216, 0.0007247041212394834, 0.0001999243104364723, 0.0011066420702263713, 0.7498070597648621, 0.0013242329005151987, 0.00010594413470244035, 0.001051999512128532, 0.0011309364344924688, 7.069909770507365e-05, 0.0005583305610343814, 0.0001300618314417079, 0.23438790440559387, 0.0015902224695309997, 6.457246490754187e-05, 0.0007541094091720879, 0.0014648048672825098, 0.0031205853447318077, 0.00013810723612550646, 0.00010588594886939973, 0.00014514761278405786], [0.001297504873946309, 0.0004380532482173294, 0.0010160236852243543, 0.002073099371045828, 0.0006624143570661545, 0.9889001846313477, 0.0003054427506867796, 0.00042409379966557026, 0.0006434695678763092, 0.00012755244097206742, 0.00037116746534593403, 0.0005063117132522166, 0.0003806375025305897, 0.0007557802018709481, 0.00017062462575268, 0.00022356731642503291, 0.00010963447130052373, 0.0013969719875603914, 5.923503340454772e-05, 5.3039941121824086e-05, 8.524380245944485e-05], [0.002968920860439539, 0.0051561095751821995, 0.0014213331742212176, 0.0002275329316034913, 6.26773908152245e-05, 0.0019024156499654055, 0.9250309467315674, 0.00045616342686116695, 0.0054204729385674, 0.029053982347249985, 0.002190055325627327, 0.0006550824036821723, 9.037696872837842e-05, 0.0059689804911613464, 0.0005095810629427433, 0.0019163083052262664, 0.0005514600779861212, 0.014751658774912357, 0.001118060084991157, 0.0004068331327289343, 0.0001410416152793914], [0.03511881083250046, 0.0039120386354625225, 3.9600363379577175e-05, 0.010238238610327244, 0.0027712888550013304, 0.0028104025404900312, 0.0002674675779417157, 0.6890578269958496, 0.006230724975466728, 0.00025566344265826046, 0.0022545927204191685, 2.5543373340042308e-05, 0.001826234976761043, 0.006383116357028484, 0.0002817601489368826, 0.004029082600027323, 0.2142878621816635, 0.017486337572336197, 0.00020268493972253054, 0.0014455479104071856, 0.001075178268365562], [0.09339521080255508, 0.08714848011732101, 0.01240975596010685, 0.019751593470573425, 0.006550511345267296, 0.010952369309961796, 0.020986298099160194, 0.012633769772946835, 0.13300424814224243, 0.0445619598031044, 0.07883826643228531, 0.010737720876932144, 0.009719154797494411, 0.12103097140789032, 0.027837341651320457, 0.010996201075613499, 0.019940856844186783, 0.20678578317165375, 0.02956475503742695, 0.007659466005861759, 0.03549528867006302], [0.00031955025042407215, 0.00031680017127655447, 0.0023681519087404013, 1.9963757949881256e-05, 1.2239778698130976e-05, 5.5786193115636706e-05, 0.0007873426657170057, 1.3242853128758725e-05, 0.0012345262803137302, 0.9878014922142029, 0.0003014723479282111, 0.0010753208771348, 3.914160333806649e-05, 0.001095808343961835, 7.211487536551431e-05, 1.4247493709262926e-05, 8.701797014509793e-06, 0.003712920704856515, 0.0007201223052106798, 6.3764568949409295e-06, 2.4717348424019292e-05], [0.11048977077007294, 0.07710881531238556, 0.014178536832332611, 0.01719658076763153, 0.010768032632768154, 0.0212110485881567, 0.021690314635634422, 0.0153090450912714, 0.12236826121807098, 0.037620823830366135, 0.08649340271949768, 0.013458277098834515, 0.014406353235244751, 0.11112197488546371, 0.022887494415044785, 0.012411702424287796, 0.01876862905919552, 0.195871040225029, 0.03207484632730484, 0.009999539703130722, 0.03456542268395424], [0.0002538037660997361, 6.551737169502303e-05, 0.720840334892273, 4.290724973543547e-06, 1.5481835362152196e-05, 6.795967055950314e-05, 7.624467980349436e-05, 1.1188509461135254e-06, 0.00021310058946255594, 0.00040008488576859236, 7.775580888846889e-05, 0.2772609293460846, 1.4568575352313928e-05, 0.00018644896044861525, 3.2764040952315554e-05, 2.5622014163673157e-06, 1.1473287031549262e-06, 0.00040729925967752934, 4.158861702308059e-05, 1.3448849131236784e-05, 2.3497279471484944e-05], [0.005283166654407978, 0.0009274810436181724, 0.0002691452100407332, 0.0005354618187993765, 0.5003929138183594, 0.0016807530773803592, 0.00022062487551011145, 0.0020064497366547585, 0.0027224652003496885, 0.00018498749705031514, 0.0013283607549965382, 0.00020650184887927026, 0.46757251024246216, 0.003492985386401415, 9.6994532214012e-05, 0.002192036947235465, 0.002347712405025959, 0.007702834438532591, 0.00034573301672935486, 0.0001609929749974981, 0.0003297505609225482], [0.07861018925905228, 0.07868559658527374, 0.016296857967972755, 0.02141769416630268, 0.006814354564994574, 0.010748220607638359, 0.023202955722808838, 0.009932266548275948, 0.1297881156206131, 0.04199041798710823, 0.07621240615844727, 0.013313224539160728, 0.009851759299635887, 0.13470427691936493, 0.04063301905989647, 0.012700887396931648, 0.01690102554857731, 0.21476028859615326, 0.0226298701018095, 0.006681123282760382, 0.03412536904215813], [2.5043025743798353e-05, 1.5252724551828578e-05, 1.2325344869168475e-05, 0.00019264864386059344, 1.4070892575546168e-06, 8.261220500571653e-06, 8.504523975716438e-06, 2.0142035737080732e-06, 5.434982813312672e-05, 4.4450254790717736e-05, 1.6037274690461345e-05, 9.547369700158015e-06, 1.328315647697309e-06, 7.518759957747534e-05, 0.9993605017662048, 7.011901743680937e-06, 1.2501652236096561e-05, 0.00014376494800671935, 7.912451110314578e-06, 7.973691253937432e-07, 1.1860626045745448e-06], [0.005117000080645084, 0.0016150991432368755, 8.165005419868976e-05, 0.006029834970831871, 0.001656687119975686, 0.0010348998475819826, 0.0022731642238795757, 0.006753983441740274, 0.0024364162236452103, 0.0002702781348489225, 0.0012532449327409267, 4.424270082381554e-05, 0.001376827945932746, 0.002446926198899746, 0.000627731962595135, 0.9421267509460449, 0.01692768558859825, 0.006737976800650358, 0.0001857971801655367, 0.0003661345108412206, 0.0006376653909683228], [0.013947556726634502, 0.0009870502399280667, 2.0409950593602844e-05, 0.0015550011303275824, 0.0006518654990941286, 0.00037827561027370393, 0.00019426312064751983, 0.10588140040636063, 0.0019341324223205447, 5.774770033895038e-05, 0.0006880417931824923, 8.692081792105455e-06, 0.0003561275079846382, 0.001560264267027378, 0.0004547103599179536, 0.004011509940028191, 0.8611229658126831, 0.005339855328202248, 7.360048039117828e-05, 0.00028716144151985645, 0.0004894629237242043], [0.09517963230609894, 0.08178170025348663, 0.01851661503314972, 0.018212372437119484, 0.007517763879150152, 0.013250519521534443, 0.033074986189603806, 0.010977841913700104, 0.11542364209890366, 0.04889039695262909, 0.07715550065040588, 0.01484750211238861, 0.010696188546717167, 0.10943335294723511, 0.039178211241960526, 0.011655628681182861, 0.01804383099079132, 0.19169731438159943, 0.026770098134875298, 0.010552470572292805, 0.04714440926909447], [0.000435858266428113, 0.00030220128246583045, 0.00029721748433075845, 2.5001038011396304e-05, 5.393337778514251e-05, 5.531324495677836e-05, 0.00015787329175509512, 1.153246466856217e-05, 0.0004423297941684723, 0.002008152427151799, 0.00024086007033474743, 0.0003804400039371103, 0.00015000950952526182, 0.0003870026848744601, 3.016747723449953e-05, 1.724723551888019e-05, 9.52511891227914e-06, 0.0012655900791287422, 0.9935110211372375, 7.642951823072508e-05, 0.0001422670466126874], [0.07361744344234467, 0.016666743904352188, 0.013496233150362968, 0.0064199697226285934, 0.006673808675259352, 0.003502053674310446, 0.007348671089857817, 0.018634837120771408, 0.025930743664503098, 0.0032780084293335676, 0.012344828806817532, 0.00953134149312973, 0.0054663363844156265, 0.023387471213936806, 0.0010598674416542053, 0.0068413615226745605, 0.00882791355252266, 0.054505180567502975, 0.014460449106991291, 0.6834250688552856, 0.004581674002110958], [0.06743336468935013, 0.07271445542573929, 0.030011337250471115, 0.007774870377033949, 0.011505136266350746, 0.03003581054508686, 0.04694036766886711, 0.009720826521515846, 0.0800287202000618, 0.08149980753660202, 0.05291026085615158, 0.027819551527500153, 0.0251601729542017, 0.08469611406326294, 0.005787482485175133, 0.01067254226654768, 0.011599325574934483, 0.12820734083652496, 0.05084741860628128, 0.024087857455015182, 0.1405472755432129]], [[0.039370935410261154, 0.03684433177113533, 0.0484745055437088, 0.16421379148960114, 0.020228317007422447, 0.011111070401966572, 0.013193544931709766, 0.09055757522583008, 0.0648321807384491, 0.04906255379319191, 0.042914945632219315, 0.04768877476453781, 0.013006383553147316, 0.06771203875541687, 0.014477549120783806, 0.02811707928776741, 0.07121175527572632, 0.09047004580497742, 0.011429473757743835, 0.016150835901498795, 0.0589323565363884], [0.059627290815114975, 0.04922201856970787, 0.04168830066919327, 0.03398853912949562, 0.01372904609888792, 0.021784501150250435, 0.024838600307703018, 0.038891665637493134, 0.0628771111369133, 0.1029781624674797, 0.04560665413737297, 0.040854133665561676, 0.01666228473186493, 0.059841226786375046, 0.03558657690882683, 0.020744802430272102, 0.02392672561109066, 0.0790925920009613, 0.03444929048418999, 0.020904619246721268, 0.17270585894584656], [0.024215755984187126, 0.04818679764866829, 0.02440652996301651, 0.07860272377729416, 0.046994648873806, 0.022321460768580437, 0.020755769684910774, 0.0900636538863182, 0.05345892161130905, 0.04600328952074051, 0.0558028444647789, 0.030529841780662537, 0.03418688476085663, 0.0467841811478138, 0.058626316487789154, 0.01523510180413723, 0.03974294289946556, 0.06537874788045883, 0.013397904112935066, 0.018581368029117584, 0.16672426462173462], [0.054334864020347595, 0.07213806360960007, 0.04148155078291893, 0.0030122408643364906, 0.02203657105565071, 0.009578217752277851, 0.02153676189482212, 0.013315362855792046, 0.0737631544470787, 0.05279585346579552, 0.049538545310497284, 0.04999464005231857, 0.027721405029296875, 0.07095656543970108, 0.02387297712266445, 0.006898279767483473, 0.024397803470492363, 0.09745872765779495, 0.04109658673405647, 0.0058016302064061165, 0.23827016353607178], [0.03879307582974434, 0.05008687824010849, 0.04152027145028114, 0.11752252280712128, 0.039317868649959564, 0.046710673719644547, 0.01065991260111332, 0.057546839118003845, 0.06597626209259033, 0.01234200969338417, 0.06088164076209068, 0.051121752709150314, 0.033031489700078964, 0.049208998680114746, 0.029688609763979912, 0.007386567071080208, 0.0504588708281517, 0.06082199513912201, 0.014024442061781883, 0.012384709902107716, 0.1505146324634552], [0.03467519208788872, 0.06483537703752518, 0.014800522476434708, 0.04718541353940964, 0.06836284697055817, 0.011772134341299534, 0.009361515752971172, 0.035845279693603516, 0.08737724274396896, 0.007241778541356325, 0.08143918216228485, 0.011274879798293114, 0.073809914290905, 0.08311961591243744, 0.016898786649107933, 0.03408912569284439, 0.039845190942287445, 0.09241203218698502, 0.0096160639077425, 0.01495613157749176, 0.1610817313194275], [0.06725532561540604, 0.0672619640827179, 0.017936116084456444, 0.05924639105796814, 0.008969662711024284, 0.07832175493240356, 0.004941234365105629, 0.013577725738286972, 0.09018255770206451, 0.04263785853981972, 0.05350721254944801, 0.016853028908371925, 0.008072474040091038, 0.09472999721765518, 0.02098225988447666, 0.007104681339114904, 0.008775939233601093, 0.1084258109331131, 0.028489790856838226, 0.0232068058103323, 0.17952145636081696], [0.05147973448038101, 0.09169349074363708, 0.013916324824094772, 0.016084423288702965, 0.01399903278797865, 0.01609642431139946, 0.012738808989524841, 0.004439023323357105, 0.08842864632606506, 0.017635231837630272, 0.08016220480203629, 0.015396381728351116, 0.02590295672416687, 0.09982525557279587, 0.021178405731916428, 0.00942798238247633, 0.005991821642965078, 0.10985153913497925, 0.019304072484374046, 0.017047381028532982, 0.2694009244441986], [0.07474687695503235, 0.05459875985980034, 0.042010895907878876, 0.0368087999522686, 0.013117275200784206, 0.019004061818122864, 0.030040491372346878, 0.02081194333732128, 0.07360188663005829, 0.09116540849208832, 0.049223482608795166, 0.03461743891239166, 0.01662149466574192, 0.07495813071727753, 0.041522491723299026, 0.013549352996051311, 0.016540275886654854, 0.1039721667766571, 0.044230494648218155, 0.02181210368871689, 0.12704621255397797], [0.07037284970283508, 0.021257858723402023, 0.07622716575860977, 0.02743033692240715, 0.04772811383008957, 0.00896802730858326, 0.057149436324834824, 0.035179030150175095, 0.06496696174144745, 0.05964021384716034, 0.02967350371181965, 0.0733700767159462, 0.03514465317130089, 0.07088559120893478, 0.04305962473154068, 0.007419455796480179, 0.029642388224601746, 0.11047366261482239, 0.02055264450609684, 0.014603085815906525, 0.09625539928674698], [0.07775161415338516, 0.0662606805562973, 0.03295261785387993, 0.05825135111808777, 0.015547200106084347, 0.025090133771300316, 0.022285444661974907, 0.022578328847885132, 0.0788409560918808, 0.051103975623846054, 0.058207858353853226, 0.027441928163170815, 0.019772542640566826, 0.07876235246658325, 0.03921882435679436, 0.01656113937497139, 0.020488761365413666, 0.09948288649320602, 0.027098000049591064, 0.02291412465274334, 0.13938923180103302], [0.021336061879992485, 0.04967761039733887, 0.03235188499093056, 0.1053825095295906, 0.05707945302128792, 0.028278924524784088, 0.028597375378012657, 0.07225597649812698, 0.05417533591389656, 0.06118325889110565, 0.052569396793842316, 0.032368771731853485, 0.03639744222164154, 0.05229432135820389, 0.04804467782378197, 0.012393656186759472, 0.031976550817489624, 0.07172371447086334, 0.009943695738911629, 0.02263144589960575, 0.11933793127536774], [0.034722115844488144, 0.047222476452589035, 0.06154605373740196, 0.1205635592341423, 0.03823349252343178, 0.03207683190703392, 0.014716663397848606, 0.04931166395545006, 0.07589473575353622, 0.024991223588585854, 0.056151580065488815, 0.06099693849682808, 0.02536534145474434, 0.06975787878036499, 0.026248574256896973, 0.00828021764755249, 0.028404600918293, 0.08724772930145264, 0.010661132633686066, 0.011096732690930367, 0.11651040613651276], [0.07998693734407425, 0.05458725243806839, 0.03680500388145447, 0.028284693136811256, 0.013719892129302025, 0.01884584315121174, 0.027642713859677315, 0.019302714616060257, 0.07649330794811249, 0.0810873955488205, 0.05348154902458191, 0.03201478719711304, 0.01940475031733513, 0.07749353349208832, 0.04628191143274307, 0.013628662563860416, 0.01691245846450329, 0.10631348192691803, 0.04155704379081726, 0.02059239149093628, 0.13556362688541412], [0.020839238539338112, 0.07249227166175842, 0.019629554823040962, 0.02257765829563141, 0.012464489787817001, 0.01047287043184042, 0.015306507237255573, 0.010995953343808651, 0.09537553042173386, 0.10329641401767731, 0.06409595906734467, 0.018293146044015884, 0.02594008669257164, 0.11855782568454742, 0.006982032209634781, 0.01855548284947872, 0.006710690911859274, 0.12030380964279175, 0.05049893260002136, 0.017242692410945892, 0.16936883330345154], [0.09249334782361984, 0.08156280964612961, 0.02134077437222004, 0.02173730731010437, 0.04338296130299568, 0.03190835192799568, 0.023916449397802353, 0.020247597247362137, 0.09288953244686127, 0.024104036390781403, 0.07233565300703049, 0.019502757117152214, 0.051517896354198456, 0.08517653495073318, 0.015873055905103683, 0.011395303532481194, 0.025750601664185524, 0.09243611991405487, 0.015145194716751575, 0.013508261181414127, 0.14377543330192566], [0.06339821964502335, 0.08813370019197464, 0.013171744532883167, 0.008504682220518589, 0.01479259692132473, 0.01652417704463005, 0.033448725938797, 0.004646281711757183, 0.09374825656414032, 0.03365541622042656, 0.07641778141260147, 0.012458700686693192, 0.026478905230760574, 0.10394027829170227, 0.008997947908937931, 0.009767374955117702, 0.002792735816910863, 0.11611407995223999, 0.025625109672546387, 0.029442470520734787, 0.21794064342975616], [0.08671167492866516, 0.0540451817214489, 0.03052487224340439, 0.03118513710796833, 0.007733967620879412, 0.016638651490211487, 0.029469294473528862, 0.01596852019429207, 0.07995852082967758, 0.0782986730337143, 0.05464090034365654, 0.024449437856674194, 0.012407849542796612, 0.0862320065498352, 0.06505800783634186, 0.016109880059957504, 0.014945688657462597, 0.12307235598564148, 0.04498498886823654, 0.018192913383245468, 0.10937143862247467], [0.05987553671002388, 0.03695198521018028, 0.09006578475236893, 0.013404520228505135, 0.005904214922338724, 0.003918591886758804, 0.14054164290428162, 0.037209875881671906, 0.05299532413482666, 0.22288979589939117, 0.02524542808532715, 0.05232803151011467, 0.007383440155535936, 0.05782931298017502, 0.015896711498498917, 0.007116950582712889, 0.03207821398973465, 0.07280275970697403, 0.006241593975573778, 0.008947307243943214, 0.05037297308444977], [0.08196728676557541, 0.04195781797170639, 0.04439407214522362, 0.01619052328169346, 0.029466748237609863, 0.01727772317826748, 0.027141917496919632, 0.05778694525361061, 0.06722308695316315, 0.07483880966901779, 0.04765039682388306, 0.03526885062456131, 0.0211276076734066, 0.06775638461112976, 0.03662708401679993, 0.011799070052802563, 0.05357103794813156, 0.0879843458533287, 0.019504841417074203, 0.007899492979049683, 0.15256592631340027], [0.11435804516077042, 0.08628182113170624, 0.034352365881204605, 0.056164976209402084, 0.024147378280758858, 0.010657135397195816, 0.014948399737477303, 0.02229265496134758, 0.0944247916340828, 0.03863837197422981, 0.05443086475133896, 0.02930116467177868, 0.02401585876941681, 0.0789140984416008, 0.028641678392887115, 0.024302097037434578, 0.021563326939940453, 0.11856799572706223, 0.030102232471108437, 0.014565459452569485, 0.07932937145233154]]], [[[0.3819771111011505, 0.04790855944156647, 0.003121504792943597, 0.0039143990725278854, 0.007519137114286423, 0.005514383316040039, 0.014564276672899723, 0.00988489668816328, 0.04216073825955391, 0.00525451498106122, 0.02239472046494484, 0.007565133739262819, 0.01650124602019787, 0.13492700457572937, 0.008180414326488972, 0.005663614254444838, 0.011473271995782852, 0.20207913219928741, 0.008705871179699898, 0.01218355167657137, 0.04850644990801811], [0.004930137190967798, 0.020534571260213852, 0.9260650277137756, 0.01309398002922535, 0.002867475152015686, 0.00016880415205378085, 0.0032228315249085426, 0.0002544113958720118, 0.0019028275273740292, 0.0033100214786827564, 0.00036105155595578253, 0.002122210105881095, 0.0004651715571526438, 0.0015083379112184048, 0.0006680868100374937, 2.5324354282929562e-05, 0.00021652363648172468, 0.0064536468125879765, 0.004168448969721794, 0.004935676697641611, 0.002725574653595686], [0.03063874877989292, 0.022258564829826355, 0.1431029587984085, 0.40362948179244995, 0.12697507441043854, 0.004528487101197243, 0.02327774278819561, 0.00563794607296586, 0.02922673709690571, 0.015821559354662895, 0.007056794594973326, 0.0005494201905094087, 0.0012699958169832826, 0.03166806697845459, 0.005221841856837273, 0.0018401385750621557, 0.0014989146729931235, 0.06643374264240265, 0.012030193582177162, 0.05593959614634514, 0.011394037865102291], [0.011048225685954094, 0.0023270028177648783, 0.06491731107234955, 0.023364927619695663, 0.7783895134925842, 0.019363297149538994, 0.022394420579075813, 0.0029857433401048183, 0.008936271071434021, 0.004791129846125841, 0.004263707436621189, 0.011615707539021969, 0.000756733410526067, 0.008249517530202866, 0.005622978787869215, 0.00011516034282976761, 0.00027962116291746497, 0.009813510812819004, 0.00018595182336866856, 0.0011286096414551139, 0.019450748339295387], [0.0020180160645395517, 0.0003408160409890115, 0.003192707896232605, 0.0018655990716069937, 0.006271081510931253, 0.5282024145126343, 0.44154560565948486, 0.0016664979048073292, 0.0006345090223476291, 0.004917449317872524, 0.0001875122106866911, 0.001935951760970056, 2.64850659732474e-05, 0.002317350124940276, 0.0034647888969630003, 3.361479321029037e-05, 0.00011603890743572265, 0.0009170246194116771, 7.037269824650139e-05, 2.9927083232905716e-05, 0.0002462347620166838], [0.00524710351601243, 0.013887411914765835, 0.003689577104523778, 0.0011911316541954875, 0.023561162874102592, 0.054630622267723083, 0.6927293539047241, 0.08340517431497574, 0.01889442838728428, 0.014700772240757942, 0.0013209703611209989, 0.001424148096702993, 0.0034157331101596355, 0.04011604189872742, 0.01073950994759798, 0.0007145307608880103, 0.0005929532344453037, 0.026099637150764465, 0.0004098345816601068, 6.600591405003797e-06, 0.00322334049269557], [0.002277131425216794, 0.005026464816182852, 0.0004940915969200432, 0.0013990446459501982, 0.0006207565311342478, 0.0017807079711928964, 0.01866784691810608, 0.5856090784072876, 0.25571632385253906, 0.04280015453696251, 0.0010799113661050797, 5.56865161343012e-05, 0.0007698547560721636, 0.01780955120921135, 0.0026366093661636114, 0.001265155035071075, 0.0014152101939544082, 0.05910768359899521, 0.00027889368357136846, 0.00026420815265737474, 0.000925586384255439], [0.05288521945476532, 0.0017004117835313082, 0.015043400228023529, 0.001276171999052167, 0.0007107001729309559, 4.6593700972152874e-05, 0.04633377492427826, 0.04846353456377983, 0.2837975323200226, 0.46644389629364014, 0.013867322355508804, 0.02332923375070095, 0.003730935277417302, 0.004671311937272549, 0.010043769143521786, 0.0010689756600186229, 0.0028587812557816505, 0.01447994727641344, 0.0022101097274571657, 0.0004189198079984635, 0.006619430612772703], [0.04479234293103218, 0.0016444732900708914, 0.0053049130365252495, 0.003296216018497944, 0.0030274747405201197, 0.00042204459896311164, 0.003735162550583482, 0.006211548112332821, 0.11682301014661789, 0.4890108108520508, 0.12432946264743805, 0.11593218147754669, 0.0059637571685016155, 0.00530878733843565, 0.005074458196759224, 0.0022685767617076635, 0.007564855273813009, 0.03321247920393944, 0.0024329458829015493, 0.007382328622043133, 0.016262168064713478], [0.09320857375860214, 0.001101743895560503, 0.0010467548854649067, 0.0004050892312079668, 0.0005103055154904723, 0.000150718551594764, 0.0077492124401032925, 0.0012663863599300385, 0.03733199089765549, 0.05507509037852287, 0.3689790666103363, 0.3520849943161011, 0.01188148558139801, 0.007015747483819723, 0.002442234428599477, 0.000787477008998394, 0.0012673221062868834, 0.04990442097187042, 0.00033071203506551683, 0.005300407763570547, 0.002160211093723774], [0.003923803102225065, 0.00012952336692251265, 0.00018492033996153623, 0.0001032213112921454, 0.00020693590340670198, 8.508311293553561e-05, 0.0002730272535700351, 2.564891656220425e-05, 0.0004209491889923811, 0.002591536147519946, 0.027826322242617607, 0.9245255589485168, 0.02974512241780758, 0.001973251346498728, 0.0005791325820609927, 4.476400135899894e-05, 0.0006644630921073258, 0.0032649084459990263, 0.0003568402025848627, 0.0006014496320858598, 0.0024735615588724613], [0.007797799073159695, 0.00016347655036952347, 1.3241151464171708e-05, 9.295418567489833e-05, 0.0001518436474725604, 0.00021460303105413914, 0.0010416702134534717, 0.00019387547217775136, 0.0005571047659032047, 0.0007564707775600255, 0.02019497938454151, 0.06175963208079338, 0.7257958650588989, 0.10043630748987198, 0.02466064877808094, 0.005594788584858179, 0.01590091921389103, 0.026488065719604492, 0.002215619897469878, 0.003303142264485359, 0.0026670696679502726], [0.004904361441731453, 2.5504856239422224e-05, 0.0001117308929678984, 2.082056744256988e-05, 1.0860998145290068e-06, 0.00010168189328396693, 0.0006582486093975604, 4.2460185795789585e-05, 7.499962521251291e-05, 0.00036551812081597745, 5.565542232943699e-05, 0.007431416772305965, 0.005722769070416689, 0.04340813308954239, 0.9207911491394043, 0.0015768156154081225, 0.006672545336186886, 0.0010687680914998055, 0.003139220643788576, 0.0026175931561738253, 0.0012095520505681634], [0.03192063048481941, 0.0021727420389652252, 0.0018361039692535996, 0.002832536119967699, 0.001494665746577084, 0.0012786084553226829, 0.00899537280201912, 0.004373172298073769, 0.017822520807385445, 0.006489081773906946, 0.0030598684679716825, 0.00626443512737751, 0.043528009206056595, 0.13262328505516052, 0.4321988523006439, 0.058514293283224106, 0.12995924055576324, 0.05414506420493126, 0.009357091039419174, 0.01296275109052658, 0.03817174583673477], [0.0060839285142719746, 0.0027215396985411644, 0.0004634325159713626, 0.0005343344528228045, 0.00023841587244533002, 0.0018845946760848165, 7.159738015616313e-05, 0.0004057683690916747, 0.017862077802419662, 0.009950332343578339, 0.003959596157073975, 0.0011075674556195736, 0.002269485965371132, 0.0637451633810997, 0.20919393002986908, 0.005035615060478449, 0.27075010538101196, 0.27047422528266907, 0.010479615069925785, 0.04917961359024048, 0.07358897477388382], [0.004934426862746477, 0.002849695272743702, 0.0005785902612842619, 0.0013409050879999995, 0.0003584757505450398, 0.002148887375369668, 8.195909322239459e-05, 0.0017780403140932322, 0.007799334824085236, 0.017337234690785408, 0.00639895536005497, 0.0021240930072963238, 0.002776879584416747, 0.012831807136535645, 0.15836812555789948, 0.030584461987018585, 0.4972474277019501, 0.10695197433233261, 0.0684640109539032, 0.034600842744112015, 0.04044376313686371], [0.06059115007519722, 0.0036119844298809767, 0.002631228882819414, 0.00010310326615581289, 7.806102075846866e-05, 7.449831173289567e-06, 0.00041323312325403094, 0.0001618021196918562, 0.0024068302009254694, 0.0022929925471544266, 0.002185492543503642, 0.00589792663231492, 0.004033754579722881, 0.007677890360355377, 0.02572065405547619, 0.010147088207304478, 0.1778036206960678, 0.2729155123233795, 0.3263167142868042, 0.04212396219372749, 0.052879590541124344], [0.08281910419464111, 0.05591902509331703, 0.009521574713289738, 0.009300583973526955, 0.004149917513132095, 0.0014422028325498104, 0.0069936728104949, 0.002670553745701909, 0.04077901691198349, 0.007032163441181183, 0.0397086963057518, 0.013802111148834229, 0.018407149240374565, 0.04848642647266388, 0.004765214864164591, 0.007504185661673546, 0.028719527646899223, 0.3262428045272827, 0.05223679542541504, 0.13958312571048737, 0.09991616010665894], [0.025679713115096092, 0.0033796157222241163, 0.003430793061852455, 0.005034806206822395, 0.0034822889138013124, 0.00025583573733456433, 9.638542542234063e-05, 8.948546019382775e-05, 0.0030417179223150015, 0.0004375936114229262, 0.00276516517624259, 0.0010093359742313623, 0.00861753523349762, 0.018081363290548325, 0.003221802646294236, 0.0004654276417568326, 0.002740739844739437, 0.12732034921646118, 0.04041527584195137, 0.2786613702774048, 0.4717734754085541], [0.16857436299324036, 0.001477329875342548, 0.005181409884244204, 0.0030555366538465023, 0.0011890762252733111, 0.00010029348777607083, 0.0016600509406998754, 2.671295078471303e-05, 0.002211988437920809, 0.0001735976111376658, 0.0023540309630334377, 0.003318356117233634, 0.0013198243686929345, 0.020658064633607864, 0.0018727974966168404, 0.00034402089659124613, 0.001757158082909882, 0.1213264986872673, 0.059448711574077606, 0.08162875473499298, 0.5223214030265808], [0.039193619042634964, 0.23439596593379974, 0.37612348794937134, 0.046988677233457565, 0.01516873762011528, 0.004808410536497831, 0.03841271623969078, 0.0006877995328977704, 0.004341831896454096, 0.007964163087308407, 0.0017441377276554704, 0.0037795838434249163, 0.004645592533051968, 0.01544720958918333, 0.00827102828770876, 0.0004330843221396208, 0.0066465092822909355, 0.039843492209911346, 0.0511360839009285, 0.07916396111249924, 0.020803865045309067]], [[0.026729920879006386, 0.06023751199245453, 0.0982789397239685, 0.137864887714386, 0.035288915038108826, 0.01219119131565094, 0.012218671850860119, 0.017709987238049507, 0.0741906687617302, 0.04180318862199783, 0.0637422725558281, 0.1291319876909256, 0.027828274294734, 0.028987500816583633, 0.03960090130567551, 0.006288540083914995, 0.021878749132156372, 0.056282252073287964, 0.0380435474216938, 0.030017979443073273, 0.04168417304754257], [0.10898320376873016, 0.038734350353479385, 0.04596789553761482, 0.03404965251684189, 0.012087218463420868, 0.011036975309252739, 0.01596478559076786, 0.036769598722457886, 0.05352892354130745, 0.029257766902446747, 0.07718385756015778, 0.09111038595438004, 0.02786536142230034, 0.03880498558282852, 0.04179403930902481, 0.0123257115483284, 0.044177550822496414, 0.04821961745619774, 0.014973237179219723, 0.024145163595676422, 0.19301970303058624], [0.11469310522079468, 0.03307386860251427, 0.12341000139713287, 0.004238793160766363, 0.005908288061618805, 0.0038051018491387367, 0.006356071215122938, 0.030913323163986206, 0.04041875898838043, 0.03319171071052551, 0.05694916099309921, 0.16077442467212677, 0.030153585597872734, 0.039749473333358765, 0.022451026365160942, 0.0056258998811244965, 0.017283525317907333, 0.05137776955962181, 0.003230415051802993, 0.003525754902511835, 0.21286995708942413], [0.11411528289318085, 0.0924922451376915, 0.06362660229206085, 0.01635248400270939, 0.007393892388790846, 0.00527066458016634, 0.005662939045578241, 0.01931748352944851, 0.08839784562587738, 0.008428978733718395, 0.10429185628890991, 0.02860611118376255, 0.008188608102500439, 0.0575365275144577, 0.021378319710493088, 0.006933147553354502, 0.028400806710124016, 0.10609275102615356, 0.0016193664632737637, 0.0045641385950148106, 0.21132993698120117], [0.11681906133890152, 0.09900505840778351, 0.06503576785326004, 0.0049796137027442455, 0.04231918975710869, 0.011004958301782608, 0.021825116127729416, 0.02093944139778614, 0.09129153192043304, 0.025666840374469757, 0.07080462574958801, 0.03572174161672592, 0.02773398905992508, 0.07687387615442276, 0.007662894669920206, 0.0056565129198133945, 0.019947417080402374, 0.11639681458473206, 0.004566381219774485, 0.006977397482842207, 0.12877178192138672], [0.13941267132759094, 0.07957493513822556, 0.06193293258547783, 0.05221759155392647, 0.02280493825674057, 0.022308403626084328, 0.02160213515162468, 0.02136281691491604, 0.07154271006584167, 0.023436421528458595, 0.07039264589548111, 0.024060148745775223, 0.01477086916565895, 0.06472299993038177, 0.02467576041817665, 0.019450660794973373, 0.035203803330659866, 0.09910126775503159, 0.00441308319568634, 0.01031523384153843, 0.11669791489839554], [0.21379303932189941, 0.03480900824069977, 0.020718375220894814, 0.002066980116069317, 0.00893428549170494, 0.0062689702026546, 0.020172441378235817, 0.014356785453855991, 0.03224623203277588, 0.15031477808952332, 0.03312070667743683, 0.0137704499065876, 0.007612952496856451, 0.03613699972629547, 0.011260907165706158, 0.03901241347193718, 0.03416675701737404, 0.05491121485829353, 0.007451462093740702, 0.03043370693922043, 0.2284415066242218], [0.193766251206398, 0.09367739409208298, 0.025561101734638214, 0.07973562180995941, 0.006432204972952604, 0.017255155369639397, 0.0013224041322246194, 0.015949193388223648, 0.04888243228197098, 0.003913471009582281, 0.045798011124134064, 0.005273324903100729, 0.003224121406674385, 0.041246116161346436, 0.006276486907154322, 0.009156683459877968, 0.03662097826600075, 0.09655369818210602, 0.0029506797436624765, 0.0017583207227289677, 0.26464635133743286], [0.15397249162197113, 0.087153859436512, 0.08039196580648422, 0.04785742983222008, 0.030899977311491966, 0.014523627236485481, 0.01472184993326664, 0.021222220733761787, 0.044723570346832275, 0.0150179797783494, 0.059006888419389725, 0.04077204316854477, 0.016126209869980812, 0.024101288989186287, 0.014368093572556973, 0.006079008337110281, 0.022372020408511162, 0.035069506615400314, 0.009030492044985294, 0.019367411732673645, 0.24322208762168884], [0.25412070751190186, 0.04424694553017616, 0.03001270815730095, 0.0016916105523705482, 0.014069000259041786, 0.005375886335968971, 0.01330027636140585, 0.0072756577283144, 0.02385481633245945, 0.022026140242815018, 0.022133857011795044, 0.00943839829415083, 0.006309712305665016, 0.0204320028424263, 0.0023018168285489082, 0.006452456582337618, 0.011155357584357262, 0.03688805550336838, 0.001014921348541975, 0.003356327535584569, 0.4645434617996216], [0.08539155125617981, 0.11954954266548157, 0.11159367114305496, 0.09473257511854172, 0.05980285629630089, 0.02099735103547573, 0.020104436203837395, 0.021631378680467606, 0.0542425699532032, 0.017492037266492844, 0.06310062110424042, 0.049980200827121735, 0.016996029764413834, 0.017485206946730614, 0.01341001782566309, 0.0027033183723688126, 0.014452257193624973, 0.023478014394640923, 0.0059801009483635426, 0.0115377027541399, 0.17533858120441437], [0.03863263502717018, 0.08200673013925552, 0.30015987157821655, 0.018826058134436607, 0.05334843322634697, 0.010126039385795593, 0.012597013264894485, 0.02139228768646717, 0.04432642459869385, 0.03223990276455879, 0.04240923747420311, 0.09990016371011734, 0.023981813341379166, 0.015336726792156696, 0.007241707760840654, 0.0008005586569197476, 0.0042529902420938015, 0.021507184952497482, 0.0032780016772449017, 0.0026929012965410948, 0.16494323313236237], [0.05601691082119942, 0.09041423350572586, 0.15643617510795593, 0.014633680693805218, 0.07044947147369385, 0.023396523669362068, 0.030073650181293488, 0.033110156655311584, 0.08798594772815704, 0.06887771934270859, 0.06121255084872246, 0.06411497294902802, 0.024215083569288254, 0.028199702501296997, 0.007763642352074385, 0.002475602086633444, 0.008968872018158436, 0.0363074466586113, 0.008251369930803776, 0.0070868791081011295, 0.12000934034585953], [0.1243412122130394, 0.05819384381175041, 0.059626415371894836, 0.047827377915382385, 0.025386083871126175, 0.021197358146309853, 0.02366793528199196, 0.04574080556631088, 0.07337470352649689, 0.044983234256505966, 0.07414455711841583, 0.052382078021764755, 0.01711871847510338, 0.031314339488744736, 0.020854977890849113, 0.012079848907887936, 0.030393077060580254, 0.04154789447784424, 0.01609487272799015, 0.028461411595344543, 0.15126924216747284], [0.08724919706583023, 0.05122268199920654, 0.08976996690034866, 0.06891445815563202, 0.020576532930135727, 0.017880186438560486, 0.03260563313961029, 0.052833735942840576, 0.06778345257043839, 0.059703562408685684, 0.05854780972003937, 0.05060839653015137, 0.012564023956656456, 0.03043796308338642, 0.020263204351067543, 0.010441688820719719, 0.025395551696419716, 0.040656931698322296, 0.01720147207379341, 0.01651362143456936, 0.16882993280887604], [0.10831029713153839, 0.058709628880023956, 0.02720753848552704, 0.04608379304409027, 0.01748698204755783, 0.041214536875486374, 0.012084655463695526, 0.07427620142698288, 0.11024963110685349, 0.04590250179171562, 0.09356267005205154, 0.025197479873895645, 0.011371885426342487, 0.052086666226387024, 0.02228473126888275, 0.03214903175830841, 0.03385500609874725, 0.07246401906013489, 0.007349023595452309, 0.007372761145234108, 0.10078096389770508], [0.14622725546360016, 0.06836016476154327, 0.034437909722328186, 0.038650210946798325, 0.010905351489782333, 0.016639599576592445, 0.004153123591095209, 0.05353643000125885, 0.102754145860672, 0.010220402851700783, 0.09919093549251556, 0.025597289204597473, 0.005243885330855846, 0.03781279921531677, 0.0046178968623280525, 0.005038147326558828, 0.021143054589629173, 0.052806902676820755, 0.002905764151364565, 0.0029153916984796524, 0.25684335827827454], [0.20317162573337555, 0.03848840668797493, 0.031504180282354355, 0.021559447050094604, 0.014863546006381512, 0.016571583226323128, 0.01263497956097126, 0.048472482711076736, 0.06511221081018448, 0.02362251840531826, 0.08575743436813354, 0.04301825165748596, 0.016450177878141403, 0.051932547241449356, 0.022005969658493996, 0.028828786686062813, 0.046345990151166916, 0.05300363525748253, 0.00950593501329422, 0.031268876045942307, 0.13588152825832367], [0.07523471117019653, 0.045624956488609314, 0.01760071888566017, 0.005099980626255274, 0.017345866188406944, 0.014007039368152618, 0.008592997677624226, 0.028699055314064026, 0.0771261602640152, 0.052967797964811325, 0.08229371905326843, 0.0434209480881691, 0.022655190899968147, 0.05723942071199417, 0.011814636178314686, 0.01541436742991209, 0.02639327570796013, 0.04693015664815903, 0.050273045897483826, 0.09713474661111832, 0.2041311264038086], [0.04574524611234665, 0.07210678607225418, 0.029096907004714012, 0.021154077723622322, 0.02087336778640747, 0.016541002318263054, 0.015985989943146706, 0.02953113242983818, 0.0954945832490921, 0.06287781149148941, 0.09554970264434814, 0.07480812817811966, 0.02927088551223278, 0.0515153668820858, 0.016824619844555855, 0.005379160400480032, 0.015097471885383129, 0.041099924594163895, 0.038192883133888245, 0.041172634810209274, 0.181682288646698], [0.0698169693350792, 0.05705729126930237, 0.0327829085290432, 0.02498546615242958, 0.018071865662932396, 0.006708902306854725, 0.007791918236762285, 0.026057595387101173, 0.09382150322198868, 0.059255097061395645, 0.1252461075782776, 0.190397709608078, 0.027879077941179276, 0.027458555996418, 0.02803357131779194, 0.005721387453377247, 0.015659794211387634, 0.0251107569783926, 0.017874859273433685, 0.016704915091395378, 0.12356385588645935]], [[0.1011921614408493, 0.008334267884492874, 0.015359845943748951, 0.016953105106949806, 0.009971274062991142, 0.008750712499022484, 0.02634437568485737, 0.004380788188427687, 0.02312086895108223, 0.023215264081954956, 0.02592252939939499, 0.11226455122232437, 0.0996277928352356, 0.0959998220205307, 0.11459077894687653, 0.007806058507412672, 0.05799851939082146, 0.09657039493322372, 0.13745340704917908, 0.004818470682948828, 0.009325078688561916], [0.0061677913181483746, 0.03396803140640259, 0.1390656679868698, 0.18490198254585266, 0.32047128677368164, 0.027811214327812195, 0.04619547352194786, 0.020546693354845047, 0.03825932741165161, 0.036562807857990265, 0.020059294998645782, 0.01250426098704338, 0.019439002498984337, 0.01216921117156744, 0.009359193034470081, 0.0008647085633128881, 0.0035894603934139013, 0.011436248198151588, 0.014807084575295448, 0.009559913538396358, 0.03226146474480629], [0.005505561828613281, 0.011371155269443989, 0.002363713691011071, 0.1048574149608612, 0.5118102431297302, 0.11002127826213837, 0.14368946850299835, 0.019052723422646523, 0.025386933237314224, 0.014063035137951374, 0.008136281743645668, 0.00031958226463757455, 0.007246993947774172, 0.010492383502423763, 0.004463708959519863, 0.0006738800439052284, 0.0008522035204805434, 0.007806980051100254, 0.0011192429810762405, 0.0009445383329875767, 0.00982262846082449], [0.007372818887233734, 0.022479014471173286, 0.04046575725078583, 0.03345152363181114, 0.13391782343387604, 0.06645015627145767, 0.12165717780590057, 0.099899061024189, 0.13239000737667084, 0.082842618227005, 0.08380191028118134, 0.0748814046382904, 0.013490577228367329, 0.025110818445682526, 0.009160102345049381, 0.0012895225081592798, 0.002420022152364254, 0.023363206535577774, 0.0020043975673615932, 0.001498047262430191, 0.022054020315408707], [0.0007145812269300222, 0.0020512377377599478, 0.006565937772393227, 0.012678283266723156, 0.05707378312945366, 0.08091654628515244, 0.17398397624492645, 0.12751029431819916, 0.08089174330234528, 0.22563348710536957, 0.03789421543478966, 0.11491471529006958, 0.04147257283329964, 0.007029932923614979, 0.013825117610394955, 0.0003315657959319651, 0.003538751509040594, 0.006500546354800463, 0.0022869640961289406, 0.0006317684310488403, 0.003554028458893299], [0.005881433840841055, 0.006239200476557016, 0.003127995179966092, 0.00736144557595253, 0.005524892359972, 0.007665030658245087, 0.08096077293157578, 0.14124348759651184, 0.20026741921901703, 0.31753912568092346, 0.05235202610492706, 0.034983668476343155, 0.04404165595769882, 0.024114053696393967, 0.015058587305247784, 0.0017945640720427036, 0.009176990948617458, 0.025165364146232605, 0.006613001227378845, 0.002399768913164735, 0.008489581756293774], [0.03204280510544777, 0.014569796621799469, 0.00732543645426631, 0.005369884427636862, 0.003603356657549739, 0.004586115013808012, 0.010689560323953629, 0.07776598632335663, 0.4498834013938904, 0.035781316459178925, 0.11994413286447525, 0.1156064122915268, 0.014897089451551437, 0.03367530554533005, 0.013475402258336544, 0.003216417971998453, 0.0029977683443576097, 0.04909845441579819, 0.0015791592886671424, 0.0012567644007503986, 0.00263538327999413], [0.008770276792347431, 0.0033475435338914394, 0.0022132054436951876, 0.0033925671596080065, 0.000989103689789772, 0.0012195090530440211, 0.005686300806701183, 0.006047877483069897, 0.1608373373746872, 0.2456640750169754, 0.260424941778183, 0.16406072676181793, 0.02591603808104992, 0.024914512410759926, 0.011016984470188618, 0.002211573300883174, 0.008068648166954517, 0.038686588406562805, 0.0070191118866205215, 0.004672036971896887, 0.014840971678495407], [0.015155582688748837, 0.005488819442689419, 0.002595648868009448, 0.008840768598020077, 0.004112394526600838, 0.003162336302921176, 0.007621862459927797, 0.005899600684642792, 0.05239646136760712, 0.10142732411623001, 0.2788045406341553, 0.2814454138278961, 0.11093267798423767, 0.029646359384059906, 0.011243685148656368, 0.0030250081326812506, 0.016827145591378212, 0.03034067153930664, 0.005494175478816032, 0.007987960241734982, 0.017551563680171967], [0.010163769125938416, 0.0018053610110655427, 0.0015560727333649993, 0.0009363700519315898, 0.0016723234439268708, 0.00028849157388322055, 0.003061899682506919, 0.0009583144565112889, 0.02126561850309372, 0.008969200775027275, 0.06949542462825775, 0.5480253100395203, 0.22510911524295807, 0.030847907066345215, 0.0280635766685009, 0.0018990051466971636, 0.004206815268844366, 0.028093982487916946, 0.00637474050745368, 0.0032339259050786495, 0.0039727771654725075], [0.0032149236649274826, 0.0023714664857834578, 0.0014776403550058603, 0.003669431433081627, 0.0012081364402547479, 0.001559944823384285, 0.005219271406531334, 0.0019702932331711054, 0.005153017584234476, 0.009344919584691525, 0.03879793360829353, 0.26400426030158997, 0.4184422492980957, 0.041996922343969345, 0.0571201927959919, 0.005680154077708721, 0.06272977590560913, 0.010441385209560394, 0.017901767045259476, 0.018764086067676544, 0.02893218956887722], [0.0032239218708127737, 0.000970585155300796, 4.18890303990338e-05, 0.0012878812849521637, 0.0008047212613746524, 0.0006022455636411905, 0.005439943168312311, 0.0004544399562291801, 0.0018333658808842301, 0.0015046005137264729, 0.004875514656305313, 0.003079012967646122, 0.5419045090675354, 0.08043407648801804, 0.17912693321704865, 0.014387999661266804, 0.06788952648639679, 0.015631526708602905, 0.015061755664646626, 0.021410152316093445, 0.040035344660282135], [0.0008833759929984808, 0.00025588818243704736, 0.00038604848668910563, 0.000667899614199996, 0.00020010091247968376, 0.00019506242824718356, 0.0010773201938718557, 0.0002602212771307677, 0.0015525267226621509, 0.003356881206855178, 0.0021122314501553774, 0.013189826160669327, 0.049124911427497864, 0.019521251320838928, 0.3654317855834961, 0.013063540682196617, 0.15567202866077423, 0.013393652625381947, 0.18550167977809906, 0.12260404229164124, 0.051549673080444336], [0.019708815962076187, 0.007834536954760551, 0.004898944869637489, 0.01054946705698967, 0.00362976361066103, 0.002266267780214548, 0.006892105098813772, 0.004103284794837236, 0.028244784101843834, 0.017767762765288353, 0.031175270676612854, 0.031119387596845627, 0.052280448377132416, 0.05514136329293251, 0.08665073662996292, 0.02423357218503952, 0.18489500880241394, 0.08145688474178314, 0.10972412675619125, 0.11770235002040863, 0.11972516030073166], [0.00661893468350172, 0.0037181300576776266, 0.005119342356920242, 0.0008010446326807141, 0.00019178053480572999, 0.00034129616688005626, 0.0013963280944153666, 0.00019360310398042202, 0.00411782693117857, 0.008759168907999992, 0.002258825581520796, 0.006532345898449421, 0.001614320557564497, 0.009801953099668026, 0.015698913484811783, 0.006939819548279047, 0.04899497702717781, 0.06884733587503433, 0.6490777134895325, 0.09349361807107925, 0.06548269838094711], [0.01436922512948513, 0.004493890330195427, 0.0022912416607141495, 0.001716152997687459, 0.00023403011437039822, 0.00032477828790433705, 0.0019191172905266285, 0.00037678860826417804, 0.006760432850569487, 0.002767512807622552, 0.009156947955489159, 0.012564340606331825, 0.003611467545852065, 0.014640473760664463, 0.022324448451399803, 0.008110510185360909, 0.04770425707101822, 0.11919134110212326, 0.42839762568473816, 0.20199571549892426, 0.09704970568418503], [0.012648561038076878, 0.003619423136115074, 0.005892876535654068, 0.0025477642193436623, 0.000602042069658637, 9.83735008048825e-05, 0.001559451688081026, 0.0001872650464065373, 0.0036789756268262863, 0.0008537278044968843, 0.0030271289870142937, 0.004069401882588863, 0.002900022314861417, 0.0101074343547225, 0.004807401914149523, 0.0016095079481601715, 0.012043368071317673, 0.09818067401647568, 0.3852148950099945, 0.2954145073890686, 0.15093715488910675], [0.18116316199302673, 0.03618670254945755, 0.020769696682691574, 0.030189145356416702, 0.010267334058880806, 0.005785062443464994, 0.012298041023314, 0.005528891924768686, 0.05008850246667862, 0.01027949433773756, 0.03732576221227646, 0.02413460612297058, 0.022794608026742935, 0.08399850875139236, 0.012953334487974644, 0.005639251321554184, 0.014256184920668602, 0.20739156007766724, 0.04337212070822716, 0.04958254471421242, 0.13599544763565063], [0.14698025584220886, 0.006578844506293535, 0.009465917944908142, 0.011780373752117157, 0.035614971071481705, 0.011740592308342457, 0.027721693739295006, 0.0020298415329307318, 0.013783312402665615, 0.00552318524569273, 0.0036359766963869333, 0.0029880062211304903, 0.014654980972409248, 0.06786271929740906, 0.023266423493623734, 0.008364363573491573, 0.004629753064364195, 0.1576692759990692, 0.01020872127264738, 0.06843268871307373, 0.36706817150115967], [0.056797049939632416, 0.0009393225191161036, 0.0009914227994158864, 0.006552108563482761, 0.005821211729198694, 0.0038582910783588886, 0.01459256000816822, 0.003693722654134035, 0.009911496192216873, 0.0025552494917064905, 0.00425568176433444, 0.0038700727745890617, 0.008251860737800598, 0.04698193818330765, 0.010087084956467152, 0.003965012263506651, 0.009972170926630497, 0.09717497229576111, 0.016560684889554977, 0.10006186366081238, 0.593106210231781], [0.16519580781459808, 0.02597242034971714, 0.05951512232422829, 0.014024411328136921, 0.030574694275856018, 0.011489405296742916, 0.06624899804592133, 0.008674141019582748, 0.0479302853345871, 0.01155855692923069, 0.010889681056141853, 0.01153944805264473, 0.009539462625980377, 0.052565205842256546, 0.01935185119509697, 0.0049395267851650715, 0.009869711473584175, 0.22478704154491425, 0.043219078332185745, 0.02031324990093708, 0.1518019586801529]], [[0.025451503694057465, 0.0429069958627224, 0.09703932702541351, 0.03190627321600914, 0.056821927428245544, 0.025696611031889915, 0.02991005778312683, 0.0729176327586174, 0.05201532691717148, 0.04520801082253456, 0.03325851634144783, 0.09284211695194244, 0.05019198730587959, 0.054286643862724304, 0.02732442319393158, 0.007080080918967724, 0.10239671915769577, 0.06363223493099213, 0.04835817962884903, 0.017806250602006912, 0.022949105128645897], [0.04368765652179718, 0.02419646643102169, 0.039089400321245193, 0.029416726902127266, 0.02723577618598938, 0.008786889724433422, 0.03817680478096008, 0.04465010017156601, 0.046735599637031555, 0.07767912745475769, 0.05356650799512863, 0.1402214765548706, 0.05785902217030525, 0.02866925299167633, 0.01834813877940178, 0.004922700114548206, 0.04586024209856987, 0.025718064978718758, 0.052212025970220566, 0.04540804401040077, 0.1475599706172943], [0.04364969581365585, 0.055170778185129166, 0.010303434915840626, 0.009137740358710289, 0.017139596864581108, 0.016616424545645714, 0.013891562819480896, 0.05540689453482628, 0.128432035446167, 0.05752933770418167, 0.10182112455368042, 0.030697017908096313, 0.04885753616690636, 0.11625199764966965, 0.02250346913933754, 0.0076066795736551285, 0.0653398409485817, 0.10369578003883362, 0.013069157488644123, 0.037213005125522614, 0.04566694051027298], [0.04094763100147247, 0.03059781715273857, 0.00667788228020072, 0.00969990435987711, 0.012193429283797741, 0.01214128453284502, 0.014429522678256035, 0.015619168989360332, 0.08861259371042252, 0.07978977262973785, 0.08980787545442581, 0.036459457129240036, 0.05775060877203941, 0.09504814445972443, 0.01697954162955284, 0.009117788635194302, 0.02320813201367855, 0.10213952511548996, 0.03195253014564514, 0.04568299278616905, 0.18114425241947174], [0.022133830934762955, 0.021321790292859077, 0.01161692664027214, 0.006656761281192303, 0.02374410070478916, 0.007623766548931599, 0.004892565775662661, 0.027528420090675354, 0.06547866761684418, 0.03516969457268715, 0.10406354814767838, 0.11549847573041916, 0.1516372412443161, 0.06914787739515305, 0.015348643995821476, 0.002942323451861739, 0.03455503284931183, 0.045186083763837814, 0.04908062517642975, 0.07147705554962158, 0.11489655077457428], [0.018219279125332832, 0.03556934744119644, 0.02657300978899002, 0.010426645167171955, 0.01983349770307541, 0.010412817820906639, 0.006093028001487255, 0.028874481096863747, 0.09900404512882233, 0.053875017911195755, 0.06913843750953674, 0.07481466233730316, 0.08794249594211578, 0.13436678051948547, 0.016710614785552025, 0.006925372406840324, 0.030206717550754547, 0.1312052458524704, 0.028994714841246605, 0.04727843776345253, 0.06353535503149033], [0.02974916622042656, 0.056200139224529266, 0.011512449011206627, 0.02428651601076126, 0.010038753040134907, 0.017265383154153824, 0.005026595667004585, 0.03767598047852516, 0.1118752583861351, 0.022466415539383888, 0.09830661118030548, 0.023060087114572525, 0.024140864610671997, 0.14984701573848724, 0.031061381101608276, 0.015176413580775261, 0.04270663112401962, 0.15294940769672394, 0.00902622938156128, 0.03177250921726227, 0.09585627168416977], [0.051834896206855774, 0.02074446529150009, 0.0061067258939146996, 0.008088141679763794, 0.008890826255083084, 0.004875734448432922, 0.011732259765267372, 0.01401520986109972, 0.05145450308918953, 0.03193334490060806, 0.062035974115133286, 0.034716684371232986, 0.047203682363033295, 0.06184851750731468, 0.009417944587767124, 0.006049232091754675, 0.042208582162857056, 0.07433492690324783, 0.024850478395819664, 0.07106416672468185, 0.3565935790538788], [0.05623374879360199, 0.046955566853284836, 0.013533047400414944, 0.021497676149010658, 0.01071043498814106, 0.006759298034012318, 0.00917169451713562, 0.021102391183376312, 0.07111576199531555, 0.021574141457676888, 0.08552936464548111, 0.052472107112407684, 0.02940361760556698, 0.07637438923120499, 0.01362585835158825, 0.009190084412693977, 0.03620230033993721, 0.09090162068605423, 0.010706499218940735, 0.026034142822027206, 0.29090628027915955], [0.013361340388655663, 0.03663591668009758, 0.02442571520805359, 0.013688850216567516, 0.012663151137530804, 0.0073272427543997765, 0.002795100212097168, 0.018452536314725876, 0.07422947883605957, 0.01322608720511198, 0.04747755825519562, 0.048389919102191925, 0.049439605325460434, 0.1255725622177124, 0.013490106910467148, 0.005204021465033293, 0.03493957221508026, 0.17210453748703003, 0.019053200259804726, 0.03305870667099953, 0.2344648391008377], [0.0716470256447792, 0.022726640105247498, 0.008202187716960907, 0.014842868782579899, 0.006842376198619604, 0.0047360556200146675, 0.008040310814976692, 0.01515529491007328, 0.033002451062202454, 0.018384087830781937, 0.04649287089705467, 0.03494343161582947, 0.022961445152759552, 0.03645435720682144, 0.019968435168266296, 0.008036400191485882, 0.03448713943362236, 0.042364004999399185, 0.032572273164987564, 0.061310309916734695, 0.4568301737308502], [0.07486339658498764, 0.028232241049408913, 0.00508628087118268, 0.007346970494836569, 0.005506222136318684, 0.005298707168549299, 0.003887410741299391, 0.01020472589880228, 0.05518687143921852, 0.01753978058695793, 0.04759587347507477, 0.01709013804793358, 0.019792087376117706, 0.08352843672037125, 0.016382671892642975, 0.004004885908216238, 0.031285859644412994, 0.12391579896211624, 0.01977423019707203, 0.05574820563197136, 0.36772918701171875], [0.04345963895320892, 0.0310746468603611, 0.01149489264935255, 0.009572426788508892, 0.012527587823569775, 0.006424311548471451, 0.0038162432610988617, 0.01413705199956894, 0.0706038698554039, 0.020290976390242577, 0.06033723056316376, 0.040733546018600464, 0.043734483420848846, 0.09397777915000916, 0.012637702748179436, 0.0035477892961353064, 0.02286640740931034, 0.1230887919664383, 0.04295583814382553, 0.07562793046236038, 0.25709086656570435], [0.02694866433739662, 0.06678207218647003, 0.019394032657146454, 0.02300160937011242, 0.014965776354074478, 0.011512493714690208, 0.009692971594631672, 0.021361028775572777, 0.11819542199373245, 0.021635061129927635, 0.08423829823732376, 0.03655417263507843, 0.026631934568285942, 0.13771672546863556, 0.00835609994828701, 0.011298048309981823, 0.02031249739229679, 0.20804880559444427, 0.007596154697239399, 0.021895045414566994, 0.10386309772729874], [0.010955624282360077, 0.04885274916887283, 0.041311874985694885, 0.013115332461893559, 0.013329681009054184, 0.014139323495328426, 0.006484726443886757, 0.02339465357363224, 0.09895507991313934, 0.03854752704501152, 0.04241624101996422, 0.031158871948719025, 0.032694872468709946, 0.13367386162281036, 0.011426900513470173, 0.010483196936547756, 0.023871731013059616, 0.2309621423482895, 0.029933234676718712, 0.053806331008672714, 0.09048599749803543], [0.015315855853259563, 0.05764976143836975, 0.011877750046551228, 0.011023139581084251, 0.008067401126027107, 0.006482934113591909, 0.006546019110828638, 0.0230211541056633, 0.13059136271476746, 0.017168128862977028, 0.06438670307397842, 0.01683397963643074, 0.01981465332210064, 0.15514002740383148, 0.015448144637048244, 0.006771489512175322, 0.04351810738444328, 0.23917241394519806, 0.022575130686163902, 0.03684629872441292, 0.09174947440624237], [0.028201989829540253, 0.04802181199193001, 0.009617351926863194, 0.015981458127498627, 0.013286810368299484, 0.0072968085296452045, 0.009202023036777973, 0.026695752516388893, 0.12420541048049927, 0.027684906497597694, 0.07656528055667877, 0.019789978861808777, 0.03108418546617031, 0.1178940013051033, 0.010338567197322845, 0.007102515548467636, 0.04075271636247635, 0.18426579236984253, 0.02508467622101307, 0.044277362525463104, 0.132650688290596], [0.02082018554210663, 0.0939430370926857, 0.014780029654502869, 0.022331900894641876, 0.010701498948037624, 0.0116014014929533, 0.0064846305176615715, 0.019697142764925957, 0.15018190443515778, 0.013703911565244198, 0.08187991380691528, 0.017920920625329018, 0.012877694331109524, 0.1702079027891159, 0.004300675820559263, 0.012353446334600449, 0.012365174479782581, 0.2813417911529541, 0.0013537672348320484, 0.00524052232503891, 0.03591251000761986], [0.05275009572505951, 0.10022037476301193, 0.019834859296679497, 0.018712881952524185, 0.014480646699666977, 0.011378313414752483, 0.005019201431423426, 0.09243276715278625, 0.09155876934528351, 0.06700637191534042, 0.044690851122140884, 0.011902359314262867, 0.024757754057645798, 0.12862400710582733, 0.029452884569764137, 0.01161383930593729, 0.0446375235915184, 0.13097457587718964, 0.007611732929944992, 0.03597864881157875, 0.05636148899793625], [0.06829024106264114, 0.04849593713879585, 0.018387047573924065, 0.015896594151854515, 0.011464300565421581, 0.007196582853794098, 0.007746138609945774, 0.02588941529393196, 0.08117341995239258, 0.04541778191924095, 0.05560307949781418, 0.03095730021595955, 0.033089835196733475, 0.09565439820289612, 0.019776010885834694, 0.014195161871612072, 0.038101669400930405, 0.13231916725635529, 0.019372057169675827, 0.037817392498254776, 0.19315654039382935], [0.013179917819797993, 0.02490759640932083, 0.14532746374607086, 0.06603598594665527, 0.038450438529253006, 0.00795187707990408, 0.07241781055927277, 0.08945398032665253, 0.021123282611370087, 0.08269109576940536, 0.020206011831760406, 0.16010844707489014, 0.036379944533109665, 0.007927187718451023, 0.019694853574037552, 0.004426524043083191, 0.08645963668823242, 0.005207763519138098, 0.05112585797905922, 0.028587911278009415, 0.01833643764257431]], [[0.4594366252422333, 0.006344419438391924, 0.012517308816313744, 0.05330480635166168, 0.0056455968879163265, 0.0049734581261873245, 0.02472880855202675, 0.0055701714009046555, 0.016514431685209274, 0.05749695748090744, 0.005451396107673645, 0.011070223525166512, 0.00893400702625513, 0.021734435111284256, 0.04481500759720802, 0.006376355420798063, 0.031059741973876953, 0.09782455116510391, 0.09760656207799911, 0.004427610896527767, 0.024167533963918686], [0.10262897610664368, 0.040595490485429764, 0.039243604987859726, 0.06619817018508911, 0.019872738048434258, 0.030222676694393158, 0.04031704366207123, 0.017226416617631912, 0.02807869017124176, 0.13347628712654114, 0.018726404756307602, 0.032327041029930115, 0.030178328976035118, 0.03547626733779907, 0.05979857221245766, 0.0320608951151371, 0.03176691383123398, 0.05899389833211899, 0.06584866344928741, 0.012064972892403603, 0.10489793121814728], [0.14073710143566132, 0.05717603862285614, 0.01535730343312025, 0.02635994181036949, 0.010880048386752605, 0.018127625808119774, 0.013190841302275658, 0.0076285675168037415, 0.05363069847226143, 0.07167360931634903, 0.025853939354419708, 0.014675200916826725, 0.0325319729745388, 0.08608922362327576, 0.02906140312552452, 0.008158707059919834, 0.017010118812322617, 0.18449769914150238, 0.03408866375684738, 0.013372529298067093, 0.13989880681037903], [0.08492417633533478, 0.037020325660705566, 0.030140671879053116, 0.046713121235370636, 0.02937140315771103, 0.038472775369882584, 0.015525726601481438, 0.018218427896499634, 0.036633919924497604, 0.10773806273937225, 0.024147648364305496, 0.024160083383321762, 0.04203594848513603, 0.05780907720327377, 0.11108549684286118, 0.011243931949138641, 0.020787721499800682, 0.09922467917203903, 0.04280656576156616, 0.013929582200944424, 0.1080106571316719], [0.10862990468740463, 0.044151950627565384, 0.017457010224461555, 0.03008158877491951, 0.005111246835440397, 0.01839425601065159, 0.017693540081381798, 0.028989778831601143, 0.05807091295719147, 0.07848913967609406, 0.027529217302799225, 0.01550314947962761, 0.012273389846086502, 0.0947084128856659, 0.07757329940795898, 0.016060173511505127, 0.04475801810622215, 0.18515846133232117, 0.03177490830421448, 0.014460784383118153, 0.0731307789683342], [0.10758791118860245, 0.058369625359773636, 0.048070263117551804, 0.06728250533342361, 0.018912851810455322, 0.0201572198420763, 0.010548025369644165, 0.030468333512544632, 0.044788770377635956, 0.055202726274728775, 0.02235942706465721, 0.023597801104187965, 0.020038455724716187, 0.05858722701668739, 0.07157380133867264, 0.008166173473000526, 0.03914085030555725, 0.13037165999412537, 0.039685096591711044, 0.011498096399009228, 0.11359308660030365], [0.04681479558348656, 0.07166797667741776, 0.015395788475871086, 0.056243542581796646, 0.031668152660131454, 0.01677384413778782, 0.004464613739401102, 0.040219902992248535, 0.053699396550655365, 0.11084454506635666, 0.03174484893679619, 0.016580943018198013, 0.08058726787567139, 0.07421183586120605, 0.06964991241693497, 0.009822206571698189, 0.040100980550050735, 0.09504909813404083, 0.04804260656237602, 0.019375232979655266, 0.06704257428646088], [0.10709423571825027, 0.036865029484033585, 0.017049947753548622, 0.058672573417425156, 0.006643781438469887, 0.017618905752897263, 0.016235515475273132, 0.016611766070127487, 0.029059998691082, 0.13129465281963348, 0.013879306614398956, 0.011340645141899586, 0.009494859725236893, 0.04726587235927582, 0.1134670078754425, 0.012198896147310734, 0.039484553039073944, 0.09689313173294067, 0.09344382584095001, 0.01624496839940548, 0.10914044827222824], [0.03326418623328209, 0.09051062166690826, 0.03448064625263214, 0.02552550658583641, 0.04543457180261612, 0.04832339659333229, 0.024030208587646484, 0.02269812300801277, 0.08017844706773758, 0.05421126261353493, 0.08943630754947662, 0.043188635259866714, 0.05617952346801758, 0.08076559752225876, 0.011533867567777634, 0.05732253938913345, 0.02312920056283474, 0.09016407281160355, 0.011515636928379536, 0.016207126900553703, 0.06190040335059166], [0.07877719402313232, 0.053067080676555634, 0.033546142280101776, 0.04098175838589668, 0.03226815536618233, 0.019808568060398102, 0.024621687829494476, 0.010828409343957901, 0.015185658819973469, 0.06408920884132385, 0.012802875600755215, 0.02142026275396347, 0.045493509620428085, 0.02031777612864971, 0.050302062183618546, 0.00918749999254942, 0.024704748764634132, 0.025737497955560684, 0.149521142244339, 0.017519908025860786, 0.24981890618801117], [0.06978415697813034, 0.06907787173986435, 0.030949624255299568, 0.020944934338331223, 0.01767849549651146, 0.02963068149983883, 0.03380288556218147, 0.024292152374982834, 0.07493393868207932, 0.07752477377653122, 0.05303465202450752, 0.03189542144536972, 0.027056803926825523, 0.08563890308141708, 0.02846883237361908, 0.03728500381112099, 0.036261316388845444, 0.1308046579360962, 0.029474463313817978, 0.015861045569181442, 0.07559938728809357], [0.06885656714439392, 0.07528193295001984, 0.015278329141438007, 0.01651059463620186, 0.01518044900149107, 0.02339702472090721, 0.01689622551202774, 0.01078725140541792, 0.08176553249359131, 0.05884017050266266, 0.040786031633615494, 0.01488538458943367, 0.04325522109866142, 0.11981844156980515, 0.020891182124614716, 0.0105905057862401, 0.019282357767224312, 0.22255180776119232, 0.035313259810209274, 0.019950298592448235, 0.06988143175840378], [0.05826897546648979, 0.04890211671590805, 0.012901229783892632, 0.01030237041413784, 0.0031686327420175076, 0.014677303843200207, 0.022204387933015823, 0.019289620220661163, 0.08143419027328491, 0.0848136693239212, 0.033167313784360886, 0.01269611343741417, 0.010349771939218044, 0.13927286863327026, 0.03997337818145752, 0.010242259129881859, 0.028061088174581528, 0.26680058240890503, 0.04843766987323761, 0.01636418141424656, 0.03867240250110626], [0.032064829021692276, 0.09298209100961685, 0.038030125200748444, 0.026216957718133926, 0.06223466619849205, 0.0534295029938221, 0.022464636713266373, 0.01805419661104679, 0.07637440413236618, 0.04970189929008484, 0.092753104865551, 0.04487759247422218, 0.07336704432964325, 0.07388152927160263, 0.007377964910119772, 0.0604916512966156, 0.016673322767019272, 0.07700823992490768, 0.008043232373893261, 0.018120067194104195, 0.055852945894002914], [0.056603457778692245, 0.04154141619801521, 0.04670903831720352, 0.15875136852264404, 0.06715992093086243, 0.029789244756102562, 0.011621350422501564, 0.01776248961687088, 0.013033964671194553, 0.11869839578866959, 0.007606096565723419, 0.021270673722028732, 0.06003003939986229, 0.017612069845199585, 0.04468613117933273, 0.00639322167262435, 0.030319927260279655, 0.026461511850357056, 0.05205734446644783, 0.014313725754618645, 0.15757860243320465], [0.2025662511587143, 0.04282340779900551, 0.0166692566126585, 0.03513859957456589, 0.010919750668108463, 0.01884520798921585, 0.013608690351247787, 0.021909162402153015, 0.023848704993724823, 0.06292146444320679, 0.009819705039262772, 0.00948421936482191, 0.013244072906672955, 0.03706099092960358, 0.07860837131738663, 0.00948489923030138, 0.04609474167227745, 0.08082360774278641, 0.07828407734632492, 0.009850523434579372, 0.17799431085586548], [0.05548379570245743, 0.039117876440286636, 0.027280038222670555, 0.07231299579143524, 0.014598165638744831, 0.024545343592762947, 0.02765520289540291, 0.029977016150951385, 0.025164633989334106, 0.12991352379322052, 0.014677084982395172, 0.018389780074357986, 0.019807958975434303, 0.035079509019851685, 0.11754392832517624, 0.017808731645345688, 0.060194261372089386, 0.053281139582395554, 0.1282433718442917, 0.0224542748183012, 0.06647126376628876], [0.014406590722501278, 0.09310963749885559, 0.024905269965529442, 0.02670103684067726, 0.10019586980342865, 0.073036327958107, 0.013295095413923264, 0.019506137818098068, 0.07741257548332214, 0.02037157490849495, 0.13312026858329773, 0.0373150110244751, 0.08098992705345154, 0.06671320647001266, 0.003835426876321435, 0.10060493648052216, 0.014503766782581806, 0.05180759355425835, 0.0027267264667898417, 0.012836110778152943, 0.032606951892375946], [0.054721273481845856, 0.023638296872377396, 0.07149016857147217, 0.11586745083332062, 0.04372469335794449, 0.024692628532648087, 0.030718324705958366, 0.02419593371450901, 0.0071312543004751205, 0.08054984360933304, 0.004661798942834139, 0.038258422166109085, 0.052546367049217224, 0.01046422403305769, 0.14545580744743347, 0.005325320176780224, 0.03682611137628555, 0.01392633281648159, 0.11121895164251328, 0.00898786447942257, 0.09559893608093262], [0.12730292975902557, 0.023361025378108025, 0.015487250871956348, 0.06629496067762375, 0.01793026179075241, 0.016947871074080467, 0.026234034448862076, 0.018572289496660233, 0.015044310130178928, 0.15421311557292938, 0.009107752703130245, 0.014482207596302032, 0.026080144569277763, 0.022124875336885452, 0.10727623850107193, 0.0075576044619083405, 0.061966005712747574, 0.034208331257104874, 0.08815190941095352, 0.008293907158076763, 0.13936299085617065], [0.03728703409433365, 0.005413650535047054, 0.01810476928949356, 0.07067444175481796, 0.014822877012193203, 0.0066230446100234985, 0.04332808032631874, 0.008465797640383244, 0.0024677005130797625, 0.16300979256629944, 0.0016010901890695095, 0.01159078162163496, 0.01832975260913372, 0.0028348907362669706, 0.20189224183559418, 0.004801168572157621, 0.03244677931070328, 0.004682019352912903, 0.3236423432826996, 0.007873890921473503, 0.020107870921492577]], [[0.03053116425871849, 0.029189934954047203, 0.11477944999933243, 0.08721428364515305, 0.06647765636444092, 0.01634463295340538, 0.05087297409772873, 0.0332648940384388, 0.0381755456328392, 0.1533897966146469, 0.033411938697099686, 0.08724403381347656, 0.061283085495233536, 0.02045917697250843, 0.015764320269227028, 0.021929677575826645, 0.02371949329972267, 0.0197005532681942, 0.033626001328229904, 0.01886221580207348, 0.04375917837023735], [0.003711447585374117, 0.009373744949698448, 0.1430014669895172, 0.12522439658641815, 0.11800479888916016, 0.01836353726685047, 0.05221117287874222, 0.029415849596261978, 0.04286307096481323, 0.10621526092290878, 0.039290476590394974, 0.18517310917377472, 0.033596087247133255, 0.011959893628954887, 0.02561158873140812, 0.0008154573733918369, 0.0060662878677248955, 0.00900944508612156, 0.00549688283354044, 0.004230661317706108, 0.03036537952721119], [0.019875435158610344, 0.007939295843243599, 0.02321716770529747, 0.014625439420342445, 0.05262091010808945, 0.031807444989681244, 0.01191315520554781, 0.04782918095588684, 0.09714096039533615, 0.18535424768924713, 0.07092748582363129, 0.13162757456302643, 0.0446106418967247, 0.06326524913311005, 0.05498633161187172, 0.00405591307207942, 0.013160553760826588, 0.04896601289510727, 0.04291125014424324, 0.021871989592909813, 0.011293808929622173], [0.0038579152897000313, 0.030081305652856827, 0.027217786759138107, 0.06518048048019409, 0.014819709584116936, 0.07231178134679794, 0.03824826702475548, 0.08152487874031067, 0.18688425421714783, 0.016138657927513123, 0.13490132987499237, 0.12149783968925476, 0.012315095402300358, 0.05765458568930626, 0.014369044452905655, 0.007319331634789705, 0.016650037840008736, 0.08026400953531265, 0.000968162203207612, 0.0026078070513904095, 0.015187685377895832], [0.005257055629044771, 0.0019001744221895933, 0.0005667355144396424, 0.004826611839234829, 0.050499893724918365, 0.008604384958744049, 0.022493552416563034, 0.024607529863715172, 0.10363813489675522, 0.10028392821550369, 0.10019984096288681, 0.05960167199373245, 0.3584973216056824, 0.031988661736249924, 0.021426623687148094, 0.002101287478581071, 0.02783798798918724, 0.035749953240156174, 0.01861737109720707, 0.006504443474113941, 0.014796789735555649], [0.016915129497647285, 0.0049681211821734905, 0.03529635816812515, 0.0014536974485963583, 0.00179832533467561, 0.018964219838380814, 0.02868819795548916, 0.01877078227698803, 0.09155017882585526, 0.014191490598022938, 0.07735766470432281, 0.5642411112785339, 0.012000258080661297, 0.020414313301444054, 0.011598245240747929, 0.0012782799312844872, 0.0062073213048279285, 0.030576050281524658, 0.01956997811794281, 0.007270379923284054, 0.01688992604613304], [0.0062427702359855175, 0.0023085621651262045, 0.004725162871181965, 0.0023310582619160414, 0.0010970811126753688, 0.0001547273132018745, 0.0029726121574640274, 0.0015692136948928237, 0.007610772270709276, 0.9362392425537109, 0.005759831052273512, 0.004392377100884914, 0.007058058399707079, 0.0021965017076581717, 0.002455542329698801, 0.0011808692943304777, 0.0005815437179990113, 0.003746479982510209, 0.00327435159124434, 0.0006606547976844013, 0.0034426290076225996], [0.009658829309046268, 0.006880264729261398, 0.006756655406206846, 0.011954471468925476, 0.008050667122006416, 0.006203124299645424, 0.004738856106996536, 0.014957329258322716, 0.03476453199982643, 0.1314644068479538, 0.1041417047381401, 0.24363410472869873, 0.15931902825832367, 0.035190731287002563, 0.07974433153867722, 0.008021962828934193, 0.05334526672959328, 0.02721789851784706, 0.015276298858225346, 0.01798064075410366, 0.02069886587560177], [0.026490313932299614, 0.009068287909030914, 0.007648431695997715, 0.021569309756159782, 0.010464983992278576, 0.003811229020357132, 0.011548283509910107, 0.009647983126342297, 0.029380973428487778, 0.061382051557302475, 0.10315974056720734, 0.264688640832901, 0.15698327124118805, 0.03887372836470604, 0.06232837587594986, 0.0054985517635941505, 0.050734054297208786, 0.027247147634625435, 0.023299098014831543, 0.020662222057580948, 0.05551324412226677], [0.08817892521619797, 0.01572132669389248, 0.001295107533223927, 0.002170503605157137, 0.0010229517938569188, 0.002647890243679285, 0.018342699855566025, 0.0025450843386352062, 0.024107592180371284, 0.044918034225702286, 0.03978341072797775, 0.02326732687652111, 0.16167192161083221, 0.13173902034759521, 0.14175786077976227, 0.013957430608570576, 0.049437884241342545, 0.0655725821852684, 0.11056317389011383, 0.015281373634934425, 0.0460178442299366], [0.005620494484901428, 0.004007022827863693, 0.003725138958543539, 0.009779324755072594, 0.003914601635187864, 0.001708515570499003, 0.0090056536719203, 0.00487832585349679, 0.014696086756885052, 0.020725302398204803, 0.030267173424363136, 0.1324225217103958, 0.20052587985992432, 0.04581201821565628, 0.19494721293449402, 0.0053160120733082294, 0.08908937871456146, 0.021244993433356285, 0.04950638860464096, 0.050371162593364716, 0.10243681818246841], [0.005524158012121916, 0.0011523956200107932, 0.0011720802867785096, 0.0008738424512557685, 0.00047330246889032423, 0.0005157846608199179, 0.000579685322009027, 0.0010523245437070727, 0.007647443562746048, 0.005734152626246214, 0.0091857286170125, 0.03464497625827789, 0.03655370697379112, 0.05381203442811966, 0.11678270995616913, 0.009289177134633064, 0.05475526303052902, 0.038039304316043854, 0.40184566378593445, 0.19125604629516602, 0.029110252857208252], [0.006103983614593744, 0.0008619254222139716, 0.0002681366167962551, 0.002010997850447893, 0.010860532522201538, 0.0010542564559727907, 0.0006314727943390608, 0.0005045782891102135, 0.005152840167284012, 0.00177575065754354, 0.00554656283929944, 0.003806549124419689, 0.13367782533168793, 0.0210819523781538, 0.04173460602760315, 0.010210450738668442, 0.06999637186527252, 0.03621647134423256, 0.4589679539203644, 0.11581182479858398, 0.0737248882651329], [0.05459139496088028, 0.012420344166457653, 0.01089735422283411, 0.02581663616001606, 0.011751593090593815, 0.004027377348393202, 0.011462408117949963, 0.010354231111705303, 0.025054030120372772, 0.031164895743131638, 0.03295891731977463, 0.0360436737537384, 0.044880710542201996, 0.025199005380272865, 0.058781832456588745, 0.017865555360913277, 0.0952383279800415, 0.0437159538269043, 0.18110261857509613, 0.1021820455789566, 0.16449105739593506], [0.013527320697903633, 0.007857447490096092, 0.0014904201962053776, 0.005578987300395966, 0.000717245158739388, 0.0018031507497653365, 0.003392743645235896, 0.0005780483479611576, 0.0033312973100692034, 0.002357682678848505, 0.00212582154199481, 0.00045528507325798273, 0.002755013294517994, 0.008161547593772411, 0.01290164329111576, 0.013702794909477234, 0.01392006129026413, 0.01638909801840782, 0.7337225675582886, 0.12351276725530624, 0.03171905502676964], [0.10084221512079239, 0.010375563986599445, 0.008506091311573982, 0.006881211884319782, 0.005677179899066687, 0.0030488090123981237, 0.0013190496247261763, 0.004062468186020851, 0.014460384845733643, 0.009400594048202038, 0.015082997269928455, 0.01325568649917841, 0.0193866565823555, 0.027502892538905144, 0.03298845887184143, 0.015365056693553925, 0.0330476276576519, 0.07353714853525162, 0.30588480830192566, 0.19051013886928558, 0.10886498540639877], [0.03399641439318657, 0.014488310553133488, 0.023759501054883003, 0.013153936713933945, 0.009965580888092518, 0.01168294157832861, 0.006332613527774811, 0.012891501188278198, 0.01931004412472248, 0.00930431205779314, 0.016464577987790108, 0.01734733395278454, 0.01670249179005623, 0.03447137773036957, 0.0367639884352684, 0.01310761645436287, 0.03113671950995922, 0.08441262692213058, 0.14518621563911438, 0.16938115656375885, 0.2801406979560852], [0.26202699542045593, 0.046298857778310776, 0.03127136081457138, 0.0440199077129364, 0.019894972443580627, 0.010128404013812542, 0.030318550765514374, 0.027863215655088425, 0.048067495226860046, 0.02845955453813076, 0.04147880896925926, 0.023232476785779, 0.022765137255191803, 0.05077908933162689, 0.022968687117099762, 0.02236454002559185, 0.02703174203634262, 0.06300293654203415, 0.03985600918531418, 0.028305567800998688, 0.10986575484275818], [0.20323102176189423, 0.015400693751871586, 0.0004057880723848939, 0.0075147803872823715, 0.001985973911359906, 0.007364098913967609, 0.06468977779150009, 0.004957946483045816, 0.04754139110445976, 0.004286582116037607, 0.015804389491677284, 0.0005065916338935494, 0.0017395283794030547, 0.07498279213905334, 0.020044278353452682, 0.004812100902199745, 0.018741516396403313, 0.13827255368232727, 0.2334568053483963, 0.020439811050891876, 0.11382149159908295], [0.15749874711036682, 0.0016955452738329768, 0.0009421375580132008, 0.00217200699262321, 0.0020892072934657335, 0.005677012726664543, 0.02013024315237999, 0.0009456955594941974, 0.01375172846019268, 0.004677339922636747, 0.00649357121437788, 0.0030959646683186293, 0.0032555570360273123, 0.038553886115550995, 0.02110358513891697, 0.004861174151301384, 0.002572473371401429, 0.04357123002409935, 0.5128636360168457, 0.09832290560007095, 0.05572635680437088], [0.0195845365524292, 0.04180112108588219, 0.1572081595659256, 0.17579759657382965, 0.035248883068561554, 0.01544355507940054, 0.04564926400780678, 0.04612814635038376, 0.0857304036617279, 0.06893143057823181, 0.0489763580262661, 0.048120029270648956, 0.008948037400841713, 0.021582474932074547, 0.03565531224012375, 0.004932035692036152, 0.011949582025408745, 0.03263109177350998, 0.020662035793066025, 0.005551643669605255, 0.0694681853055954]], [[0.05014718323945999, 0.04011526703834534, 0.20312099158763885, 0.0852128341794014, 0.04199018329381943, 0.02493191882967949, 0.12107676267623901, 0.010275990702211857, 0.03638192638754845, 0.0288784708827734, 0.006665087305009365, 0.01791236735880375, 0.01867174729704857, 0.05790623649954796, 0.0014369161799550056, 0.004510651808232069, 0.01817476376891136, 0.15926414728164673, 0.03438233956694603, 0.024710724130272865, 0.014233423396945], [0.001603995100595057, 0.020746761932969093, 0.7692571878433228, 0.06970328837633133, 0.04860489442944527, 0.0022785936016589403, 0.018899699673056602, 0.002222682349383831, 0.006688287016004324, 0.018469814211130142, 0.0019051366252824664, 0.006215036381036043, 0.0026949362363666296, 0.0026551017072051764, 0.004652428440749645, 0.00032191225909627974, 0.0011046292493119836, 0.006439735181629658, 0.007108713965862989, 0.0064240810461342335, 0.0020031132735311985], [0.007585269398987293, 0.018158741295337677, 0.08547718822956085, 0.05634797737002373, 0.05046045407652855, 0.0006951317191123962, 0.42996639013290405, 0.010022653266787529, 0.18768279254436493, 0.007756844162940979, 0.06351925432682037, 0.004542060196399689, 0.004316162783652544, 0.018259016796946526, 0.0029053371399641037, 0.0002187798236263916, 0.00013509075506590307, 0.029499191790819168, 0.0041901362128555775, 0.014337873086333275, 0.003923638258129358], [0.00964199099689722, 0.029887262731790543, 0.03494333103299141, 0.006474128924310207, 0.09439397603273392, 0.29115015268325806, 0.2725459337234497, 0.01721743494272232, 0.06956880539655685, 0.028475577011704445, 0.043807048350572586, 0.01756361499428749, 0.0013941825600340962, 0.02550644800066948, 0.001856725662946701, 0.0017045674612745643, 0.0010375111596658826, 0.0374494343996048, 0.001967440592125058, 0.002945892745628953, 0.010468553751707077], [0.02205636538565159, 0.005992674734443426, 0.0019511062419041991, 0.00114335713442415, 0.0009069640655070543, 0.013164454139769077, 0.5225264430046082, 0.062087565660476685, 0.07350089401006699, 0.23787209391593933, 0.01646028645336628, 0.001051293802447617, 4.329446528572589e-05, 0.01585395820438862, 0.006804670672863722, 0.0006124565843492746, 0.0032256038393825293, 0.012565127573907375, 0.00022574140166398138, 0.0008413527393713593, 0.0011143386363983154], [0.0009960372699424624, 0.0008953165379352868, 0.0013703699223697186, 4.9892900278791785e-05, 0.0004075590113643557, 0.00035592433414421976, 0.8955800533294678, 0.03817354887723923, 0.032777924090623856, 0.0035315873101353645, 0.0029493169859051704, 0.010004031471908092, 0.0012635027524083853, 0.004334096796810627, 0.001913969055749476, 7.795989222358912e-05, 0.00023666422930546105, 0.00441485270857811, 0.0001844794169301167, 7.698493573116139e-05, 0.00040591065771877766], [0.0019423841731622815, 0.0011821098159998655, 3.106968506472185e-05, 0.0005027162842452526, 3.311971522634849e-05, 0.00016668647003825754, 0.0001466371031710878, 0.0020639661233872175, 0.07222923636436462, 0.8704540133476257, 0.0023122699931263924, 0.00010100455983774737, 0.00014376878971233964, 0.0049551911652088165, 0.0008825824479572475, 3.0008613975951448e-05, 0.00019743925076909363, 0.0409366674721241, 8.920671098167077e-05, 0.00011780003842432052, 0.0014820094220340252], [0.002993797417730093, 0.003658403642475605, 0.00987663958221674, 0.004137074574828148, 0.008737892843782902, 0.0007922767545096576, 0.008204218000173569, 0.012387732975184917, 0.10290826112031937, 0.7069231271743774, 0.027777867391705513, 0.038702163845300674, 0.026103127747774124, 0.007226737681776285, 0.015531638637185097, 0.0009999440517276525, 0.001017182134091854, 0.019359396770596504, 0.0003895600384566933, 0.0011189767392352223, 0.0011538704857230186], [0.01589473895728588, 0.007482495624572039, 0.014708857983350754, 0.0045817093923687935, 0.007233940530568361, 0.003104894421994686, 0.01282229833304882, 0.008609047159552574, 0.07212939858436584, 0.3985353112220764, 0.11635445803403854, 0.19899657368659973, 0.03846726939082146, 0.01563429832458496, 0.014917463064193726, 0.004769003484398127, 0.009942199103534222, 0.038962118327617645, 0.005553004331886768, 0.00639409339055419, 0.004906761460006237], [0.06310120970010757, 0.00784450862556696, 0.0008126638131216168, 0.0006221444928087294, 0.0001662771828705445, 0.0005210535600781441, 0.013418087735772133, 0.0021182980854064226, 0.13115912675857544, 0.03227711468935013, 0.34776633977890015, 0.11582039296627045, 0.020214591175317764, 0.05575793609023094, 0.005226939916610718, 0.0007306006154976785, 0.007973473519086838, 0.16671615839004517, 0.009153775870800018, 0.013922451995313168, 0.00467689661309123], [0.00986690167337656, 0.0014678275911137462, 0.0027461780700832605, 0.0011257112491875887, 0.002230529673397541, 0.001301205949857831, 0.005480771418660879, 0.0006382489227689803, 0.003296350594609976, 0.02637740597128868, 0.025437520816922188, 0.4255490303039551, 0.36758702993392944, 0.018643351271748543, 0.061429463326931, 0.0038176863454282284, 0.01130477711558342, 0.009750486351549625, 0.01063454058021307, 0.0062437462620437145, 0.005071129184216261], [0.010949458926916122, 0.0012891676742583513, 0.00016517358017154038, 0.00023181605502031744, 4.58172507933341e-05, 2.9306514989002608e-05, 0.027589473873376846, 0.0004463654477149248, 0.022466562688350677, 0.0015075347619131207, 0.08511539548635483, 0.08257348835468292, 0.3927379548549652, 0.16087035834789276, 0.09117477387189865, 0.0031816947739571333, 0.007292736321687698, 0.05071113631129265, 0.018587462604045868, 0.033863507211208344, 0.009170754812657833], [0.018382184207439423, 0.000946104119066149, 0.00016075963503681123, 2.9868628189433366e-05, 3.856235707644373e-06, 3.935318818548694e-05, 0.0015399918192997575, 0.00017117997049354017, 0.0037871082313358784, 0.009502967819571495, 0.002937102923169732, 0.0017899133963510394, 0.002550569362938404, 0.09631846100091934, 0.5633408427238464, 0.01453432161360979, 0.14395780861377716, 0.0234117042273283, 0.03463558107614517, 0.07449886947870255, 0.007461394648998976], [0.016130147501826286, 0.008692787028849125, 0.010652925819158554, 0.002616775454953313, 0.0034489198587834835, 0.003008501138538122, 0.019356949254870415, 0.004744336940348148, 0.02458871528506279, 0.03230536729097366, 0.00800266396254301, 0.01870546117424965, 0.04960091412067413, 0.07231676578521729, 0.29170116782188416, 0.04815855994820595, 0.15453273057937622, 0.09220972657203674, 0.059332411736249924, 0.046976979821920395, 0.03291717544198036], [0.007026201579719782, 0.002786804223433137, 3.390214260434732e-05, 0.0012990463292226195, 0.0004942581872455776, 7.934244786156341e-05, 0.00033966090995818377, 0.00013935183233115822, 0.012360037304461002, 0.0008564393501728773, 0.002414318500086665, 0.00015759895904920995, 0.02036135643720627, 0.03603279963135719, 0.09619193524122238, 0.010045568458735943, 0.05124619975686073, 0.20691776275634766, 0.4056638777256012, 0.12249363213777542, 0.02305985614657402], [0.009454402141273022, 0.007288617081940174, 0.0043365564197301865, 0.00046408423804678023, 0.0002740572381298989, 0.00024390990438405424, 0.0004719696589745581, 0.00029582646675407887, 0.0066578383557498455, 0.007191004231572151, 0.0026703134644776583, 0.009788516908884048, 0.004508060868829489, 0.018815401941537857, 0.09632924199104309, 0.0036154226399958134, 0.14316992461681366, 0.21137452125549316, 0.39083653688430786, 0.04071711003780365, 0.041496727615594864], [0.0029030158184468746, 0.009521926753222942, 0.005894086789339781, 0.0007237623212859035, 0.00017662170284893364, 0.0003438049170654267, 0.0002647297515068203, 5.285589213599451e-05, 0.0053144460543990135, 0.0032147555612027645, 0.0012238224735483527, 0.0025165220722556114, 0.003582934383302927, 0.01351186353713274, 0.026646889746189117, 0.0019554614555090666, 0.010379926301538944, 0.3645254075527191, 0.40837448835372925, 0.08683914691209793, 0.05203353986144066], [0.025921547785401344, 0.07122435420751572, 0.06032969802618027, 0.014424270950257778, 0.012097897939383984, 0.010721711441874504, 0.017381079494953156, 0.008117256686091423, 0.056009791791439056, 0.013517048209905624, 0.026385050266981125, 0.029625462368130684, 0.025579087436199188, 0.07893089205026627, 0.01034053135663271, 0.011235665529966354, 0.020864054560661316, 0.3367762267589569, 0.05167864263057709, 0.06523743271827698, 0.053602248430252075], [0.05395304784178734, 0.007252771407365799, 0.006319515872746706, 0.00508897053077817, 0.0009522325708530843, 0.0005105222808197141, 0.0061227367259562016, 0.00017362872313242406, 0.018532225862145424, 9.083645272767171e-05, 0.003470746800303459, 0.005129143130034208, 0.0010527002159506083, 0.054178811609745026, 0.0046278852969408035, 0.0005748584517277777, 0.0035085761919617653, 0.4215667247772217, 0.09269578009843826, 0.08340619504451752, 0.2307920902967453], [0.025880083441734314, 0.0017266127979382873, 0.0031242358963936567, 0.0035840568598359823, 0.014398138038814068, 0.000693401787430048, 0.0018247843254357576, 9.920977026922628e-05, 0.005711184348911047, 0.00016331191000062972, 0.0013474338920786977, 0.0014668519143015146, 0.011982440017163754, 0.0297138262540102, 0.0015196591848507524, 0.00031578270136378706, 0.002353312447667122, 0.17707328498363495, 0.5486785173416138, 0.014798857271671295, 0.1535450667142868], [0.021518545225262642, 0.08478167653083801, 0.044107481837272644, 0.0627046450972557, 0.022363800555467606, 0.019227929413318634, 0.0422380231320858, 0.01215212419629097, 0.0727432444691658, 0.013404756784439087, 0.018416138365864754, 0.005338489077985287, 0.005504684988409281, 0.07576362788677216, 0.006423952057957649, 0.003126777708530426, 0.01062228437513113, 0.30866649746894836, 0.028854191303253174, 0.05093354359269142, 0.09110747277736664]], [[0.011205130256712437, 0.01763704977929592, 0.011098995804786682, 0.019693590700626373, 0.022339168936014175, 0.015138678252696991, 2.2741820430383086e-05, 0.007292214781045914, 0.0685957744717598, 0.05804665759205818, 0.07976486533880234, 0.0468730702996254, 0.1969902068376541, 0.05033903568983078, 0.003494806122034788, 0.009565815329551697, 0.011637353338301182, 0.07385660707950592, 0.005111900623887777, 0.003590858541429043, 0.2877054512500763], [0.024337075650691986, 0.24270035326480865, 0.02329310216009617, 0.028526023030281067, 0.005902274511754513, 0.002654376206919551, 0.0043147834949195385, 0.014556501060724258, 0.0822896659374237, 0.004316164646297693, 0.024810610339045525, 0.0024751408491283655, 0.004188781138509512, 0.04806601628661156, 0.004236292559653521, 0.002061964478343725, 0.0141557352617383, 0.45082223415374756, 0.003972149454057217, 0.003185856156051159, 0.009134906344115734], [0.009200580418109894, 0.3242033123970032, 0.13162925839424133, 0.14056430757045746, 0.10943412035703659, 0.04983401671051979, 0.004358311649411917, 0.015707699581980705, 0.04075343906879425, 0.0008866974385455251, 0.015035264194011688, 0.0002621621242724359, 0.005189414601773024, 0.02497440204024315, 0.00017890107119455934, 0.0006829366320744157, 0.004889887757599354, 0.1153726875782013, 0.00035311360261403024, 0.005751292686909437, 0.0007382718031294644], [0.029267024248838425, 0.08061829209327698, 0.030803034082055092, 0.00842292420566082, 0.06495065242052078, 0.03128470852971077, 0.00035664919414557517, 0.07376153767108917, 0.12361124157905579, 0.007530308794230223, 0.05406441166996956, 0.0017773385625332594, 0.0026433365419507027, 0.09432314336299896, 0.001868493389338255, 0.0022769521456211805, 0.02188415639102459, 0.288135290145874, 0.0073890057392418385, 0.004987962543964386, 0.07004345953464508], [0.0006149753462523222, 0.03617490828037262, 0.5059306025505066, 0.35677993297576904, 0.011170909740030766, 0.02262401394546032, 0.0002926140441559255, 0.004966096021234989, 0.019507937133312225, 0.0025127774570137262, 0.013029742054641247, 0.005621753633022308, 6.949807720957324e-05, 0.00901883002370596, 0.00020741172193083912, 1.5135981811909005e-05, 0.00015166218508966267, 0.008713525719940662, 2.032839438470546e-05, 0.0007794855628162622, 0.001797778531908989], [0.004800883121788502, 0.006262967828661203, 0.0026015229523181915, 0.005720831919461489, 0.04396440461277962, 0.004930539056658745, 0.7961316704750061, 0.028362270444631577, 0.028484966605901718, 0.00029111202456988394, 0.013233759440481663, 0.0029578679241240025, 0.0004761457385029644, 0.025413857772946358, 0.00018901930889114738, 0.0007464709342457354, 0.0005990058998577297, 0.033292870968580246, 1.753734250087291e-05, 5.475265788845718e-05, 0.001467512222006917], [0.0037446615751832724, 0.022551026195287704, 0.002917642006650567, 0.0009372374042868614, 0.010020718909800053, 0.1977657824754715, 0.0015481276204809546, 0.38013437390327454, 0.10816381871700287, 0.012639760039746761, 0.0084807388484478, 0.0006087267538532615, 0.0003239523502998054, 0.09195664525032043, 0.0005261049373075366, 0.000785605690907687, 0.006534070707857609, 0.14698204398155212, 0.00012960057938471437, 5.352987864171155e-05, 0.0031958117615431547], [0.00047983083641156554, 0.0011797304032370448, 0.00024201800988521427, 0.001770149334333837, 0.0009987328667193651, 0.0289219431579113, 0.9394986629486084, 0.007897403091192245, 0.010750680230557919, 0.000786414195317775, 0.0013960878131911159, 0.00010458986798767, 9.84001235337928e-05, 0.002519261557608843, 0.0007074273307807744, 0.00036339505459181964, 1.1303194696665742e-05, 0.0018633737927302718, 0.00015841018466744572, 9.976803994504735e-06, 0.00024224244407378137], [0.03824799507856369, 0.025178339332342148, 0.00465000793337822, 0.013793802820146084, 0.014466461725533009, 0.004991357680410147, 0.006881103850901127, 0.08635185658931732, 0.45354780554771423, 0.06669951230287552, 0.07460366189479828, 0.004907604772597551, 0.008448180742561817, 0.05609208345413208, 0.0035187681205570698, 0.001170434756204486, 0.002947479020804167, 0.11454581469297409, 0.0007893603760749102, 0.0010417973389849067, 0.01712648756802082], [0.015189195983111858, 0.01318295393139124, 0.0005900253308936954, 0.0008210297091864049, 0.00022360433649737388, 0.0008617801358923316, 0.000872937438543886, 0.030237501487135887, 0.5698736310005188, 0.062477659434080124, 0.1657315343618393, 0.0027057225815951824, 0.0004980452358722687, 0.03698255866765976, 0.0002791893493849784, 0.0005474327481351793, 0.0012905399780720472, 0.09592317789793015, 0.00011632118548732251, 0.00012614989827852696, 0.0014689791714772582], [0.021332893520593643, 0.010010777041316032, 0.0024774817284196615, 0.01144301239401102, 0.004980815574526787, 0.00243150326423347, 0.000601719249971211, 0.01528441533446312, 0.19497844576835632, 0.06128587946295738, 0.42331016063690186, 0.08851772546768188, 0.015924744307994843, 0.032559752464294434, 0.0020054709166288376, 0.0014261839678511024, 0.003912393935024738, 0.09297484904527664, 0.0006769206956960261, 0.0013515102909877896, 0.012513316236436367], [0.007746150717139244, 0.0031972993165254593, 0.00011953878129133955, 0.004207615274935961, 0.0030970110092312098, 0.024604544043540955, 0.00022238782548811287, 0.003186817979440093, 0.04896847903728485, 0.00524236261844635, 0.7300316095352173, 0.013477767817676067, 0.07751668244600296, 0.03992561250925064, 0.00019603397231549025, 0.0005426069837994874, 0.0014312898274511099, 0.034605007618665695, 2.5811898012761958e-05, 0.0009980046888813376, 0.0006572903948836029], [0.001982195070013404, 0.004891205579042435, 0.006380625534802675, 0.003409529337659478, 3.1407613278133795e-05, 0.0017185137839987874, 1.156943108071573e-05, 0.002018918748944998, 0.018421819433569908, 0.01333142351359129, 0.26371777057647705, 0.5544897317886353, 0.01266805361956358, 0.09366487711668015, 0.004297888837754726, 0.00016434078861493617, 0.001161411521025002, 0.013708577491343021, 4.035102028865367e-05, 0.0011094172950834036, 0.0027803746052086353], [0.03878192976117134, 0.014496122486889362, 0.0026030386798083782, 0.012963552959263325, 0.006863028276711702, 0.006515351124107838, 0.0066987317986786366, 0.016986047849059105, 0.057886555790901184, 0.010852298699319363, 0.07263097167015076, 0.03036605566740036, 0.15804189443588257, 0.30914798378944397, 0.042979396879673004, 0.006665072403848171, 0.02092764526605606, 0.14031264185905457, 0.0029833028092980385, 0.00803122017532587, 0.03326717019081116], [0.001125332317315042, 0.0003890047955792397, 0.00020179260172881186, 0.0002049795730272308, 3.2633306545903906e-05, 0.0008860186208039522, 1.5599980542901903e-05, 0.0050229099579155445, 0.005115651525557041, 0.009068682789802551, 0.004272632300853729, 0.004142555873841047, 0.005537830758839846, 0.05842862278223038, 0.013139753602445126, 0.10657201707363129, 0.7669315338134766, 0.015971090644598007, 0.0006238695350475609, 0.001955215586349368, 0.00036222595372237265], [0.00026909710140898824, 0.00033242942299693823, 0.00030744666582904756, 0.0003556123992893845, 5.80628402531147e-05, 0.0012281873496249318, 0.002519432920962572, 0.0013736450346186757, 0.0005318553885444999, 0.004144531674683094, 0.0008001809474080801, 0.0019227908924221992, 0.0006167173851281404, 0.007172068115323782, 0.926291823387146, 0.010079870000481606, 0.03217286244034767, 0.0023459172807633877, 0.005882101599127054, 0.0012247427366673946, 0.0003707123105414212], [0.0005853095790371299, 0.0002547056647017598, 3.6974823160562664e-05, 0.0001577286166138947, 6.090872375352774e-06, 0.00027402787236496806, 0.00016836720169521868, 6.092019975767471e-05, 0.0006882427260279655, 0.0005916377413086593, 0.0028299055993556976, 0.0009423702140338719, 0.00024519325233995914, 0.006982801016420126, 0.950127899646759, 0.02712753228843212, 0.0009455115650780499, 0.004632916301488876, 0.0025240296963602304, 0.0004158499650657177, 0.00040186059777624905], [0.0854082703590393, 0.033933866769075394, 0.0031993344891816378, 0.009698073379695415, 0.003998695407062769, 0.00301374401897192, 0.001113801496103406, 0.009618152864277363, 0.08511749655008316, 0.0195976123213768, 0.0627276599407196, 0.006702668499201536, 0.014081807807087898, 0.1047372967004776, 0.025077037513256073, 0.006158089265227318, 0.04447779059410095, 0.38932520151138306, 0.009675143286585808, 0.016075624153017998, 0.06626249104738235], [0.015943363308906555, 0.028308290988206863, 0.001177869737148285, 0.0017778384499251842, 1.4588953490601853e-05, 8.867575525073335e-05, 1.7026781279128045e-05, 0.0005657423171214759, 0.02802976593375206, 0.001519759651273489, 0.03434259071946144, 0.0024259486235678196, 0.0007926765247248113, 0.09444748610258102, 0.016799593344330788, 0.013511113822460175, 0.0989484041929245, 0.44432592391967773, 0.005442021880298853, 0.18445739150047302, 0.027063891291618347], [0.003480912884697318, 0.0009175681625492871, 0.0008851930615492165, 0.0006175498710945249, 2.1067588022560813e-05, 6.730714085279033e-05, 2.056237281067297e-05, 1.2718516700260807e-05, 0.0005182241438888013, 0.000157308837515302, 0.0017213667742908, 0.0018130274256691337, 0.0007163475384004414, 0.002760159783065319, 0.015521117486059666, 0.0004561668320093304, 0.011579575017094612, 0.009300928562879562, 0.9449478387832642, 0.0008613201789557934, 0.0036238597240298986], [0.1978631466627121, 0.023988774046301842, 0.0005673200357705355, 0.011792789213359356, 0.000862570246681571, 0.007988735102117062, 0.0002661615435499698, 0.0027806374710053205, 0.03940275311470032, 0.0011320305056869984, 0.043659649789333344, 0.0007535912445746362, 0.003946350421756506, 0.10367099940776825, 0.03136739134788513, 0.002136741764843464, 0.015506836585700512, 0.3105059266090393, 0.03177885711193085, 0.01982642523944378, 0.15020227432250977]], [[0.022588470950722694, 0.03179599344730377, 0.10008402913808823, 0.09291867166757584, 0.06230120733380318, 0.024732092395424843, 0.0697041004896164, 0.018593918532133102, 0.009660794399678707, 0.23207558691501617, 0.012977543286979198, 0.050199322402477264, 0.06637642532587051, 0.011907616630196571, 0.0576949343085289, 0.02030692994594574, 0.01911112852394581, 0.0060837832279503345, 0.041831664741039276, 0.021974407136440277, 0.027081361040472984], [0.02333633415400982, 0.10681192576885223, 0.03588319569826126, 0.04348914697766304, 0.021632982417941093, 0.018459448590874672, 0.014144985005259514, 0.025745723396539688, 0.1365996152162552, 0.01926901564002037, 0.09831371903419495, 0.047905609011650085, 0.02015027217566967, 0.1274576634168625, 0.024345675483345985, 0.0057853031903505325, 0.019827760756015778, 0.11677771061658859, 0.0074638864025473595, 0.010477231815457344, 0.07612279802560806], [0.03591519966721535, 0.08177950978279114, 0.01509925164282322, 0.07728556543588638, 0.028059933334589005, 0.0037663858383893967, 0.03924816474318504, 0.02027113363146782, 0.10349354147911072, 0.05759575590491295, 0.12194164097309113, 0.02207024395465851, 0.04156723618507385, 0.05714743584394455, 0.04376425966620445, 0.008485939353704453, 0.014466503635048866, 0.05286121740937233, 0.01510332990437746, 0.013233491219580173, 0.146844282746315], [0.011862783692777157, 0.05963098257780075, 0.0626739040017128, 0.0032066742423921824, 0.020668907091021538, 0.012553106993436813, 0.006774215493351221, 0.0066973003558814526, 0.16275756061077118, 0.01152829173952341, 0.17071354389190674, 0.13101546466350555, 0.032914526760578156, 0.116872638463974, 0.003052689600735903, 0.0031688178423792124, 0.005069012753665447, 0.11844100803136826, 0.0011049299500882626, 0.0021277039777487516, 0.05716588348150253], [0.02941448614001274, 0.05558100342750549, 0.06443000584840775, 0.02452932298183441, 0.1283804029226303, 0.017773205414414406, 0.01810833066701889, 0.010072273202240467, 0.06004979461431503, 0.06136824190616608, 0.07813509553670883, 0.13041403889656067, 0.11250581592321396, 0.042670976370573044, 0.01253998652100563, 0.004969516769051552, 0.011038193479180336, 0.031611159443855286, 0.009068619459867477, 0.007646078709512949, 0.08969336003065109], [0.054843466728925705, 0.10526398569345474, 0.02509050816297531, 0.029299117624759674, 0.04958514869213104, 0.03832058981060982, 0.018697578459978104, 0.025309881195425987, 0.1206708773970604, 0.01972416415810585, 0.10325492173433304, 0.02688504010438919, 0.049443136900663376, 0.12008760124444962, 0.008074703626334667, 0.015054154209792614, 0.019160982221364975, 0.11840125918388367, 0.0035575067158788443, 0.010523648001253605, 0.03875172883272171], [0.04460138827562332, 0.06744426488876343, 0.053337253630161285, 0.010866985656321049, 0.04379625990986824, 0.020725533366203308, 0.005472807213664055, 0.04251289367675781, 0.09697089344263077, 0.024901093915104866, 0.07998828589916229, 0.07671628892421722, 0.03634190186858177, 0.1003347858786583, 0.018773362040519714, 0.010820302180945873, 0.05701411888003349, 0.09791845083236694, 0.02130485698580742, 0.03531571850180626, 0.05484255030751228], [0.017042137682437897, 0.06966930627822876, 0.016310203820466995, 0.007095465436577797, 0.010337271727621555, 0.006920782383531332, 0.009179196320474148, 0.010880314745008945, 0.17175908386707306, 0.013040748424828053, 0.15678127110004425, 0.023533130064606667, 0.014698434621095657, 0.1502520591020584, 0.009552063420414925, 0.008132253773510456, 0.008425346575677395, 0.13885660469532013, 0.0017819065833464265, 0.017627010121941566, 0.13812534511089325], [0.020019149407744408, 0.05985347554087639, 0.047027748078107834, 0.04485464096069336, 0.02508814074099064, 0.026128701865673065, 0.008541278541088104, 0.038910772651433945, 0.10492164641618729, 0.021750489249825478, 0.06990504264831543, 0.06135014444589615, 0.02836688980460167, 0.12542210519313812, 0.04198666661977768, 0.006820647045969963, 0.04769560322165489, 0.13970457017421722, 0.011829251423478127, 0.01642647758126259, 0.05339649319648743], [0.11733757704496384, 0.04758046194911003, 0.01729927770793438, 0.013440322130918503, 0.03303518891334534, 0.016478488221764565, 0.01899038627743721, 0.021737009286880493, 0.0866946280002594, 0.017548009753227234, 0.09633474051952362, 0.0568607896566391, 0.0655527114868164, 0.09471297264099121, 0.023952756077051163, 0.00477633997797966, 0.04042157903313637, 0.08119644969701767, 0.027724983170628548, 0.018975578248500824, 0.09934977442026138], [0.024175193160772324, 0.06294909119606018, 0.06953554600477219, 0.06405577808618546, 0.03439972177147865, 0.01688769832253456, 0.0062693702057003975, 0.022013485431671143, 0.10217475891113281, 0.014500402845442295, 0.10658437013626099, 0.1116621345281601, 0.03533819690346718, 0.0914064422249794, 0.023159494623541832, 0.005542431026697159, 0.020494740456342697, 0.08012516796588898, 0.00478702737018466, 0.01056651957333088, 0.09337244182825089], [0.057473912835121155, 0.05859733000397682, 0.017916658893227577, 0.06141209602355957, 0.03784260153770447, 0.003732905723154545, 0.03787964954972267, 0.01662253402173519, 0.08219835162162781, 0.06349852681159973, 0.10936541110277176, 0.022513672709465027, 0.05190799757838249, 0.05033884942531586, 0.05489594116806984, 0.007576275616884232, 0.013580754399299622, 0.042473550885915756, 0.010779003612697124, 0.02021101675927639, 0.17918294668197632], [0.04863956198096275, 0.03263627365231514, 0.07495246827602386, 0.014537014998495579, 0.08068820834159851, 0.011591759510338306, 0.012407402507960796, 0.008830174803733826, 0.04867379739880562, 0.07170671224594116, 0.06352481991052628, 0.1287442445755005, 0.13213230669498444, 0.047084465622901917, 0.02585623972117901, 0.005418768618255854, 0.013847630470991135, 0.0336003340780735, 0.020613020285964012, 0.01340027991682291, 0.11111444234848022], [0.025700081139802933, 0.04411851614713669, 0.030372843146324158, 0.03507260978221893, 0.01929696649312973, 0.024799559265375137, 0.008040615357458591, 0.045521318912506104, 0.090814970433712, 0.0213154386729002, 0.054539818316698074, 0.044319793581962585, 0.027107886970043182, 0.13987454771995544, 0.049167051911354065, 0.008342373184859753, 0.07429566234350204, 0.17229647934436798, 0.022100340574979782, 0.02365620620548725, 0.03924693167209625], [0.07378154247999191, 0.05264339596033096, 0.01971506141126156, 0.007299673743546009, 0.008588445372879505, 0.021782001480460167, 0.01667213998734951, 0.01693849079310894, 0.12271703779697418, 0.04819842427968979, 0.10901989787817001, 0.03329828754067421, 0.029427655041217804, 0.14195029437541962, 0.002887836191803217, 0.014611680991947651, 0.02087162807583809, 0.13914825022220612, 0.01272987388074398, 0.01493450440466404, 0.09278387576341629], [0.03871861845254898, 0.03753916546702385, 0.022122327238321304, 0.007062518037855625, 0.025795696303248405, 0.03925808146595955, 0.025256721302866936, 0.07239443063735962, 0.10061921924352646, 0.01403978280723095, 0.09690343588590622, 0.021300112828612328, 0.056302282959222794, 0.1413910686969757, 0.012939698062837124, 0.014446238987147808, 0.04033343866467476, 0.13588647544384003, 0.003521899925544858, 0.033425334841012955, 0.06074339151382446], [0.03013410046696663, 0.04532359912991524, 0.008434195071458817, 0.0030405858997255564, 0.00535709410905838, 0.007381490897387266, 0.017299477010965347, 0.00796050950884819, 0.15669651329517365, 0.028867656365036964, 0.1410212516784668, 0.012474487535655499, 0.015180675312876701, 0.15172690153121948, 0.00921661127358675, 0.009661818854510784, 0.00394921051338315, 0.13259285688400269, 0.004085453227162361, 0.02876114659011364, 0.18083426356315613], [0.012932395562529564, 0.025984851643443108, 0.011399900540709496, 0.01576313003897667, 0.00908995047211647, 0.0230567529797554, 0.004235789179801941, 0.040363628417253494, 0.09032073616981506, 0.0168203916400671, 0.03311863914132118, 0.014595316722989082, 0.014265250414609909, 0.17412754893302917, 0.035510651767253876, 0.007807934656739235, 0.08121728152036667, 0.3187404274940491, 0.030006201937794685, 0.01969042979180813, 0.020952755585312843], [0.18471074104309082, 0.025552839040756226, 0.0060754320584237576, 0.0016731851501390338, 0.005964602343738079, 0.011251132935285568, 0.07943298667669296, 0.005774607416242361, 0.0754455178976059, 0.07505609095096588, 0.04697877913713455, 0.007740947883576155, 0.02409001626074314, 0.11279302090406418, 0.010496191680431366, 0.011519667692482471, 0.010562092997133732, 0.10976994037628174, 0.013542897067964077, 0.05262573063373566, 0.12894362211227417], [0.037760231643915176, 0.03985301032662392, 0.008218703791499138, 0.004837149288505316, 0.01315972488373518, 0.007489670999348164, 0.012005923315882683, 0.04494764283299446, 0.09470100700855255, 0.032194726169109344, 0.09290733188390732, 0.013305341824889183, 0.029560765251517296, 0.12972676753997803, 0.011691216379404068, 0.007534594275057316, 0.07161438465118408, 0.12214963138103485, 0.018194496631622314, 0.06055333837866783, 0.1475944221019745], [0.020480116829276085, 0.058004286140203476, 0.046097297221422195, 0.010772332549095154, 0.011893568560481071, 0.016962112858891487, 0.00829335767775774, 0.012982239946722984, 0.1416170299053192, 0.026076579466462135, 0.09889198839664459, 0.061206698417663574, 0.02005518600344658, 0.14442192018032074, 0.010405651293694973, 0.010158502496778965, 0.009797396138310432, 0.12999354302883148, 0.011303170584142208, 0.01647982932627201, 0.13410712778568268]], [[0.011795406229794025, 0.028596151620149612, 0.07128925621509552, 0.06423407793045044, 0.030173717066645622, 0.026320934295654297, 0.03573538735508919, 0.02034882642328739, 0.08153248578310013, 0.08181414008140564, 0.04666880890727043, 0.09935913234949112, 0.05067390576004982, 0.07374285906553268, 0.007640117779374123, 0.014480145648121834, 0.01049030851572752, 0.15867039561271667, 0.010767870582640171, 0.047446802258491516, 0.028219275176525116], [0.014597388915717602, 0.06201818212866783, 0.02915353886783123, 0.04258628189563751, 0.008519400842487812, 0.009936586022377014, 0.019899850711226463, 0.005142093636095524, 0.07612636685371399, 0.010803003795444965, 0.023938089609146118, 0.00935774389654398, 0.008034272119402885, 0.13911260664463043, 0.011210797354578972, 0.007223125547170639, 0.008731693960726261, 0.49276894330978394, 0.0006609656265936792, 0.00100973981898278, 0.019169244915246964], [0.00789116695523262, 0.3415326178073883, 0.1320483684539795, 0.023917436599731445, 0.013739357702434063, 0.014291945844888687, 0.0034898770973086357, 0.0015071474481374025, 0.047718118876218796, 0.0014103821013122797, 0.012820804491639137, 0.003911193460226059, 0.0058809006586670876, 0.07606406509876251, 0.002677215961739421, 0.0017154775559902191, 0.0019764082971960306, 0.3018007278442383, 0.0004437236348167062, 0.00023667819914408028, 0.004926383029669523], [0.005994950886815786, 0.18882399797439575, 0.5691337585449219, 0.042203933000564575, 0.02210661582648754, 0.0038044715765863657, 0.003005626378580928, 0.0024517059791833162, 0.02044711820781231, 0.0034173938911408186, 0.006270097102969885, 0.007717979606240988, 0.0025170277804136276, 0.01830090954899788, 0.0013673140201717615, 0.0007284744060598314, 0.0011668613879010081, 0.08855435997247696, 0.0009746721480041742, 0.000609621696639806, 0.010403158143162727], [0.002639720682054758, 0.14672446250915527, 0.7174273729324341, 0.021164875477552414, 0.045038171112537384, 0.0015781994443386793, 0.002146383747458458, 0.00224850932136178, 0.010908066295087337, 0.00047055439790710807, 0.0038441093638539314, 0.0040393369272351265, 0.0017136608948931098, 0.00695875845849514, 0.0006252796156331897, 0.0001626864104764536, 0.0009496562415733933, 0.023357808589935303, 0.00019276478269603103, 0.0009277264471165836, 0.006881872192025185], [0.010527712292969227, 0.159831240773201, 0.07064254581928253, 0.1837141066789627, 0.12038490921258926, 0.04432953894138336, 0.0025491330306977034, 0.0038538251537829638, 0.062162067741155624, 0.003916900604963303, 0.022199513390660286, 0.0028223192784935236, 0.0021745506674051285, 0.044902559369802475, 0.0007464492809958756, 0.0009514727862551808, 0.0012884485768154263, 0.24308878183364868, 0.0004805321805179119, 0.0009624841623008251, 0.018470868468284607], [0.029242970049381256, 0.0847868099808693, 0.33619123697280884, 0.07856933772563934, 0.09405491501092911, 0.03127596527338028, 0.00957913976162672, 0.004845236428081989, 0.04371574521064758, 0.021278012543916702, 0.020582005381584167, 0.01674594357609749, 0.0025013494305312634, 0.04560357704758644, 0.00464931596070528, 0.0013363048201426864, 0.0012864293530583382, 0.15373069047927856, 0.0014103978173807263, 0.0020807369146496058, 0.016533860936760902], [0.025820594280958176, 0.14719127118587494, 0.059296026825904846, 0.08314855396747589, 0.22839690744876862, 0.11064472794532776, 0.030981844291090965, 0.013230832293629646, 0.07509235292673111, 0.003040248528122902, 0.016833022236824036, 0.0019430015236139297, 0.0021104230545461178, 0.04941780865192413, 0.00037719932151958346, 0.0002979709242936224, 0.0011114462977275252, 0.12036439776420593, 0.00024776163627393544, 0.00023786001838743687, 0.030215788632631302], [0.012615257874131203, 0.07755798101425171, 0.07043866068124771, 0.11747432500123978, 0.17064595222473145, 0.12282027304172516, 0.1356843113899231, 0.033409662544727325, 0.08282473683357239, 0.012879223562777042, 0.024685431271791458, 0.011006167158484459, 0.008905855007469654, 0.04585636779665947, 0.0035568822640925646, 0.001596202957443893, 0.0019457105081528425, 0.050462767481803894, 0.0010738237760961056, 0.001505131833255291, 0.013055382296442986], [0.010086153633892536, 0.03577622398734093, 0.015651138499379158, 0.011990072205662727, 0.16847948729991913, 0.08305605500936508, 0.445097953081131, 0.03731678053736687, 0.10415267944335938, 0.024069983512163162, 0.011007856577634811, 0.0018741224193945527, 0.0031284699216485023, 0.02022651582956314, 0.0008643577457405627, 0.0007326102931983769, 0.00036131616798229516, 0.019030358642339706, 0.00038171125925146043, 0.00021350206225179136, 0.006502636708319187], [0.0018599003087729216, 0.029599100351333618, 0.08117251843214035, 0.1029595136642456, 0.2285889983177185, 0.0864553451538086, 0.12127714604139328, 0.05995254963636398, 0.10049852728843689, 0.061552856117486954, 0.04176188260316849, 0.03387175500392914, 0.018415041267871857, 0.01120106689631939, 0.004277506843209267, 0.001749906805343926, 0.0020849350839853287, 0.007629576604813337, 0.0005794120952486992, 0.0010139517253264785, 0.0034984739031642675], [0.0005947412573732436, 0.02910873107612133, 0.05421043559908867, 0.055915363132953644, 0.2712920308113098, 0.15249447524547577, 0.03293852508068085, 0.03281821310520172, 0.12493240088224411, 0.035324402153491974, 0.10685209184885025, 0.056308142840862274, 0.0327213816344738, 0.007635005284100771, 0.0013876809971407056, 0.0004607653245329857, 0.0004567784781102091, 0.0034449391532689333, 0.00023926586436573416, 0.0002016864309553057, 0.0006629789713770151], [0.0006980065954849124, 0.007714058738201857, 0.03246418014168739, 0.005311782471835613, 0.04404252767562866, 0.010021627880632877, 0.03059074841439724, 0.03085235133767128, 0.040823113173246384, 0.06333272159099579, 0.15644130110740662, 0.4972367584705353, 0.061812661588191986, 0.006445408333092928, 0.004434342496097088, 0.0006869005737826228, 0.0015895762480795383, 0.002320779487490654, 0.0002551786310505122, 0.001097703818231821, 0.001828310894779861], [0.015885280445218086, 0.033957719802856445, 0.018778124824166298, 0.03391091525554657, 0.022269900888204575, 0.024719679728150368, 0.040624797344207764, 0.022348374128341675, 0.13102160394191742, 0.054245542734861374, 0.19334858655929565, 0.10241775959730148, 0.04701323062181473, 0.10664381831884384, 0.009137372486293316, 0.004754272755235434, 0.0049347723834216595, 0.1136060580611229, 0.0021267076954245567, 0.004886465612798929, 0.013369043357670307], [0.009674502536654472, 0.01963092014193535, 0.0060628983192145824, 0.010278640314936638, 0.013422321528196335, 0.01763543300330639, 0.02765171229839325, 0.013025226071476936, 0.06682293117046356, 0.023721886798739433, 0.18333463370800018, 0.15931935608386993, 0.21859291195869446, 0.14545626938343048, 0.0189015232026577, 0.007491836789995432, 0.004861027002334595, 0.038787130266427994, 0.003962084650993347, 0.002653792267665267, 0.008712870068848133], [0.011502832174301147, 0.009713049046695232, 0.006067190784960985, 0.004909929819405079, 0.005895688198506832, 0.00974410492926836, 0.015650684013962746, 0.007475194521248341, 0.07760394364595413, 0.0748705044388771, 0.09941188991069794, 0.13086488842964172, 0.15755660831928253, 0.2562797963619232, 0.027974436059594154, 0.007934699766337872, 0.004090538248419762, 0.07377676665782928, 0.002189039718359709, 0.002109056105837226, 0.014379133470356464], [0.010781205259263515, 0.011866175569593906, 0.0032528273295611143, 0.0034514679573476315, 0.010407458990812302, 0.015186344273388386, 0.020898886024951935, 0.009828408248722553, 0.09251731634140015, 0.037316884845495224, 0.16321316361427307, 0.12170064449310303, 0.18991604447364807, 0.23117344081401825, 0.01843428611755371, 0.005245193839073181, 0.005317748989909887, 0.03717244789004326, 0.001365736359730363, 0.0007956157205626369, 0.010158837772905827], [0.031723883002996445, 0.02154664508998394, 0.0035637093242257833, 0.01018549781292677, 0.006229211576282978, 0.012127700261771679, 0.015640906989574432, 0.009491795673966408, 0.1289251297712326, 0.011530530638992786, 0.053100354969501495, 0.0093038035556674, 0.018269779160618782, 0.26073896884918213, 0.013807110488414764, 0.014743892475962639, 0.00970140378922224, 0.3412747085094452, 0.001973056700080633, 0.004555415362119675, 0.02156660333275795], [0.004154523368924856, 0.008135057985782623, 0.0005033804918639362, 0.000486732431454584, 0.0006145338993519545, 0.0015348616288974881, 0.005579631309956312, 0.0014912125188857317, 0.039141397923231125, 0.017177622765302658, 0.11937035620212555, 0.057164762169122696, 0.11246076226234436, 0.17972232401371002, 0.1759272813796997, 0.03662087768316269, 0.03556239232420921, 0.049135997891426086, 0.10335886478424072, 0.025252841413021088, 0.02660452574491501], [0.0007829787791706622, 0.0029920190572738647, 0.001477572601288557, 0.0004638749815057963, 0.000889726507011801, 0.0029016488697379827, 0.013871323317289352, 0.0021215295419096947, 0.010520548559725285, 0.012827938422560692, 0.05616489052772522, 0.31448569893836975, 0.24922867119312286, 0.03834809735417366, 0.08544699102640152, 0.0193194467574358, 0.0516054667532444, 0.006125273648649454, 0.08871385455131531, 0.03470410406589508, 0.007008363027125597], [0.005772988777607679, 0.023537838831543922, 0.00790644995868206, 0.01453395001590252, 0.009418763220310211, 0.010658678598701954, 0.006726279854774475, 0.0058959415182471275, 0.0367022268474102, 0.006067442242056131, 0.08737564831972122, 0.08889421820640564, 0.2439182698726654, 0.10453073680400848, 0.02465791255235672, 0.03571136295795441, 0.07576591521501541, 0.07118813693523407, 0.015573919750750065, 0.09973517805337906, 0.02542816288769245]], [[0.02384490706026554, 0.024022696539759636, 0.012362721376121044, 0.04337240755558014, 0.011561514809727669, 0.008148564025759697, 0.007027988787740469, 0.009939247742295265, 0.04388502612709999, 0.04746793210506439, 0.1584411859512329, 0.10698940604925156, 0.06576383113861084, 0.04084370657801628, 0.053861621767282486, 0.012265564873814583, 0.02365296147763729, 0.058372773230075836, 0.12405364215373993, 0.09432270377874374, 0.02979975752532482], [0.3562227785587311, 0.11656998842954636, 0.01803346909582615, 0.002840640489012003, 0.00010240294795949012, 0.0034108106046915054, 0.0017547606257721782, 0.0013233822537586093, 0.003224545158445835, 0.0006376546225510538, 0.0018653766019269824, 0.0012542394688352942, 0.0005498934770002961, 0.0087940888479352, 0.0009557802695780993, 0.0003314714995212853, 0.010194139555096626, 0.33216187357902527, 0.0014174266252666712, 0.00027217858587391675, 0.13808318972587585], [0.007398522924631834, 0.6984232664108276, 0.20563451945781708, 0.05056288465857506, 0.0010225727455690503, 0.0012876233085989952, 0.000295075005851686, 0.003717783372849226, 0.0015295215416699648, 0.0015257002087309957, 0.00015757382789161056, 1.292592514801072e-05, 0.0004747452330775559, 0.000655182811897248, 8.700011676410213e-05, 1.875098496384453e-05, 0.0007907781400717795, 0.011354764923453331, 0.0009569657268002629, 0.00038357192534022033, 0.013710098341107368], [0.05721219256520271, 0.05383668467402458, 0.7350178956985474, 0.009290056303143501, 0.001692596240900457, 8.143854211084545e-05, 3.469757211860269e-05, 8.353709563380107e-05, 0.009136311709880829, 0.0004502723168116063, 0.002297134604305029, 0.0008010041201487184, 0.00018891235231421888, 0.008336377330124378, 0.0004086779081262648, 2.187866448366549e-05, 2.6930676540359855e-05, 0.057047247886657715, 0.009589946828782558, 0.007169320248067379, 0.047276876866817474], [0.0007644539000466466, 0.003973970655351877, 0.2806822955608368, 0.6892701387405396, 0.01862504705786705, 0.00035309596569277346, 7.148904114728794e-05, 3.738377699846751e-06, 0.0003368692996446043, 0.00016680678527336568, 0.0004712385998573154, 0.00025412518880330026, 2.186828169215005e-06, 0.00018474782700650394, 6.11126670264639e-05, 3.793346650127205e-06, 5.58495059976849e-07, 0.0005130465142428875, 0.0004109420406166464, 0.00026741455076262355, 0.00358275743201375], [0.0808168351650238, 0.003974676597863436, 0.011827057227492332, 0.11712071299552917, 0.5692522525787354, 0.09160187840461731, 0.005805566906929016, 4.634647848433815e-05, 0.0011767501709982753, 0.0004601875552907586, 0.012501521036028862, 0.006603359244763851, 9.83485733740963e-05, 0.00519873620942235, 7.331941742449999e-05, 6.359945837175474e-05, 2.3804919692338444e-05, 0.025898145511746407, 0.00015261695079971105, 0.00013182965631131083, 0.06717253476381302], [0.19862470030784607, 0.04909126088023186, 0.011585729196667671, 0.00794176571071148, 0.20195125043392181, 0.08961997926235199, 0.022253165021538734, 0.03304967284202576, 0.011903460137546062, 0.0008400683291256428, 0.0017073251074180007, 0.003012724220752716, 0.0009617773466743529, 0.07646816223859787, 8.067458838922903e-05, 1.0740041943790857e-05, 0.0005724893417209387, 0.13513237237930298, 8.074825746007264e-05, 8.450509631074965e-05, 0.15502749383449554], [0.00318589573726058, 0.006349114701151848, 0.0017778821056708694, 0.0017446791753172874, 0.005845868960022926, 0.12847863137722015, 0.7719101905822754, 0.023210423067212105, 0.016465280205011368, 0.0005264225765131414, 0.0001430562260793522, 5.4022049880586565e-05, 0.0006162002682685852, 0.020639309659600258, 0.00039820201345719397, 8.5996332927607e-05, 1.7208143617608584e-05, 0.016100335866212845, 4.174341302132234e-05, 1.559455085953232e-05, 0.002393995178863406], [0.027587223798036575, 0.007761215325444937, 0.006893944926559925, 0.006440587807446718, 0.0007282693404704332, 0.002086940687149763, 0.10475403815507889, 0.4494321942329407, 0.26110389828681946, 0.027250198647379875, 0.002200691495090723, 0.0002853313344530761, 0.002277094405144453, 0.027140427380800247, 0.015414010733366013, 0.0008768312982283533, 0.001956823980435729, 0.03649577870965004, 0.0009446223266422749, 0.0003521819890011102, 0.018017595633864403], [0.010617650113999844, 0.0007561421953141689, 0.00030437196255661547, 0.0005071103223599494, 0.00024785511777736247, 0.0004274188249837607, 0.006105291657149792, 0.12505878508090973, 0.8125582337379456, 0.016224753111600876, 0.002422937424853444, 5.081412018625997e-05, 0.000154889581608586, 0.005611481610685587, 0.000990152359008789, 0.00012229601270519197, 0.00034858949948102236, 0.01309073343873024, 3.359694164828397e-05, 1.694354068604298e-05, 0.0043500070460140705], [0.08216529339551926, 0.00044362081098370254, 0.0008363727829419076, 0.001496687182225287, 0.00012313819024711847, 3.899781222571619e-05, 0.0001893461012514308, 0.001179097918793559, 0.16315869987010956, 0.25626125931739807, 0.3660963177680969, 0.03046790137887001, 0.00032443105010315776, 0.0014220031443983316, 0.0012782994890585542, 0.0002938014513347298, 0.0007216784288175404, 0.07685033977031708, 0.0008364621317014098, 0.0002290372212883085, 0.015587244182825089], [0.0022312765941023827, 0.00012989122478757054, 3.6813042243011296e-05, 0.0006897395360283554, 0.00037820081342943013, 0.00018637777247931808, 1.7746060620993376e-05, 0.00015482265735045075, 0.0036642784252762794, 0.2202981859445572, 0.7169719338417053, 0.047850556671619415, 0.004511781502515078, 8.456908108200878e-05, 6.934670818736777e-05, 3.0097666240180843e-05, 0.00018053191888611764, 0.0013667612802237272, 5.747925388277508e-05, 2.7572956241783686e-05, 0.0010618624510243535], [0.0010003795614466071, 0.0001509098947281018, 0.00010665749869076535, 0.00011280058970442042, 4.0575014281785116e-06, 4.7270925279008225e-05, 0.00012324214912950993, 4.902849013888044e-06, 0.00025680213002488017, 0.0006481458549387753, 0.04980989173054695, 0.9346434473991394, 0.0066316318698227406, 0.002735935617238283, 0.0005619528237730265, 6.644399945798796e-06, 1.386057829222409e-05, 0.0020992278587073088, 0.0006098832236602902, 6.712871982017532e-05, 0.00036529378849081695], [0.06082348898053169, 0.005729361902922392, 0.0025302658323198557, 0.0027815275825560093, 0.0010928720002993941, 0.008505319245159626, 0.009623990394175053, 0.004935336299240589, 0.005512230563908815, 0.0023174500092864037, 0.014845145866274834, 0.07607966661453247, 0.45130595564842224, 0.2441963404417038, 0.01500257384032011, 0.0017827183473855257, 0.003739128354936838, 0.0372379794716835, 0.0064853886142373085, 0.005074725951999426, 0.040398530662059784], [0.012456447817385197, 0.0003155187296215445, 8.007877477211878e-05, 0.00013549976574722677, 0.00012065766350133345, 0.0007262618746608496, 0.00025864123017527163, 0.0012611094862222672, 0.001790340174920857, 0.0009113766136579216, 0.0007029692642390728, 0.0036682970821857452, 0.5954685807228088, 0.35223495960235596, 0.014554981142282486, 0.0032427236437797546, 0.003482636297121644, 0.004361373372375965, 0.0005642941105179489, 0.0004747846396639943, 0.003188480855897069], [0.0017765187658369541, 0.0018452940275892615, 4.4942258682567626e-05, 0.001151628908701241, 0.0012053358368575573, 0.002436315640807152, 0.0011311102425679564, 0.0066180783323943615, 0.02533603087067604, 0.0020930669270455837, 0.00593666872009635, 0.0008201843011192977, 0.16265682876110077, 0.6562519669532776, 0.060701459646224976, 0.04103356972336769, 0.013068976812064648, 0.013672743923962116, 0.0008826326229609549, 0.0005071279010735452, 0.0008295418228954077], [0.005539755802601576, 0.0004269188502803445, 1.2758350749209058e-05, 0.00013981173106003553, 9.993398998631164e-05, 0.001550567103549838, 0.0006393637740984559, 0.00018786266446113586, 0.005996054504066706, 0.0017327709356322885, 0.006612491328269243, 0.003823614679276943, 0.03792057931423187, 0.18649549782276154, 0.5274027585983276, 0.12969838082790375, 0.03318500891327858, 0.05490502715110779, 0.001133612240664661, 0.00041783382766880095, 0.0020794321317225695], [0.07721275091171265, 0.006058407481759787, 0.0014003529213368893, 0.0025326507166028023, 0.0008373796008527279, 0.0038000144995748997, 0.007342475466430187, 0.006203542463481426, 0.03238363191485405, 0.015456819906830788, 0.021492505446076393, 0.008672039024531841, 0.010032908990979195, 0.045088425278663635, 0.16124162077903748, 0.03359680995345116, 0.1800253540277481, 0.2722170948982239, 0.042945511639118195, 0.015321181155741215, 0.05613845959305763], [0.017427625134587288, 0.009682895615696907, 0.0010917853796854615, 0.000251107761869207, 8.02553040557541e-06, 5.5650132708251476e-05, 0.00035864609526470304, 0.00015175013686530292, 0.0021268490236252546, 0.0023689931258559227, 0.002475696848705411, 0.002367292530834675, 0.007404448464512825, 0.010944494977593422, 0.07071923464536667, 0.004940129816532135, 0.42555344104766846, 0.2976956367492676, 0.0459025613963604, 0.044127773493528366, 0.05434593930840492], [0.005602965597063303, 0.06621747463941574, 0.0034169123973697424, 0.0031509879045188427, 3.601115531637333e-05, 1.701328801573254e-05, 0.0009282121900469065, 0.000649533118121326, 0.013277082704007626, 0.0034205149859189987, 0.008969991467893124, 0.0018739677034318447, 0.09452729672193527, 0.038110341876745224, 0.011981388553977013, 0.00524075236171484, 0.08837577700614929, 0.2728460431098938, 0.3242950737476349, 0.024331236258149147, 0.03273145481944084], [0.04134659841656685, 0.00048144388711079955, 0.0002379682700848207, 0.004898960702121258, 6.54996547382325e-05, 3.835982715827413e-05, 0.00016259813855867833, 0.0001007396203931421, 0.0034536290913820267, 0.0007178906234912574, 0.0041054850444197655, 0.0007060415809974074, 0.002960779471322894, 0.01261746883392334, 0.048857033252716064, 0.0015202267095446587, 0.006025692448019981, 0.1111748144030571, 0.48270729184150696, 0.24758431315422058, 0.03023711033165455]], [[0.017965231090784073, 0.0007999817607924342, 1.1201941561012063e-05, 0.0007026367820799351, 0.03682951256632805, 0.050904348492622375, 0.0002873241901397705, 0.0017124013975262642, 0.004872976802289486, 0.00027957037673331797, 0.4455092251300812, 0.07867545634508133, 0.12462376803159714, 0.11385208368301392, 0.00013351585948839784, 0.011869257315993309, 0.0469486229121685, 0.02473551593720913, 9.346857405034825e-05, 0.0019313107477501035, 0.037262581288814545], [2.284395850438159e-05, 0.003549159038811922, 0.9936070442199707, 0.0016382505418732762, 1.3880357130346965e-07, 1.9052441402322984e-08, 2.0532072539936053e-06, 1.8149660263588885e-07, 4.130087290832307e-06, 1.1689682651194744e-05, 1.8203527574200962e-08, 6.462373107751773e-07, 1.661503858940705e-07, 2.7407299967308063e-06, 1.0985326298396103e-05, 1.5802372743678461e-09, 3.5369400741558366e-09, 3.186962931067683e-05, 0.0011093702632933855, 1.9644169242383214e-06, 6.67626909489627e-06], [1.8629696569405496e-05, 1.1740434047169401e-06, 0.0002709846303332597, 0.9993517994880676, 0.0002999726857524365, 2.050132286157691e-09, 6.145220443620758e-10, 4.349683113691327e-10, 2.3960444650583668e-06, 2.7004219305126753e-08, 8.005616223272227e-07, 9.820853158482024e-11, 2.1094450630698702e-09, 3.768270318005307e-08, 2.566974366402519e-08, 2.881926641773447e-10, 5.494745717454785e-12, 3.175967435709026e-07, 7.825607895028952e-08, 2.0750103431055322e-06, 5.184523615753278e-05], [1.2758549416957976e-07, 2.1298180996609517e-08, 2.8749860803145566e-07, 0.0003188162809237838, 0.9991459846496582, 0.0005261095357127488, 2.5225956878927036e-09, 2.133174192842091e-10, 6.669575469686606e-08, 6.0194138562508215e-09, 2.3360456680165953e-07, 4.9078565211857494e-08, 9.761737196356535e-09, 1.241945284391477e-07, 9.346338813998045e-09, 5.421705751018635e-08, 2.7919314429802888e-11, 5.760784560493448e-08, 1.9680593960069714e-11, 6.034132915555546e-11, 8.111212082440034e-06], [4.1923819971145804e-10, 1.6831092075619836e-10, 3.032544918304958e-12, 8.18321588269555e-09, 4.141896170040127e-06, 0.9999951124191284, 7.089707310115045e-07, 5.915005898277093e-13, 2.0599654794450917e-12, 6.296478637958514e-13, 1.0752002586877918e-11, 5.415430326394244e-10, 1.2076459081876434e-13, 6.842433730724906e-09, 3.747166812950731e-11, 1.6227947804980936e-13, 2.4468795045695657e-13, 5.801296776297704e-09, 3.5100202536435688e-15, 6.789568778187318e-18, 6.824729670285024e-10], [1.7541708363655317e-10, 1.2172557184442212e-08, 1.7980616995316723e-11, 3.986033031422309e-11, 2.3498407664135357e-09, 0.00129401171579957, 0.9987049102783203, 1.736877806024495e-07, 2.0912374262826994e-11, 4.596389675121104e-12, 8.033219814178316e-14, 1.1256195975306582e-10, 5.565489735737117e-10, 7.759871891721559e-07, 7.940679225271197e-09, 9.493165142870907e-10, 8.560432744608715e-12, 1.971636436337576e-07, 3.195866748323395e-12, 2.6294281654215185e-17, 3.978604598553481e-11], [2.430761425475936e-10, 5.073379583109272e-08, 1.951773143105129e-08, 3.481977761676802e-10, 8.249641941793229e-11, 1.8830119685731006e-08, 9.324692655354738e-06, 0.9999878406524658, 1.4062616173760034e-06, 5.915087530894425e-09, 7.145951365361558e-12, 4.867077661036001e-12, 1.0190625010508825e-09, 3.616084498503369e-08, 2.525965392408125e-08, 1.0285152711730916e-06, 1.8065530582589417e-07, 2.8512816996340007e-08, 4.82235605614445e-11, 5.694209687101548e-11, 2.4089912287195148e-09], [3.148329142277362e-06, 6.764140607629088e-07, 1.6558840965075206e-09, 1.938824652825133e-06, 4.817491405795238e-10, 4.450301932523715e-11, 8.145356389377412e-09, 2.8759824999724515e-05, 0.9996857643127441, 0.0001283942547161132, 4.873902526014717e-08, 1.0169297316123954e-13, 3.513866142501598e-10, 1.328294388258655e-06, 8.095359937954072e-09, 2.510771278385615e-11, 2.3011685612583932e-10, 0.00014480814570561051, 4.094098324247675e-11, 2.5316595608088077e-12, 5.311926088324981e-06], [3.6443463613977656e-05, 2.3340612642641645e-07, 3.931624632969033e-06, 3.900554293068126e-05, 3.609064265219786e-07, 2.56894416850173e-09, 1.1363177954137882e-08, 7.786617857163947e-07, 0.011456465348601341, 0.9876590371131897, 0.0007205969304777682, 6.361604391713627e-06, 1.065099897168409e-09, 4.181589474683278e-08, 5.882888217456639e-06, 5.443815780381556e-07, 2.3105323521122045e-07, 4.708472260972485e-05, 6.970174126763595e-07, 4.6028294065081354e-08, 2.222290640929714e-05], [6.720234978274675e-06, 7.168629423404127e-08, 2.1365129665440463e-09, 1.02884916941548e-06, 2.9092332098912266e-08, 5.146995718519065e-09, 1.4076008414409813e-10, 3.276756643799672e-09, 0.00023812866129446775, 0.00010832709085661918, 0.9993341565132141, 0.00020028019207529724, 3.476050025597033e-08, 2.324747505610958e-09, 4.5073650367655205e-10, 6.449117351259304e-10, 7.381585476196051e-08, 0.00010874142753891647, 1.8848511640356946e-09, 1.1069300143162764e-08, 2.369739377172664e-06], [1.3409143093667808e-06, 2.0586965021607284e-08, 1.6978093375641379e-09, 5.401374991720331e-08, 1.374789064811921e-07, 1.2430391507223248e-06, 2.4285047306449314e-09, 3.246874123730148e-12, 8.410025453819969e-10, 4.622059805114986e-06, 0.001774574862793088, 0.9981827735900879, 2.954136289190501e-05, 1.8454036521120543e-08, 1.10482831772174e-08, 1.7364008841891376e-10, 2.497706264037447e-09, 3.6213803014106816e-06, 1.457153615547213e-07, 2.2627777429562457e-09, 1.9788853933278006e-06], [1.0120987099071499e-05, 4.446102508381955e-08, 6.221499877778758e-12, 1.8138133839329385e-07, 1.720931948057114e-07, 2.077547469525598e-05, 4.711750420938188e-07, 2.377519847662768e-10, 7.21835369255075e-10, 6.919574913055726e-10, 0.004830940160900354, 0.01906111091375351, 0.9759587049484253, 4.029693445772864e-05, 2.0056683069924475e-07, 1.1632868890387726e-08, 4.335006664746288e-08, 3.06081201415509e-05, 3.590345798443195e-08, 1.721785594099856e-07, 4.614764839061536e-05], [1.691861507424619e-05, 7.948629132670249e-08, 9.308089889137339e-12, 4.1081795743025395e-09, 1.3241960479526416e-11, 3.123105443592067e-06, 2.813929995681974e-07, 2.6197701785690697e-08, 1.0352166412985753e-07, 4.225423830273023e-12, 6.236826055605604e-10, 1.5002409980979792e-08, 0.00039052192005328834, 0.9994944334030151, 3.371963612153195e-05, 1.4457427255365474e-08, 9.890524843569892e-09, 5.2663221140392125e-05, 1.3472071236364513e-09, 3.3181393743753063e-10, 8.210423402488232e-06], [0.00016759945719968528, 9.199645774060627e-07, 1.16814396733389e-06, 2.2659418391413055e-05, 7.70761516832863e-07, 9.931585509548313e-07, 8.512640488334e-05, 6.840404967078939e-05, 0.00042263761861249804, 1.1839359103760216e-05, 1.3683431632216525e-07, 5.923033654653409e-07, 0.00041340632014907897, 0.02963726781308651, 0.9664050936698914, 0.0013341973535716534, 0.000176226778421551, 0.0003409101627767086, 8.055259968386963e-06, 4.323489406488079e-07, 0.0009015211835503578], [2.4103056261992606e-07, 1.4850864982207668e-09, 6.100315391721622e-11, 2.4646304996878143e-09, 1.0601421962519453e-08, 1.9882803736770427e-10, 9.002493861487437e-09, 1.0695825949369464e-06, 9.443341696169227e-06, 1.0387304882897297e-06, 4.0607012863347336e-08, 1.7203859448144954e-09, 4.4596913539862726e-07, 4.414997874846449e-06, 0.003701667068526149, 0.8754257559776306, 0.12059976160526276, 3.419882705202326e-05, 1.1882413986086249e-07, 1.0738983746705344e-07, 0.00022176621132530272], [1.2984126442461275e-05, 1.0937067429495073e-07, 5.742651909557139e-10, 1.54962975784656e-08, 1.8557635428351205e-09, 1.3000771126314703e-08, 1.627268630954859e-07, 5.629858037536906e-07, 6.86087378198863e-06, 3.226392072974704e-05, 5.062682362222404e-07, 8.327610601099877e-08, 1.4749657495372048e-08, 1.3429729506242438e-06, 0.0016941666835919023, 0.010968880727887154, 0.9839627146720886, 0.0027514200191944838, 4.554836777970195e-06, 5.6379359847369415e-08, 0.0005632498068735003], [0.000447065249318257, 8.479968528263271e-05, 3.732077147322599e-11, 1.7120550310778526e-08, 4.851548329742883e-11, 6.6668732756625104e-09, 2.386773667595321e-09, 4.342314952054949e-09, 9.764145215740427e-05, 5.878248288126997e-08, 2.0299741663620807e-05, 4.80619233300672e-09, 7.646414701412141e-07, 2.0604045857908204e-05, 1.0486188273262087e-07, 3.38642308861381e-07, 0.0007554561598226428, 0.9952560067176819, 3.3293733849859564e-06, 4.018645682890565e-08, 0.0033133444376289845], [0.14972352981567383, 0.01702924072742462, 0.0022354605607688427, 0.0007333879475481808, 4.607942173606716e-06, 9.541625331621617e-06, 0.0003998141037300229, 0.0002985487226396799, 0.004835845902562141, 0.0027741894591599703, 0.006376964505761862, 0.0020936436485499144, 0.0008195867412723601, 0.002625508001074195, 0.00037356349639594555, 0.00017976250092033297, 0.012200652621686459, 0.5328219532966614, 0.17506033182144165, 0.027568919584155083, 0.06183486804366112], [3.939237103622872e-06, 5.062347874229545e-09, 4.2987772985725314e-07, 3.40212750415958e-07, 5.2071933570596585e-11, 2.0185875947110674e-14, 1.4099124428720855e-12, 1.1143640177291303e-10, 3.2446394460095007e-09, 3.297429690407583e-11, 1.4438715822961967e-07, 4.629682415213665e-09, 2.855711755955781e-08, 1.3963841638542362e-08, 1.4246234414372339e-08, 7.708245419735249e-08, 4.066642489419792e-08, 2.144497329936712e-06, 2.057322853943333e-05, 0.9986097812652588, 0.0013623737031593919], [0.00019496408640407026, 3.263238790296441e-09, 1.5467667147106567e-09, 7.465712405974045e-05, 6.633118943000227e-08, 2.4466565926029027e-12, 6.504473998666547e-16, 1.3996351244606377e-14, 3.7508552708231946e-08, 1.5884103754526535e-10, 2.803413053698023e-06, 5.861379825944368e-09, 4.79414438814274e-07, 1.2819320716062066e-07, 8.870770784596971e-10, 2.759284120634753e-12, 2.6587996249105572e-09, 2.2318607079796493e-05, 9.171644705929793e-06, 0.00010637401283020154, 0.9995889067649841], [0.6596237421035767, 1.715995131235104e-05, 1.20509220380427e-08, 0.00010743499296950176, 0.0004008352698292583, 0.00011383696255506948, 1.9223339222662617e-06, 6.7287769525137264e-06, 0.0006598007748834789, 6.520410522625752e-08, 0.0013219285756349564, 9.659651141191716e-07, 0.00013451921404339373, 0.0906238704919815, 8.240900797318318e-07, 2.460671566950623e-05, 0.0010333888931199908, 0.224866583943367, 1.9073904695687816e-06, 0.0013260069536045194, 0.01973380334675312]]], [[[0.0002669727255124599, 0.008676160126924515, 0.0010496261529624462, 0.00018397258827462792, 1.4650369848823175e-05, 5.342048825696111e-05, 6.114727148087695e-05, 3.2397813356510596e-06, 0.058728285133838654, 0.000692994799464941, 0.13194184005260468, 0.00402837386354804, 8.962452739069704e-06, 0.056599654257297516, 7.90270569268614e-05, 0.00034639512887224555, 5.684246843884466e-06, 0.7328819632530212, 0.0030415854416787624, 0.00131014094222337, 2.594564102764707e-05], [1.905535441437678e-06, 0.0016161593375727534, 1.1553104286576854e-06, 2.9939777324017314e-09, 7.682221525584509e-10, 8.682131680259886e-10, 4.371310069473111e-07, 1.49820635897413e-07, 1.470173856432666e-06, 1.640814843995031e-07, 4.0917534249729215e-08, 1.9905607717696228e-10, 6.329223256607008e-10, 1.133823417376334e-07, 4.699114874995303e-09, 3.129455361516875e-09, 1.260555535509411e-07, 0.00014651617675554007, 1.3253178998695603e-08, 3.8767864474209546e-09, 0.9982317090034485], [3.0634550885616507e-12, 0.9996345043182373, 0.00027305676485411823, 9.090643515730079e-11, 1.297088386134279e-13, 4.725340669968492e-14, 3.0930979999510555e-09, 3.0729864724902967e-13, 1.5339124956881278e-06, 4.333876868489739e-10, 9.206129192307344e-09, 2.2181140659025683e-13, 6.538748177716845e-18, 2.1085060808445633e-08, 8.50546803127239e-12, 2.720279513798718e-12, 2.5373085387305275e-14, 8.826185512589291e-05, 3.1841711489732916e-08, 2.1712059233847114e-11, 2.446402277200832e-06], [1.6474793085308193e-08, 0.000371487665688619, 0.9993327260017395, 0.00021271288278512657, 2.071032440653653e-06, 4.494089544948565e-09, 6.588201983959152e-08, 8.149523011979909e-08, 1.0732372857091832e-06, 1.1267870831943583e-06, 1.4467909181803407e-07, 1.3339855797767086e-07, 1.918606606921003e-09, 3.419254198888666e-06, 6.696502241609892e-10, 1.0740122569075083e-08, 7.752729014320892e-10, 1.3295841654326068e-06, 5.079871698399074e-06, 2.3495920686400495e-05, 4.487404657993466e-05], [7.557285526538227e-12, 8.452232247435632e-10, 3.053402451769216e-06, 0.9999065399169922, 9.020196011988446e-05, 3.181671037744138e-10, 3.428093225954498e-11, 3.074488580390167e-11, 1.9171778747884005e-11, 3.4769079976237904e-11, 2.698611611950952e-10, 1.3764160655682645e-07, 1.902697270572684e-11, 1.5270948394707773e-10, 7.360741183237707e-11, 6.381484750350719e-12, 2.1754729094547454e-12, 4.5545848342820605e-11, 8.968475267989717e-12, 1.4624489119707818e-10, 5.288958715432557e-10], [4.654997454167642e-08, 1.0051946475186924e-07, 6.275607233874325e-08, 0.0005165641778148711, 0.9992532134056091, 4.973353861714713e-05, 8.347689828269722e-08, 1.1108864050868306e-08, 1.3259810138777084e-08, 1.035143415428763e-09, 8.225057079869202e-09, 2.447677616146393e-07, 0.00013142815441824496, 3.0921426514396444e-05, 9.111852250498487e-08, 2.673667676145186e-10, 2.3969404239210235e-09, 9.171506576421962e-07, 1.300652120728163e-11, 6.16172252110303e-11, 1.664313458604738e-05], [8.666074080565522e-09, 6.341698508549598e-07, 6.082612191704584e-10, 5.993981311291918e-09, 3.909202496288344e-05, 0.9991614818572998, 0.0003543361963238567, 9.278225299169662e-09, 2.5784342483348155e-07, 7.126440496746378e-12, 2.6315793988374026e-09, 4.439065115491303e-09, 5.054666374348926e-08, 0.00040707719745114446, 1.0766543709905818e-06, 9.546884029987268e-07, 2.423084510816409e-10, 3.4789700293913484e-05, 6.513873468394493e-11, 3.5038968254630376e-12, 1.9334171952323231e-07], [6.346716555083454e-12, 1.253754305235999e-11, 2.9721225480727753e-12, 3.701101382834471e-13, 1.8873483505210675e-12, 2.188626835319951e-09, 0.9998774528503418, 0.00011800932406913489, 2.771225471320804e-09, 1.56595003630855e-09, 1.3175500932784655e-14, 2.2639693125856702e-14, 2.8756639430804753e-11, 6.109268091414322e-10, 7.369689858371942e-10, 4.531566446530633e-06, 1.579627095793512e-08, 6.486446935127788e-10, 3.4501058260305584e-11, 4.337150430466785e-12, 1.861226284205486e-09], [4.4830005663243355e-07, 8.54486643220298e-06, 1.187045086226135e-06, 6.975174215995139e-08, 4.8507494909699744e-08, 3.2234101610129073e-08, 0.0012212812434881926, 0.8726044297218323, 0.10813464224338531, 0.014812517911195755, 4.5912466362096893e-07, 5.050724838362441e-10, 3.4046891528305423e-07, 0.00027058550040237606, 6.377844329108484e-06, 2.2034379071556032e-05, 0.00047349085798487067, 0.0022444790229201317, 3.165014277328737e-07, 5.1165279728593305e-06, 0.00019357098790351301], [7.749105523924271e-11, 4.973998147761449e-05, 1.6221756027334777e-07, 4.461907731310999e-13, 3.3287730753263356e-13, 9.434514801343052e-13, 4.876378056906105e-07, 1.1971335425187135e-06, 0.9943591952323914, 5.463782599690603e-06, 1.845714905357454e-06, 2.213731802036545e-12, 3.754331395988225e-16, 1.2080558008165099e-05, 2.485876171576251e-09, 4.8285350828791707e-08, 1.4589925934060943e-09, 0.005565940868109465, 3.298707307308746e-09, 9.663201350207373e-10, 3.800978902290808e-06], [4.777200501848711e-08, 1.57954449520048e-08, 9.121660582422919e-08, 8.953330854488684e-10, 1.1424289465822302e-11, 4.593465093970933e-14, 1.723170772738314e-10, 9.531143518870522e-08, 0.00021038805425632745, 0.9875231385231018, 0.012183994986116886, 3.3499320579721825e-06, 7.879073504746259e-10, 2.47798670471866e-08, 9.288573465937588e-08, 1.5749081683225086e-07, 1.1425392585806549e-05, 5.0672875659074634e-05, 5.894702553632669e-06, 5.444398539111717e-06, 5.230047918303171e-06], [4.9639927585110044e-11, 1.092293700821756e-06, 9.469895978497789e-09, 1.4819999394344308e-10, 2.0152198052653114e-12, 1.979053856557278e-14, 1.3223440625906996e-13, 5.932104719449255e-16, 7.506386623390426e-07, 1.3890969967178535e-05, 0.9997017979621887, 5.136276377015747e-05, 2.0064904598937616e-12, 3.33811982500265e-07, 4.338629011613193e-09, 1.5803974795502995e-09, 5.6219161270743e-11, 0.00023002996749710292, 6.72269720780605e-07, 2.9181728145033503e-09, 3.4940146331763344e-09], [5.503152933350464e-10, 1.463065779638839e-10, 2.3425814177358006e-08, 5.582086487265769e-06, 2.6960875754156177e-09, 1.8232290677211438e-11, 1.0887170331930207e-10, 1.096797132282834e-11, 1.7818536576785782e-11, 2.4732671466409784e-09, 1.3457864042720757e-05, 0.9999449253082275, 3.543511775205843e-05, 1.8198593920715211e-07, 4.0131553191713465e-08, 8.621932057195636e-10, 9.142797630090627e-09, 3.68628398916826e-08, 1.6541224567845347e-07, 1.513428600219413e-07, 1.2118177572517652e-08], [2.30698333325563e-05, 2.3062772015691735e-05, 2.346158453292446e-06, 1.3185888747102581e-05, 9.281162056140602e-05, 8.097690442809835e-05, 3.176397876814008e-05, 3.6555879887600895e-06, 2.1520763766602613e-05, 3.270255888310203e-07, 1.1317491953377612e-05, 0.00021383601415436715, 0.7096447348594666, 0.2814852297306061, 0.00017361235222779214, 2.5745500806806376e-06, 5.9491208048712e-07, 0.0076062241569161415, 4.118912784178974e-06, 5.529409463633783e-06, 0.0005594807444140315], [1.0213652146262575e-10, 5.1889344376832014e-08, 2.9228939268932663e-09, 4.239444906239953e-10, 3.3699141255283394e-09, 3.6816587556387503e-09, 3.135377069085621e-09, 6.349543720668427e-12, 2.513765139156021e-06, 1.0322956378594483e-10, 2.0058653404930737e-08, 5.4102895497010195e-09, 3.313731724574609e-07, 0.9997238516807556, 3.305591599200852e-05, 2.0980581894036732e-07, 9.188294569639766e-11, 0.00023952958872541785, 6.346002612289681e-10, 6.140593589165633e-10, 3.823587348961155e-07], [8.335335199838312e-10, 5.396753183228853e-11, 9.509751493219643e-12, 2.537871468533126e-09, 1.6913430725407075e-11, 4.287362287413998e-08, 5.244096882961458e-06, 4.7283951060128615e-11, 2.1249288995051074e-09, 3.159411274267221e-11, 8.060302425505483e-11, 2.3048676855985661e-10, 4.093775096691843e-09, 1.1315388519506087e-06, 0.9998099207878113, 0.00018354380154050887, 5.2760178448352235e-09, 2.8850054789586466e-08, 1.241907554572208e-08, 1.0337179029429322e-11, 8.461698541850637e-08], [7.970261603484907e-12, 7.328291619368432e-12, 5.443480952452284e-13, 1.3062154371914873e-14, 8.572483340047767e-15, 3.6033228484333435e-11, 3.3575011912034824e-05, 1.1675535205313281e-08, 9.99404559109962e-09, 2.1228739655043682e-08, 1.6424821225324848e-10, 5.026176957273476e-12, 1.299850071329045e-11, 7.366462995150869e-09, 3.088709127041511e-05, 0.9999253749847412, 1.0102460691996384e-05, 1.8796541212395823e-08, 4.289157828907264e-08, 1.9508314963445628e-09, 7.3590764593234326e-09], [0.00015247560804709792, 0.0019242737907916307, 0.00011256588186370209, 3.301242941233795e-06, 6.7155833676224574e-06, 2.1191834093770012e-05, 0.0001464726374251768, 0.0007326562772504985, 0.02725301869213581, 0.02340637519955635, 0.003282772144302726, 6.762341217836365e-05, 4.387270018924028e-05, 0.011542939580976963, 0.0012415256351232529, 0.0025272953789681196, 0.01680240035057068, 0.8976565003395081, 0.002584026427939534, 0.0019064678344875574, 0.008585521951317787], [7.832833937015948e-09, 0.0030184739734977484, 0.0001270228676730767, 4.388004889999131e-11, 2.674118088422106e-12, 6.518431194119101e-12, 1.0766906255454955e-09, 3.117570424038263e-09, 0.0006053834222257137, 2.082608625642024e-05, 0.0003604856610763818, 5.359433998819441e-07, 6.513003331098943e-11, 0.00012237578630447388, 2.080976457818906e-07, 1.4795473362028133e-06, 4.326634370954707e-05, 0.991470992565155, 0.003575652837753296, 0.0005703366477973759, 8.2982107414864e-05], [5.0830995662609624e-11, 2.3526958159436617e-08, 8.033077847358072e-07, 2.3094753106439603e-12, 1.368149745140893e-15, 5.188519969570593e-14, 1.5092936678229307e-08, 9.27200191624955e-11, 4.775481343699539e-09, 7.114594779977779e-08, 2.0819284074491406e-09, 7.107223143343333e-10, 1.0669576116714707e-12, 6.375581396156349e-09, 8.262866835195837e-09, 6.184849894452782e-07, 5.713432074117009e-07, 9.80061031441437e-06, 0.9998492002487183, 0.0001388446835335344, 1.5022827426491858e-08], [1.952020829776302e-05, 2.706860300349945e-07, 7.908530278655235e-06, 3.176066093146801e-05, 3.1395217092722305e-07, 8.449457311598962e-08, 2.3182997210824396e-06, 1.1744443327188492e-05, 3.1282484997063875e-05, 0.0002501015842426568, 7.575356721645221e-05, 0.0001375971332890913, 1.1851398085127585e-05, 0.00013806733477395028, 7.396849468932487e-06, 5.1201241149101406e-05, 0.0002050740731647238, 0.0012225089594721794, 0.026748618111014366, 0.9710416197776794, 5.060296643932816e-06]], [[0.02793293446302414, 0.11672911792993546, 0.05656110495328903, 0.011404769495129585, 0.02220231294631958, 0.009996244683861732, 0.010585546493530273, 0.00938489567488432, 0.08214180916547775, 0.027654938399791718, 0.07656299322843552, 0.022300010547041893, 0.02033657394349575, 0.06599973142147064, 0.016387540847063065, 0.00452833017334342, 0.023501209914684296, 0.1460082232952118, 0.017851734533905983, 0.04434223845601082, 0.18758776783943176], [0.016336478292942047, 0.3386329114437103, 0.013390211388468742, 0.04930543899536133, 0.013882067985832691, 0.0009665635880082846, 0.02280741184949875, 0.005829819478094578, 0.061652492731809616, 0.02218446508049965, 0.07106868922710419, 0.0034592722076922655, 0.013544895686209202, 0.05867261812090874, 0.004435282666236162, 0.0012858326081186533, 0.006682830862700939, 0.10366648435592651, 0.0013265159213915467, 0.002701086224988103, 0.18816860020160675], [0.05030618607997894, 0.5783840417861938, 0.0037146182730793953, 0.013733187690377235, 0.002695132978260517, 0.0007210654439404607, 0.0016655648360028863, 0.003714389633387327, 0.029471954330801964, 0.003096578177064657, 0.034828800708055496, 0.0005931797786615789, 0.0021838664542883635, 0.0396973118185997, 0.0008217064314521849, 0.0010374394478276372, 0.009498500265181065, 0.13208048045635223, 0.00417028833180666, 0.007573178969323635, 0.08001255244016647], [0.013346302323043346, 0.569564700126648, 0.037026546895504, 0.015702378004789352, 0.0017887263093143702, 0.00038991187466308475, 0.0003857155970763415, 0.010736087337136269, 0.032037585973739624, 0.0024434674996882677, 0.01355042029172182, 0.0010697409743443131, 0.0008384130778722465, 0.015016932040452957, 0.0035938441287726164, 0.0006563177448697388, 0.005264089442789555, 0.046632468700408936, 0.0012627779506146908, 0.0009425205644220114, 0.22775092720985413], [0.013754788786172867, 0.4948369860649109, 0.02903432585299015, 0.029194923117756844, 0.00151171931065619, 5.7736713642952964e-05, 0.000566730392165482, 0.0016462004277855158, 0.0548165962100029, 0.002595497528091073, 0.06225648522377014, 0.0009464004542678595, 0.00033445272129029036, 0.027059005573391914, 0.004358196165412664, 0.0001208783796755597, 0.0018378401873633265, 0.15148401260375977, 0.0016035812441259623, 0.002516997279599309, 0.1194666400551796], [0.028912493959069252, 0.022242922335863113, 0.00746144400909543, 0.17509767413139343, 0.08994807302951813, 0.007548399735242128, 0.009449029341340065, 0.006204122211784124, 0.08315188437700272, 0.031587641686201096, 0.03295480087399483, 0.0038042557425796986, 0.006506500765681267, 0.08939098566770554, 0.005681357812136412, 0.0020113142672926188, 0.029512980952858925, 0.3079586327075958, 0.0108169075101614, 0.027651909738779068, 0.022106679156422615], [0.028065387159585953, 0.019452780485153198, 0.009235018864274025, 0.09185796231031418, 0.09894387423992157, 0.03792016953229904, 0.07637635618448257, 0.010556824505329132, 0.06157507747411728, 0.08272161334753036, 0.019533969461917877, 0.003991406410932541, 0.004762152675539255, 0.07912638783454895, 0.002932002767920494, 0.0007351632812060416, 0.018198354169726372, 0.23840324580669403, 0.022833527997136116, 0.03853512555360794, 0.05424363911151886], [0.020910676568746567, 0.11169170588254929, 0.018997028470039368, 0.07877007126808167, 0.16857868432998657, 0.012078474275767803, 0.0889449268579483, 0.039016954600811005, 0.09005489945411682, 0.012677676044404507, 0.01200868096202612, 0.003011359367519617, 0.0017586625181138515, 0.029777197167277336, 0.0011182866292074323, 0.00036017646198160946, 0.0071757822297513485, 0.1300172358751297, 0.022839734330773354, 0.008701144717633724, 0.14151068031787872], [0.013093897141516209, 0.12677200138568878, 0.12568339705467224, 0.09449003636837006, 0.15120352804660797, 0.008059169165790081, 0.09925711154937744, 0.012898563407361507, 0.07405056804418564, 0.019790738821029663, 0.021242985501885414, 0.023780422285199165, 0.0039632185362279415, 0.028837023302912712, 0.002063729101791978, 0.00048781660734675825, 0.0024285430554300547, 0.0712442696094513, 0.00493131298571825, 0.003948150668293238, 0.11177351325750351], [0.00833007600158453, 0.008279222995042801, 0.005771765019744635, 0.015304071828722954, 0.039010610431432724, 0.002508504781872034, 0.742755115032196, 0.04290749877691269, 0.04830936715006828, 0.013892030343413353, 0.003813821589574218, 0.0016291937790811062, 0.0005406835698522627, 0.01089740451425314, 5.813239476992749e-05, 9.180017514154315e-05, 0.0009061821619980037, 0.04235650226473808, 0.00042394164483994246, 0.001622324576601386, 0.010591777041554451], [0.0052332584746181965, 0.1464979648590088, 0.11815598607063293, 0.07225634157657623, 0.15337517857551575, 0.0025303440634161234, 0.012164563871920109, 0.007719579618424177, 0.12716104090213776, 0.009121483191847801, 0.0613987110555172, 0.04003866761922836, 0.002851649187505245, 0.020161189138889313, 0.0016722974833101034, 0.0003825514577329159, 0.001003118697553873, 0.0422150157392025, 0.0010487774852663279, 0.001258079893887043, 0.17375417053699493], [0.004069247283041477, 0.25191161036491394, 0.01803768239915371, 0.022986367344856262, 0.040714018046855927, 0.0016853970009833574, 0.0012868649791926146, 0.005489513743668795, 0.1893576979637146, 0.004134891554713249, 0.25584253668785095, 0.03217339143157005, 0.0036659161560237408, 0.04056105017662048, 0.001507240580394864, 0.0005672561237588525, 0.0036466370802372694, 0.06778906285762787, 0.0020383873488754034, 0.0015790467150509357, 0.05095618590712547], [0.0023141985293477774, 0.05242036283016205, 0.026490310207009315, 0.007205933798104525, 0.002595369704067707, 0.0001334640837740153, 0.001146433292888105, 0.004236442968249321, 0.15248773992061615, 0.02915593795478344, 0.42115703225135803, 0.06650327146053314, 0.004030182026326656, 0.06394246220588684, 0.052661772817373276, 0.0007975617772899568, 0.006103480234742165, 0.09206677973270416, 0.0006597868632525206, 0.001445076079107821, 0.012446451000869274], [0.014428609050810337, 0.03063955344259739, 0.04130704328417778, 0.03956347703933716, 0.057045482099056244, 0.002788147423416376, 0.022625751793384552, 0.021038666367530823, 0.08832152187824249, 0.08288786560297012, 0.14584161341190338, 0.1259964257478714, 0.08902207016944885, 0.05652310699224472, 0.04210258647799492, 0.00816386193037033, 0.021722745150327682, 0.05574726685881615, 0.007593036629259586, 0.01210831943899393, 0.034532930701971054], [0.0018586207879707217, 0.008011954836547375, 0.0551481619477272, 0.011624792590737343, 0.012661011889576912, 0.00023201043950393796, 0.0020939556416124105, 0.0046182298101484776, 0.031954679638147354, 0.015464560128748417, 0.0817088931798935, 0.608808696269989, 0.036316271871328354, 0.060678716748952866, 0.012274826876819134, 0.00263967108912766, 0.006967086810618639, 0.036671873182058334, 0.0008515576482750475, 0.001783861662261188, 0.007630482316017151], [0.011028730310499668, 0.006144210696220398, 0.019606929272413254, 0.028240568935871124, 0.025744210928678513, 0.0008823807584121823, 0.013501929119229317, 0.02417627163231373, 0.04756646603345871, 0.04917137697339058, 0.07906744629144669, 0.34652477502822876, 0.09827803075313568, 0.09402336925268173, 0.046061284840106964, 0.008131129667162895, 0.027693025767803192, 0.053955066949129105, 0.006770789623260498, 0.005835229996591806, 0.007596688345074654], [0.013703376054763794, 0.03552476316690445, 0.012247535400092602, 0.04542302340269089, 0.0750812515616417, 0.0008529911865480244, 0.013818109408020973, 0.026890790089964867, 0.10655727982521057, 0.0251577477902174, 0.16679397225379944, 0.10954034328460693, 0.12139038741588593, 0.09656848758459091, 0.0333675742149353, 0.005091118160635233, 0.014004448428750038, 0.045020055025815964, 0.014863185584545135, 0.00847730040550232, 0.02962624840438366], [0.0410834476351738, 0.03533637896180153, 0.04799220710992813, 0.020008469000458717, 0.06383784115314484, 0.025697611272335052, 0.042459726333618164, 0.03244660422205925, 0.06708935648202896, 0.038206420838832855, 0.06046140566468239, 0.0800907239317894, 0.06119564548134804, 0.07817786186933517, 0.03950650617480278, 0.030676014721393585, 0.03771691024303436, 0.08073343336582184, 0.028519844636321068, 0.040251266211271286, 0.048512279987335205], [0.004554456565529108, 0.0008794681052677333, 0.007834522053599358, 0.0011803826782852411, 0.008123643696308136, 0.0019939208868891, 0.0025170438457280397, 0.002804037183523178, 0.011660724878311157, 0.0037523326463997364, 0.012237805873155594, 0.15118534862995148, 0.157952219247818, 0.092729352414608, 0.26404887437820435, 0.062427420169115067, 0.07247404009103775, 0.060911163687705994, 0.01329544372856617, 0.062445610761642456, 0.004992136266082525], [0.002067211549729109, 0.0004480877541936934, 0.005111335311084986, 0.000961983751039952, 0.026052327826619148, 0.0008947962196543813, 0.0019046444213017821, 0.0017819271888583899, 0.009019669145345688, 0.0011181066511198878, 0.013329528272151947, 0.14507296681404114, 0.28086769580841064, 0.06172504648566246, 0.3242558538913727, 0.023925218731164932, 0.04296499118208885, 0.03606429696083069, 0.002884778892621398, 0.017255786806344986, 0.002293793484568596], [0.01695699244737625, 0.05498948320746422, 0.019498057663440704, 0.0037342861760407686, 0.034389082342386246, 0.003525207517668605, 0.019256724044680595, 0.01043970137834549, 0.12377685308456421, 0.01204440277069807, 0.16594557464122772, 0.0438176728785038, 0.04383723810315132, 0.1231054812669754, 0.009193643927574158, 0.007493957877159119, 0.015763580799102783, 0.13126042485237122, 0.0068432935513556, 0.02578187733888626, 0.12834645807743073]], [[0.1652553230524063, 0.006782212760299444, 0.009214993566274643, 0.01950305514037609, 0.0036676391027867794, 0.003935481887310743, 0.0507279597222805, 0.0042062303982675076, 0.03723632171750069, 0.20494747161865234, 0.0031968888361006975, 0.004187475424259901, 0.003452990436926484, 0.04101993143558502, 0.04850905388593674, 0.00179177219979465, 0.00567102013155818, 0.21412460505962372, 0.1556462049484253, 0.00967620313167572, 0.007247077766805887], [0.004106478299945593, 0.023988425731658936, 0.050562337040901184, 0.062067802995443344, 0.013671204447746277, 0.002262958325445652, 0.04087141901254654, 0.01007059495896101, 0.026692433282732964, 0.25651973485946655, 0.00681463023647666, 0.030284220352768898, 0.0386265330016613, 0.022959504276514053, 0.15611599385738373, 0.0016819131560623646, 0.009857750497758389, 0.03369908034801483, 0.1467047482728958, 0.05150427669286728, 0.010937987826764584], [0.010647423565387726, 0.039696916937828064, 0.04162731021642685, 0.0514717623591423, 0.02762356400489807, 0.0021221288479864597, 0.03355412557721138, 0.009114645421504974, 0.09604018181562424, 0.15009385347366333, 0.03292012959718704, 0.026298094540834427, 0.057056695222854614, 0.07361426949501038, 0.1805287003517151, 0.0028843767940998077, 0.009429039433598518, 0.09065903723239899, 0.011825036257505417, 0.035261765122413635, 0.01753098890185356], [0.01834123209118843, 0.04246766120195389, 0.025648009032011032, 0.061232466250658035, 0.02800704911351204, 0.0022060254123061895, 0.026211461052298546, 0.00927838683128357, 0.1170673668384552, 0.11249580979347229, 0.03696845844388008, 0.02068152464926243, 0.04714937508106232, 0.0895824059844017, 0.16466069221496582, 0.0038698697462677956, 0.007101810071617365, 0.13120529055595398, 0.01656893454492092, 0.017773892730474472, 0.021482229232788086], [0.0016055150190368295, 0.03040507063269615, 0.17090392112731934, 0.08375763148069382, 0.03484361246228218, 0.002441704971715808, 0.06619636714458466, 0.009326906874775887, 0.03552543744444847, 0.10411269217729568, 0.020606106147170067, 0.2325739860534668, 0.0592452809214592, 0.019631998613476753, 0.05390866473317146, 0.0027495494578033686, 0.005045263096690178, 0.02398340404033661, 0.006412971299141645, 0.025702152401208878, 0.011021783575415611], [0.00476451963186264, 0.02068612538278103, 0.07578526437282562, 0.06782268732786179, 0.018026793375611305, 0.0029052740428596735, 0.11791889369487762, 0.006797872483730316, 0.026819957420229912, 0.18463486433029175, 0.01798524148762226, 0.07262369990348816, 0.028460804373025894, 0.025305381044745445, 0.21408812701702118, 0.009568462148308754, 0.011708106845617294, 0.04378616809844971, 0.02238856814801693, 0.012030464597046375, 0.015892693772912025], [0.0008411522721871734, 0.011673053726553917, 0.026744289323687553, 0.01497585978358984, 0.00833331048488617, 0.001064690062776208, 0.047282714396715164, 0.0015944113256409764, 0.03929125517606735, 0.5768422484397888, 0.010881873778998852, 0.028347240760922432, 0.019825564697384834, 0.023817110806703568, 0.0400211364030838, 0.005537531804293394, 0.005244765430688858, 0.07446248084306717, 0.04624255746603012, 0.010619213804602623, 0.006357645615935326], [0.0034280784893780947, 0.014493192546069622, 0.029371019452810287, 0.013038907200098038, 0.007183991372585297, 0.0025354214012622833, 0.17656470835208893, 0.0071295397356152534, 0.02772815153002739, 0.40722525119781494, 0.006889780983328819, 0.02428550459444523, 0.012157713994383812, 0.023323561996221542, 0.07472506910562515, 0.0019948796834796667, 0.0052564418874681, 0.05881841853260994, 0.0574248842895031, 0.03396224603056908, 0.012463302351534367], [0.011888961307704449, 0.049150772392749786, 0.03133018687367439, 0.03321252763271332, 0.03812258690595627, 0.010702396742999554, 0.03956807777285576, 0.026054970920085907, 0.07576292753219604, 0.16342467069625854, 0.034408435225486755, 0.03228919580578804, 0.0573171004652977, 0.06946992129087448, 0.052090708166360855, 0.007201564963907003, 0.018590906634926796, 0.10273438692092896, 0.07288617640733719, 0.04169871285557747, 0.032094791531562805], [0.005456469487398863, 0.020661231130361557, 0.021699240431189537, 0.0426826998591423, 0.0032089410815387964, 0.0024988397490233183, 0.021379385143518448, 0.0011924748541787267, 0.021200377494096756, 0.245390847325325, 0.004751554690301418, 0.012093362398445606, 0.006619511172175407, 0.022028328850865364, 0.20139749348163605, 0.0015090880915522575, 0.0026163666043430567, 0.03658953309059143, 0.3082254230976105, 0.01368385087698698, 0.005114854779094458], [0.003873102832585573, 0.05509660392999649, 0.032828189432621, 0.03994595631957054, 0.05643538758158684, 0.006697564385831356, 0.045567113906145096, 0.03159195929765701, 0.06624156981706619, 0.09899547696113586, 0.029915200546383858, 0.03648819029331207, 0.12915022671222687, 0.058186136186122894, 0.05653899163007736, 0.004219672176986933, 0.014740408398211002, 0.06654605269432068, 0.05187375470995903, 0.08422022312879562, 0.030848199501633644], [0.0049327765591442585, 0.033081404864788055, 0.02408670447766781, 0.0368242971599102, 0.03870329633355141, 0.002681031357496977, 0.033067572861909866, 0.011976995505392551, 0.09474727511405945, 0.06130184978246689, 0.03573308512568474, 0.03855086490511894, 0.15197351574897766, 0.09416203945875168, 0.10972563922405243, 0.004600747022777796, 0.012075813487172127, 0.11299702525138855, 0.009466901421546936, 0.06544189900159836, 0.02386922761797905], [0.000928324181586504, 0.01662972941994667, 0.16920113563537598, 0.07646994292736053, 0.012449423782527447, 0.0016853054985404015, 0.02744693122804165, 0.004702149424701929, 0.014985485933721066, 0.08835579454898834, 0.008918390609323978, 0.2823314070701599, 0.053337473422288895, 0.015456519089639187, 0.11622343957424164, 0.003774977056309581, 0.0077163102105259895, 0.016423553228378296, 0.03127402812242508, 0.04473377391695976, 0.006955945864319801], [0.022448042407631874, 0.04689521715044975, 0.0356476791203022, 0.04041784629225731, 0.03075331822037697, 0.01167087722569704, 0.03107309900224209, 0.019565509632229805, 0.06691554933786392, 0.11607928574085236, 0.03754521906375885, 0.036212436854839325, 0.04829490929841995, 0.07298687845468521, 0.08302229642868042, 0.012165595777332783, 0.02361488901078701, 0.10552103817462921, 0.07092851400375366, 0.04609140008687973, 0.04215036705136299], [0.006060143932700157, 0.01272672787308693, 0.019292544573545456, 0.02622932940721512, 0.007610113825649023, 0.004567250609397888, 0.03097251057624817, 0.0037141775246709585, 0.02511940710246563, 0.15183983743190765, 0.004145495593547821, 0.013604959473013878, 0.014963189139962196, 0.044887054711580276, 0.3309108316898346, 0.002402113750576973, 0.010019013658165932, 0.11418285220861435, 0.13988828659057617, 0.028258835896849632, 0.00860534980893135], [0.008523024618625641, 0.012563928961753845, 0.025738779455423355, 0.06005819886922836, 0.021302400156855583, 0.004001264926046133, 0.10748340934515, 0.005629382561892271, 0.015862343832850456, 0.0578266866505146, 0.005990937817841768, 0.023479506373405457, 0.03389070928096771, 0.023633167147636414, 0.46425294876098633, 0.005181600339710712, 0.011172031983733177, 0.048765867948532104, 0.029635608196258545, 0.021030139178037643, 0.013977975584566593], [0.0027251162100583315, 0.019029129296541214, 0.03638138994574547, 0.029693908989429474, 0.010448602959513664, 0.003959062043577433, 0.06475918740034103, 0.005796527024358511, 0.028343532234430313, 0.09238740056753159, 0.006155289709568024, 0.02288985438644886, 0.022748000919818878, 0.03782155364751816, 0.3926059901714325, 0.0027713177260011435, 0.007223349995911121, 0.08167050033807755, 0.0722837746143341, 0.04988562688231468, 0.01042095385491848], [0.07888690382242203, 0.059091418981552124, 0.018389923498034477, 0.03309618681669235, 0.037766486406326294, 0.019640987738966942, 0.01218126155436039, 0.015146196819841862, 0.11946193128824234, 0.029728593304753304, 0.08294627070426941, 0.016638904809951782, 0.02700575441122055, 0.11677363514900208, 0.03846566751599312, 0.011609966866672039, 0.014008804224431515, 0.18422622978687286, 0.02322136051952839, 0.014299632981419563, 0.04741382598876953], [0.004038820043206215, 0.01318197138607502, 0.011235806159675121, 0.04572470858693123, 0.0023666948545724154, 0.00659970985725522, 0.04935334250330925, 0.0034297178499400616, 0.029695678502321243, 0.21584820747375488, 0.004816971253603697, 0.01013983879238367, 0.005203415174037218, 0.03630230948328972, 0.2717633545398712, 0.003295880975201726, 0.009192202240228653, 0.07981511950492859, 0.18083465099334717, 0.012500636279582977, 0.004660998471081257], [0.0031287954188883305, 0.0038939062505960464, 0.041550591588020325, 0.013686181046068668, 0.0035769895184785128, 0.0027317360509186983, 0.024760926142334938, 0.0018860343843698502, 0.004080247599631548, 0.16124601662158966, 0.0015089028747752309, 0.025061002001166344, 0.008318986743688583, 0.005636899266391993, 0.1175064891576767, 0.002755876397714019, 0.008008680306375027, 0.009182694368064404, 0.5415307879447937, 0.015888428315520287, 0.004059838596731424], [0.001364764990285039, 0.009401189163327217, 0.02688816376030445, 0.052953530102968216, 0.005552761722356081, 0.004187858663499355, 0.024064920842647552, 0.0030909532215446234, 0.006023230962455273, 0.15528206527233124, 0.0016382538015022874, 0.012039014138281345, 0.010056299157440662, 0.006290519144386053, 0.22984741628170013, 0.00040980413905344903, 0.004143491853028536, 0.007314329035580158, 0.42188674211502075, 0.013765095733106136, 0.0037995451129972935]], [[0.00976701732724905, 0.05692334100604057, 0.02280437760055065, 0.03243013098835945, 0.030967004597187042, 0.006555092055350542, 0.008437545970082283, 0.047964006662368774, 0.09550473093986511, 0.06568541377782822, 0.09504980593919754, 0.054827939718961716, 0.05250231549143791, 0.07994040846824646, 0.029093969613313675, 0.0066149416379630566, 0.047635577619075775, 0.08168192952871323, 0.04813437536358833, 0.024042274802923203, 0.10343782603740692], [0.001394788851030171, 0.012665205635130405, 0.013683184050023556, 0.1351451724767685, 0.2513734698295593, 0.0021409455221146345, 0.014943207614123821, 0.0679292157292366, 0.0736851841211319, 0.01576857827603817, 0.19451525807380676, 0.06595365703105927, 0.08019787818193436, 0.013703850097954273, 0.005405724979937077, 0.0005579708958975971, 0.016726408153772354, 0.007911570370197296, 0.002776377834379673, 0.005310136824846268, 0.018212299793958664], [0.0003000976867042482, 0.010392172262072563, 0.010299379006028175, 0.1861770749092102, 0.28637203574180603, 0.00047900257050059736, 0.0065771471709012985, 0.070933036506176, 0.049112096428871155, 0.009949501603841782, 0.15879195928573608, 0.07282071560621262, 0.10626915097236633, 0.004695983603596687, 0.004752171691507101, 0.00025044011999852955, 0.012335192412137985, 0.0014676025602966547, 0.0013158121146261692, 0.0032988672610372305, 0.003410511650145054], [0.003118920372799039, 0.02491593360900879, 0.009485337883234024, 0.03763618320226669, 0.025146830826997757, 0.002238314598798752, 0.007810384966433048, 0.10198837518692017, 0.19851866364479065, 0.04667023941874504, 0.2882585823535919, 0.09373749792575836, 0.01528540812432766, 0.037719257175922394, 0.01065764483064413, 0.0011429592268541455, 0.015203680843114853, 0.04205691069364548, 0.002023336011916399, 0.0035954383201897144, 0.03279019147157669], [0.0005398960784077644, 0.008845116011798382, 0.0016327425837516785, 0.003541607642546296, 0.0014137999387457967, 0.00044909221469424665, 0.0031986089888960123, 0.03964688256382942, 0.1126948744058609, 0.0201190784573555, 0.5495518445968628, 0.16458043456077576, 0.0067664519883692265, 0.017360419034957886, 0.009077888913452625, 0.00033008880564011633, 0.010148837231099606, 0.010936863720417023, 0.0007943483651615679, 0.0019445564830675721, 0.03642667084932327], [0.003791949013248086, 0.030409209430217743, 0.005052846856415272, 0.015814946964383125, 0.012482544407248497, 0.0010283824522048235, 0.043837226927280426, 0.07653719186782837, 0.1624942570924759, 0.06934357434511185, 0.16701874136924744, 0.08303617686033249, 0.04350513964891434, 0.07832439243793488, 0.021497569978237152, 0.005086139775812626, 0.025285273790359497, 0.09451577812433243, 0.0035290068481117487, 0.01103504654020071, 0.04637461155653], [0.0058884150348603725, 0.02637992613017559, 0.011527509428560734, 0.01171799935400486, 0.003507362911477685, 0.006087141577154398, 0.10482979565858841, 0.01468882616609335, 0.14576338231563568, 0.11375206708908081, 0.13940604031085968, 0.06437227874994278, 0.00960434228181839, 0.0752943679690361, 0.03624342381954193, 0.0057277497835457325, 0.014870001934468746, 0.08331947028636932, 0.012782817706465721, 0.01599445566534996, 0.09824270755052567], [0.0042089298367500305, 0.017801815643906593, 0.0086310850456357, 0.01525905728340149, 0.010481325909495354, 0.0023708557710051537, 0.021701397374272346, 0.013275939039885998, 0.06760493665933609, 0.058932289481163025, 0.22303567826747894, 0.15655337274074554, 0.06219390034675598, 0.07149171829223633, 0.029014509171247482, 0.006695487070828676, 0.03530389070510864, 0.06744755059480667, 0.018952354788780212, 0.018198469653725624, 0.09084542095661163], [0.0069687580689787865, 0.01116153970360756, 0.005329062696546316, 0.013843568041920662, 0.013887968845665455, 0.001641042297706008, 0.018972115591168404, 0.017137957736849785, 0.048492997884750366, 0.01816403679549694, 0.23992317914962769, 0.21416111290454865, 0.11288440972566605, 0.051759637892246246, 0.012318861670792103, 0.004145599436014891, 0.03145287558436394, 0.05234964191913605, 0.0059284851886332035, 0.014381839893758297, 0.1050952821969986], [0.008721868507564068, 0.015689246356487274, 0.011966933496296406, 0.012943792156875134, 0.006468568928539753, 0.004273883532732725, 0.03456868976354599, 0.018436629325151443, 0.06912089884281158, 0.020815586671233177, 0.14530371129512787, 0.20745278894901276, 0.07018258422613144, 0.11178236454725266, 0.021469613537192345, 0.014513499103486538, 0.06309746205806732, 0.10044708847999573, 0.0121469022706151, 0.0061376080848276615, 0.044460367411375046], [0.005503527820110321, 0.0063013723120093346, 0.001739207305945456, 0.005702254828065634, 0.006002552807331085, 0.0004933450254611671, 0.00514843687415123, 0.005767147056758404, 0.014351991936564445, 0.00317774573341012, 0.10479404032230377, 0.09883923828601837, 0.213303804397583, 0.05245191603899002, 0.028587544336915016, 0.0054630921222269535, 0.05650926008820534, 0.03613375872373581, 0.018293214961886406, 0.038924913853406906, 0.29251158237457275], [0.002260911976918578, 0.007200868800282478, 0.0013045601081103086, 0.004277043044567108, 0.00267426366917789, 0.00023151184723246843, 0.0026713719125837088, 0.003989443648606539, 0.0194767527282238, 0.002226851414889097, 0.0902915745973587, 0.08742059022188187, 0.27983659505844116, 0.06673674285411835, 0.0762893408536911, 0.007864459417760372, 0.07569453120231628, 0.02829406037926674, 0.038776468485593796, 0.0967322289943695, 0.10574986785650253], [0.003204947104677558, 0.012190456502139568, 0.0027028697077184916, 0.004564062692224979, 0.0004324422334320843, 0.00024067268532235175, 0.0026247878558933735, 0.003022218821570277, 0.023352526128292084, 0.0028886354994028807, 0.0749850869178772, 0.06232708692550659, 0.010806435719132423, 0.07707878202199936, 0.07207419723272324, 0.00810027215629816, 0.07236673682928085, 0.08788932859897614, 0.06553951650857925, 0.15029168128967285, 0.26331719756126404], [0.01170423999428749, 0.023693114519119263, 0.0055455537512898445, 0.018999051302671432, 0.007420866284519434, 0.0010183058911934495, 0.016707243397831917, 0.016084495931863785, 0.061495307832956314, 0.01205275859683752, 0.07526789605617523, 0.04037868604063988, 0.04271897301077843, 0.09948840737342834, 0.026568036526441574, 0.008188539184629917, 0.058979108929634094, 0.21469621360301971, 0.03498617187142372, 0.08836102485656738, 0.1356460452079773], [0.00454116752371192, 0.02020070143043995, 0.004353761672973633, 0.013187619857490063, 0.00421507703140378, 0.0004839148896280676, 0.01175779290497303, 0.00309054646641016, 0.026785673573613167, 0.003484148997813463, 0.03563990071415901, 0.016679659485816956, 0.02611212432384491, 0.06219729781150818, 0.021325238049030304, 0.010457862168550491, 0.026415906846523285, 0.13130639493465424, 0.14411994814872742, 0.2755715847015381, 0.15807369351387024], [0.0048433574847877026, 0.011779386550188065, 0.0029346346855163574, 0.007782707456499338, 0.0008730856934562325, 0.00043860325240530074, 0.012743236497044563, 0.0031181639060378075, 0.020275631919503212, 0.005086892284452915, 0.019293278455734253, 0.013656312599778175, 0.00788490753620863, 0.06861688196659088, 0.020608384162187576, 0.006802180781960487, 0.02642025239765644, 0.17333494126796722, 0.10561501979827881, 0.35544049739837646, 0.13245165348052979], [0.008901689201593399, 0.024915071204304695, 0.007609967608004808, 0.0163678340613842, 0.005984979681670666, 0.0014445570996031165, 0.010031375102698803, 0.0056512379087507725, 0.042109861969947815, 0.007381865754723549, 0.03295395150780678, 0.01842365972697735, 0.024817686527967453, 0.10633014887571335, 0.018058963119983673, 0.006163619924336672, 0.022814488038420677, 0.24718894064426422, 0.09643633663654327, 0.1845710426568985, 0.11184278130531311], [0.033858202397823334, 0.02160153165459633, 0.006457064766436815, 0.023054683580994606, 0.009650018066167831, 0.0021773658227175474, 0.015900738537311554, 0.011462130583822727, 0.0836416557431221, 0.010338297113776207, 0.041430018842220306, 0.019517982378602028, 0.021734558045864105, 0.13102169334888458, 0.006895530968904495, 0.0049229334108531475, 0.010849985294044018, 0.4480085074901581, 0.00870440248399973, 0.014901875518262386, 0.07387080043554306], [0.03273836150765419, 0.007177634630352259, 0.0029994556680321693, 0.003942234441637993, 0.0012261095689609647, 0.0008160386350937188, 0.03131626918911934, 0.001248562941327691, 0.02480701543390751, 0.006540671456605196, 0.008135590702295303, 0.007781124208122492, 0.009454922750592232, 0.14489296078681946, 0.04471612349152565, 0.00846402533352375, 0.005205623339861631, 0.32110029458999634, 0.05597256124019623, 0.13013538718223572, 0.151328906416893], [0.020788680762052536, 0.007594421040266752, 0.003243895946070552, 0.004340193700045347, 0.0011695105349645019, 0.0006970537942834198, 0.023834124207496643, 0.0015219058841466904, 0.037193264812231064, 0.00953197292983532, 0.028490640223026276, 0.023820603266358376, 0.016596302390098572, 0.13346579670906067, 0.031533800065517426, 0.004939906764775515, 0.006255347281694412, 0.26912766695022583, 0.08735846728086472, 0.05143778771162033, 0.23705865442752838], [0.015022448264062405, 0.04145557060837746, 0.012968161143362522, 0.03862914443016052, 0.044827964156866074, 0.006211122497916222, 0.024548692628741264, 0.027557814493775368, 0.1942884474992752, 0.030615560710430145, 0.14523755013942719, 0.04001329839229584, 0.02494039759039879, 0.07809886336326599, 0.012397357262670994, 0.0016596268396824598, 0.013087430037558079, 0.14181293547153473, 0.008275508880615234, 0.012004301883280277, 0.08634787052869797]], [[0.0012679792707785964, 0.005277690477669239, 0.003934698179364204, 0.005426823161542416, 0.0016126860864460468, 0.000492395949549973, 5.5466440244344994e-05, 5.1342220103833824e-05, 0.00022080191411077976, 0.00040249095764011145, 0.023962395265698433, 0.015200596302747726, 0.0046094004064798355, 0.002200700342655182, 0.0006013500387780368, 0.0003214821917936206, 0.0009093546541407704, 0.0026951588224619627, 0.005427843425422907, 0.03285052999854088, 0.8924787640571594], [6.76169202051824e-06, 0.005696933250874281, 0.9918881058692932, 0.0002274784492328763, 4.555944542516954e-06, 4.932224328513257e-06, 7.504469294872251e-07, 2.8485655434451473e-07, 1.0275639397150371e-05, 0.00013227941235527396, 1.3810844734507555e-07, 1.1645434824458789e-05, 2.7848123806961667e-08, 1.1917381016246509e-05, 5.947301815467654e-07, 1.013645078984382e-08, 3.377653712277606e-08, 0.00047884404193609953, 0.0014431534800678492, 1.535383671580348e-05, 6.598035542992875e-05], [3.100144567724783e-06, 0.00023706178762950003, 0.002794716041535139, 0.9864185452461243, 0.010467306710779667, 3.56205491698347e-05, 4.188431290685912e-08, 2.8291018416837233e-09, 2.1953378563921433e-06, 9.404959655512357e-07, 3.2929315239016432e-06, 9.430749514649506e-08, 3.90932336813421e-06, 1.3272887144921697e-06, 7.960671410955911e-08, 4.7261344143789685e-11, 3.162718420490762e-10, 3.198983904439956e-06, 1.4329175428429153e-06, 1.2974747960470268e-06, 2.5888886739267036e-05], [5.1787750976473035e-08, 1.02872093066253e-07, 1.2383119383230223e-06, 4.664944572141394e-05, 0.9995245933532715, 0.0004213869688101113, 7.789857647821918e-09, 1.7842755051233894e-09, 2.581182343419641e-07, 2.2523112264138945e-09, 4.897471317377722e-09, 1.4524677283134224e-07, 1.58252203164011e-06, 1.4865242974337889e-06, 6.036059829739315e-08, 5.1734733830244295e-08, 2.850691904754399e-10, 1.3436571180136525e-06, 1.012265878758134e-11, 2.5588149654698356e-11, 1.0246902775179478e-06], [1.8158077637053793e-06, 1.375945203108131e-06, 1.1164357829329674e-06, 4.3182018998777494e-05, 0.005558272358030081, 0.9931653141975403, 0.00034884046181105077, 1.3484532601637511e-08, 6.882538059471699e-07, 2.9348751695579267e-07, 4.421389032671641e-09, 6.904614338054671e-07, 3.434962252413243e-07, 0.0005515469238162041, 0.0003007993218488991, 8.918718208406062e-09, 3.6807821235385063e-09, 2.3716784198768437e-05, 2.0177806092647188e-08, 1.5172630929427555e-09, 1.8871801330533344e-06], [2.0917122256491893e-08, 1.1570982678676955e-06, 5.128809732468653e-08, 3.210704448974866e-07, 1.9406618321227143e-06, 0.1254657804965973, 0.8742837905883789, 3.808223846135661e-05, 3.8664606449856365e-07, 9.760433528072099e-08, 2.894672834763412e-10, 1.323686937837465e-09, 9.240428511247956e-08, 7.919538620626554e-05, 8.693002018844709e-05, 3.994891085312702e-05, 2.616999097426742e-07, 1.6707102759028203e-06, 2.0498468700225203e-08, 7.903733778569233e-10, 2.4673900611560384e-07], [1.0847432285743253e-08, 5.73266618175694e-07, 9.993538697017357e-06, 2.828248968356206e-09, 3.410941928905231e-08, 4.8919073236675104e-08, 0.0004898321931250393, 0.9993450045585632, 6.870758170407498e-06, 1.4230222404876258e-06, 2.639201301946059e-09, 5.123026447506618e-09, 6.9942709401971115e-09, 3.500537673062354e-07, 1.5497622740667794e-08, 9.40597165026702e-05, 4.812028419109993e-05, 3.969247472923598e-07, 1.2537627824826814e-08, 1.2351270015642513e-06, 1.9271292330813594e-06], [1.0977992133121006e-06, 8.205961057683453e-05, 5.22729010299372e-07, 2.6939094368572114e-06, 3.6019471849613183e-07, 1.3715431634864217e-07, 3.0021209340702626e-07, 0.001079590292647481, 0.9930445551872253, 0.0017038768855854869, 9.225844223692548e-06, 6.071119162953664e-10, 6.505185012883885e-08, 5.2777679229620844e-05, 1.495355945735355e-07, 2.0649817855655783e-08, 1.502107238593453e-06, 0.003950717393308878, 1.7784398664844048e-07, 8.845135823776218e-08, 6.989152461756021e-05], [0.0005385481053963304, 0.00019355438416823745, 0.00034007534850388765, 3.1546063837595284e-05, 3.506217808535439e-06, 1.8183687870987342e-06, 2.0914790184178855e-06, 7.41009134799242e-05, 0.04795406013727188, 0.9381502866744995, 0.0029965743888169527, 0.00011576843826333061, 1.8317959415981022e-07, 5.562667138292454e-05, 6.937827856745571e-05, 1.170167979580583e-05, 5.800947474199347e-05, 0.006710238289088011, 0.0004698996199294925, 3.0162498660502024e-05, 0.0021928036585450172], [9.418142144568264e-05, 0.000875196245033294, 4.527112832874991e-05, 7.307947089429945e-05, 5.418665750767104e-06, 1.415647261637787e-07, 1.1710586278468327e-08, 1.063290824276919e-06, 0.03034628927707672, 0.0029518951196223497, 0.9050709009170532, 0.0009651850559748709, 5.733609668823192e-06, 2.4526132619939744e-05, 1.0821275964190136e-07, 2.444113818000915e-07, 6.2862629420124e-05, 0.05301559716463089, 3.392928192624822e-05, 6.302921246970072e-05, 0.006365351844578981], [2.3821063223294914e-05, 1.6360512518076575e-06, 5.990216322970809e-06, 5.7273490483567e-07, 1.6164493672476965e-06, 1.2383150078676408e-06, 3.6201739384011944e-09, 1.0029776315034766e-10, 3.061857114516897e-07, 2.4709634089958854e-05, 0.0024106870405375957, 0.9973247051239014, 4.803669435204938e-05, 3.143949925288325e-06, 1.3642395515489625e-06, 1.614580469322391e-08, 3.597173048319746e-08, 6.890132499393076e-05, 2.728859180933796e-05, 2.198133159936333e-07, 5.550841524382122e-05], [6.028153620718513e-07, 4.366623613805132e-07, 1.9496898318038802e-08, 4.157355760980863e-06, 0.0004189443134237081, 2.497788955224678e-05, 1.8939006807272563e-08, 5.2009205969705263e-11, 4.065042968903754e-09, 4.417082255514515e-10, 1.1735696716641542e-05, 0.0017678781878203154, 0.9976751208305359, 8.04778901510872e-05, 2.620795100938267e-07, 2.3656077097200523e-09, 1.1869978333578501e-09, 7.5697971624322236e-06, 2.037816493327682e-08, 1.9117205596330678e-08, 7.781746717228089e-06], [1.6043020423239795e-06, 1.9959036023919907e-07, 9.184153992869426e-10, 8.931818484825271e-08, 6.324432888504816e-08, 5.703064380213618e-05, 3.1819982382330636e-07, 2.0199379946461704e-08, 3.1021440918266308e-06, 5.8276827807901554e-09, 5.7044914569814864e-08, 7.029186122053943e-07, 0.001166307250969112, 0.9932795166969299, 0.004824822768568993, 3.0949914275879564e-07, 8.213559254954816e-08, 0.0005488384631462395, 1.903578237261172e-07, 2.110147789835537e-07, 0.00011649560474324971], [0.00037204541149549186, 1.836970477597788e-05, 3.419899076106958e-05, 0.00023326970404013991, 1.795964635675773e-05, 0.00222229165956378, 0.00028815731639042497, 4.9060261517297477e-05, 0.00037010860978625715, 0.00015879084821790457, 4.051426003570668e-06, 2.953723378595896e-05, 0.0002541621506679803, 0.04160354286432266, 0.9489887356758118, 0.000693682988639921, 0.00017003795073833317, 0.0012997010489925742, 0.00017205034964717925, 1.6002426491468213e-05, 0.003004335332661867], [6.987499467925318e-11, 1.0691143109697876e-10, 6.29878788016569e-11, 4.722118095851213e-12, 1.2347474154239535e-09, 5.100279665271046e-08, 1.988798103980116e-08, 6.956508702415931e-09, 7.00205837755874e-10, 2.772225504710235e-10, 1.6675666403287437e-09, 1.6183585582751903e-09, 9.211536422526478e-09, 1.0378006010114404e-08, 1.0545459190325346e-06, 0.9997618794441223, 0.000237004627706483, 5.938867619903476e-09, 1.4687191740581085e-10, 3.0108542325990584e-09, 6.935615637360115e-09], [1.1871149041553508e-07, 1.0907467640208779e-07, 8.580562393945002e-08, 9.409511392277636e-09, 8.091789460706877e-09, 6.227489990351387e-08, 5.909449555474566e-06, 8.807955600786954e-05, 3.89101927567026e-07, 4.482682925299741e-06, 1.7964116523216944e-06, 5.293380809234804e-07, 1.6265306612694985e-07, 8.963189657151815e-08, 0.00019397426513023674, 0.011401583440601826, 0.9882853031158447, 1.8375089894107077e-07, 6.591411420231452e-06, 9.920420779963024e-06, 5.699972120964958e-07], [2.3117994714993984e-05, 0.0010817092843353748, 8.196673206839478e-07, 3.9901172499412496e-07, 6.542334745063272e-07, 2.638363127971388e-07, 3.0397259820347244e-08, 5.151876848685788e-06, 0.013967407867312431, 9.826276800595224e-05, 0.0011911262990906835, 1.0658284736564383e-05, 7.890764391049743e-05, 0.0005198052967898548, 8.407091627304908e-06, 1.6199408491957e-05, 0.03027953766286373, 0.9436537623405457, 0.0005901841796003282, 5.386240081861615e-05, 0.008419821970164776], [0.028897836804389954, 0.03916462883353233, 0.014921024441719055, 0.0006659909267909825, 4.018396793981083e-05, 0.00012419816630426794, 0.00011041737889172509, 0.00020389097335282713, 0.006071783602237701, 0.006335049401968718, 0.000911105889827013, 0.0022906609810888767, 0.00017792584549169987, 0.021390387788414955, 0.0005649728700518608, 8.406570123042911e-05, 0.0007423344068229198, 0.5728225708007812, 0.057951152324676514, 0.00317351589910686, 0.24335627257823944], [3.020357439709187e-07, 1.1972181255259784e-06, 2.8961188945686445e-05, 1.3271676380099962e-06, 1.0278643713945712e-08, 1.464298127196173e-09, 5.490544463526703e-09, 8.783375804455318e-09, 2.417340105864696e-08, 4.630847527664628e-08, 6.412287802959327e-07, 1.0099350902237347e-06, 4.845620082960522e-07, 2.4160610792023363e-06, 2.8562437748291813e-08, 8.410345799347851e-06, 6.679845682810992e-06, 4.1389790567336604e-05, 0.0007232513162307441, 0.9973166584968567, 0.0018671059515327215], [0.00014727195957675576, 1.1138325135107152e-05, 1.9645774955279194e-05, 0.0005786223919130862, 1.8562288460088894e-05, 7.284940295448905e-08, 2.914642971418857e-09, 4.838103251358916e-08, 9.748974116519094e-05, 3.5377997846808285e-06, 2.489681173756253e-05, 6.074797511246288e-06, 4.033435834571719e-05, 0.0003665511612780392, 1.8045031993096927e-06, 5.2148294571452425e-08, 8.755445378483273e-06, 0.02863391861319542, 0.002531754784286022, 0.014841089956462383, 0.9526683688163757], [0.003196458797901869, 0.5078840851783752, 0.07213440537452698, 0.03133175149559975, 0.004275099840015173, 0.0015919855795800686, 0.0003887286293320358, 0.00020264489285182208, 0.003320089541375637, 0.0021443807054311037, 0.015415985137224197, 0.011050333268940449, 0.0024438374675810337, 0.05437004938721657, 0.0038886158727109432, 0.0013948084088042378, 0.003056124085560441, 0.06091293692588806, 0.030934348702430725, 0.04721877723932266, 0.14284464716911316]], [[0.01432081963866949, 0.03853412717580795, 0.027655912563204765, 0.04359615221619606, 0.10442456603050232, 0.024133218452334404, 0.0034665935672819614, 0.016570091247558594, 0.0369272381067276, 0.014355816878378391, 0.10331285744905472, 0.07085820287466049, 0.15694338083267212, 0.03457606956362724, 0.12367940694093704, 0.013472850434482098, 0.05962204188108444, 0.017578551545739174, 0.0418773777782917, 0.01827472262084484, 0.03582005575299263], [0.049687013030052185, 0.08272194117307663, 0.03773565590381622, 0.05539725720882416, 0.0692804604768753, 0.02602054737508297, 0.017790770158171654, 0.04691384732723236, 0.08156237751245499, 0.02132253721356392, 0.10215859860181808, 0.029487336054444313, 0.04995978996157646, 0.05252569541335106, 0.029398126527667046, 0.009310201741755009, 0.03290389105677605, 0.05735041946172714, 0.007114670239388943, 0.010377512313425541, 0.13098135590553284], [0.034245144575834274, 0.0768556073307991, 0.0060730488039553165, 0.016659528017044067, 0.00597589835524559, 0.007981433533132076, 0.02031126245856285, 0.05755507946014404, 0.07623422145843506, 0.056017279624938965, 0.05514445900917053, 0.007513775490224361, 0.020490562543272972, 0.07063818722963333, 0.06554999202489853, 0.01434330828487873, 0.07952415943145752, 0.05620691552758217, 0.01683429628610611, 0.008762580342590809, 0.24708323180675507], [0.03822430223226547, 0.14028918743133545, 0.058759551495313644, 0.003838238539174199, 0.007149565499275923, 0.009141693823039532, 0.014320888556540012, 0.026705894619226456, 0.08595924824476242, 0.012547331862151623, 0.09111858904361725, 0.06134818494319916, 0.01412881538271904, 0.09417082369327545, 0.02393946796655655, 0.01769099570810795, 0.03694576025009155, 0.10708558559417725, 0.003364339005202055, 0.020324362441897392, 0.1329471617937088], [0.01437243539839983, 0.1961190104484558, 0.04157491400837898, 0.07089342176914215, 0.020263932645320892, 0.006319339387118816, 0.0059400745667517185, 0.039671286940574646, 0.050173498690128326, 0.05452052503824234, 0.0867152214050293, 0.03143085911870003, 0.03818078711628914, 0.028434300795197487, 0.024084914475679398, 0.004138682037591934, 0.03592152148485184, 0.04117831587791443, 0.00812404416501522, 0.013735804706811905, 0.18820710480213165], [0.022375868633389473, 0.09483668953180313, 0.01289752684533596, 0.052311260253190994, 0.018982460722327232, 0.0031694811768829823, 0.005868838634341955, 0.01527421921491623, 0.08467323333024979, 0.017872584983706474, 0.05184193700551987, 0.01484640408307314, 0.04569783806800842, 0.16627369821071625, 0.03155866265296936, 0.006816360633820295, 0.043355442583560944, 0.23423875868320465, 0.024186767637729645, 0.009841271676123142, 0.04308082163333893], [0.029917249456048012, 0.056207798421382904, 0.023128150030970573, 0.01763341575860977, 0.021199049428105354, 0.018312176689505577, 0.0023085942957550287, 0.014832137152552605, 0.10306130349636078, 0.0333368293941021, 0.05697603151202202, 0.02843380905687809, 0.03236277028918266, 0.11042410135269165, 0.058618880808353424, 0.015700312331318855, 0.05242166295647621, 0.17555759847164154, 0.037048302590847015, 0.009865310974419117, 0.10265461355447769], [0.0370078980922699, 0.07253944128751755, 0.04627453535795212, 0.008198031224310398, 0.03332485631108284, 0.012081149965524673, 0.017968611791729927, 0.01699361391365528, 0.07266649603843689, 0.03817523643374443, 0.05911248177289963, 0.03655223920941353, 0.06144259497523308, 0.08705533295869827, 0.03218905255198479, 0.011564829386770725, 0.02107754535973072, 0.08831798285245895, 0.02509472705423832, 0.05729711428284645, 0.1650662124156952], [0.025571130216121674, 0.10250593721866608, 0.05766032263636589, 0.06577148288488388, 0.07373359054327011, 0.02337076887488365, 0.011549582704901695, 0.0235458817332983, 0.06713844835758209, 0.03203675150871277, 0.08105562627315521, 0.031437743455171585, 0.045682355761528015, 0.06527052074670792, 0.03287161514163017, 0.008835374377667904, 0.02627898007631302, 0.10249491780996323, 0.019080815836787224, 0.013428844511508942, 0.09067933261394501], [0.03788731247186661, 0.07389569282531738, 0.05871192738413811, 0.019301701337099075, 0.029433147981762886, 0.009321401827037334, 0.013940315693616867, 0.026027075946331024, 0.1052754819393158, 0.012571234256029129, 0.07989253103733063, 0.055219341069459915, 0.0389946773648262, 0.09931305050849915, 0.024136515334248543, 0.005797030404210091, 0.04182593524456024, 0.1724207103252411, 0.015992728993296623, 0.01170768029987812, 0.06833462417125702], [0.022481011226773262, 0.08406102657318115, 0.05246368795633316, 0.0643780305981636, 0.09600508213043213, 0.017758216708898544, 0.015381788834929466, 0.02429221011698246, 0.06996646523475647, 0.04990380257368088, 0.1198626384139061, 0.042127083986997604, 0.0709587037563324, 0.036878906190395355, 0.03316230699419975, 0.006808852311223745, 0.019321110099554062, 0.03963852301239967, 0.0060362983494997025, 0.011881019920110703, 0.11663327366113663], [0.015939898788928986, 0.06589285284280777, 0.008269054815173149, 0.033180173486471176, 0.02574855461716652, 0.02041822113096714, 0.04057438299059868, 0.03920881450176239, 0.09013402462005615, 0.13855327665805817, 0.06630156934261322, 0.006754104979336262, 0.04461164399981499, 0.07085239142179489, 0.05679580941796303, 0.014505340717732906, 0.022517496719956398, 0.05882133170962334, 0.01780475117266178, 0.01171085238456726, 0.15140537917613983], [0.00684666121378541, 0.1226423904299736, 0.04445028305053711, 0.06726986169815063, 0.044567205011844635, 0.01573280058801174, 0.01340590137988329, 0.0491725318133831, 0.06947511434555054, 0.12170825898647308, 0.09607496112585068, 0.04351074993610382, 0.06332650780677795, 0.04072168096899986, 0.03325171768665314, 0.005709079559892416, 0.022960493341088295, 0.04835514724254608, 0.019696323201060295, 0.021672528237104416, 0.04944983497262001], [0.01232186146080494, 0.07432203739881516, 0.03720968961715698, 0.047952800989151, 0.04487546905875206, 0.023031359538435936, 0.01191028207540512, 0.030413467437028885, 0.09947966784238815, 0.04715989530086517, 0.06788964569568634, 0.02969207614660263, 0.04516379162669182, 0.10447824746370316, 0.025101875886321068, 0.013764992356300354, 0.029493749141693115, 0.17495928704738617, 0.024852994829416275, 0.019926300272345543, 0.03600040078163147], [0.013731338083744049, 0.0465848445892334, 0.01891377940773964, 0.002959052799269557, 0.008121327497065067, 0.00957154668867588, 0.01738799177110195, 0.017444755882024765, 0.13264092803001404, 0.028028467670083046, 0.04749559611082077, 0.021181123331189156, 0.023697324097156525, 0.18137380480766296, 0.014446272514760494, 0.013595905154943466, 0.020508168265223503, 0.2745834290981293, 0.038996465504169464, 0.036916568875312805, 0.03182128816843033], [0.009724863804876804, 0.038384951651096344, 0.0217994786798954, 0.019514836370944977, 0.011276422068476677, 0.008275873959064484, 0.017879847437143326, 0.02514510042965412, 0.09373902529478073, 0.04595629870891571, 0.06335766613483429, 0.047609761357307434, 0.03803309425711632, 0.15336625277996063, 0.049187980592250824, 0.03178757429122925, 0.07135254889726639, 0.1413479894399643, 0.03552816063165665, 0.05402103438973427, 0.02271120436489582], [0.016122085973620415, 0.030844835564494133, 0.026969201862812042, 0.009173577651381493, 0.03603803366422653, 0.005224224645644426, 0.017269765958189964, 0.028357485309243202, 0.09674493223428726, 0.09455887228250504, 0.058147184550762177, 0.03432300686836243, 0.0876675620675087, 0.08932109922170639, 0.02282826043665409, 0.017811313271522522, 0.022177793085575104, 0.09065317362546921, 0.03154479339718819, 0.10713370889425278, 0.0770891085267067], [0.013232027180492878, 0.04687010124325752, 0.022831887006759644, 0.038279276341199875, 0.03375456854701042, 0.017462853342294693, 0.009088254533708096, 0.021685553714632988, 0.10410769283771515, 0.03671598806977272, 0.04887352138757706, 0.0198105126619339, 0.026815548539161682, 0.13420997560024261, 0.019910328090190887, 0.013764899224042892, 0.03105679154396057, 0.30440208315849304, 0.016593514010310173, 0.010740317404270172, 0.029794231057167053], [0.02403838001191616, 0.02007175423204899, 0.014525001868605614, 0.022567814216017723, 0.013135060667991638, 0.007343635894358158, 0.006386196706444025, 0.039257001131772995, 0.1214488074183464, 0.02982219122350216, 0.0384073443710804, 0.010548289865255356, 0.02201216295361519, 0.1482885628938675, 0.03447868674993515, 0.012861926108598709, 0.07676157355308533, 0.29737189412117004, 0.008318334817886353, 0.00847457256168127, 0.04388076439499855], [0.020048364996910095, 0.03686795011162758, 0.023626815527677536, 0.03842779994010925, 0.015385702252388, 0.0026608749758452177, 0.002120988443493843, 0.07191038876771927, 0.08682047575712204, 0.032565854489803314, 0.06619454175233841, 0.018587078899145126, 0.02499120868742466, 0.09522750228643417, 0.025912247598171234, 0.013072938658297062, 0.16949260234832764, 0.15652401745319366, 0.005856720265001059, 0.007444535382091999, 0.08626141399145126], [0.07156424969434738, 0.055522602051496506, 0.0345597118139267, 0.07631678879261017, 0.17708683013916016, 0.008958661928772926, 0.004274024162441492, 0.018489770591259003, 0.05933400243520737, 0.009658507071435452, 0.10295576602220535, 0.0543314665555954, 0.1258966475725174, 0.03799019381403923, 0.026762641966342926, 0.006995688658207655, 0.030549269169569016, 0.038035113364458084, 0.016244813799858093, 0.028486473485827446, 0.015986740589141846]], [[0.05392501875758171, 0.011769386939704418, 0.03604236617684364, 0.14351686835289001, 0.05504210665822029, 0.0122703080996871, 0.28006505966186523, 0.01752028800547123, 0.021064357832074165, 0.07748821377754211, 0.015067102387547493, 0.02916877716779709, 0.02810855209827423, 0.01708301529288292, 0.06926831603050232, 0.021744877099990845, 0.037040457129478455, 0.028739269822835922, 0.018650079146027565, 0.010981985367834568, 0.015443569049239159], [0.002360632875934243, 0.024847760796546936, 0.05659971013665199, 0.3979877233505249, 0.13823525607585907, 0.0017413211753591895, 0.03366106376051903, 0.014246114529669285, 0.018333589658141136, 0.044385042041540146, 0.020398017019033432, 0.04129842296242714, 0.07699555158615112, 0.019149141386151314, 0.019800543785095215, 0.0025584795512259007, 0.01770096831023693, 0.020587783306837082, 0.015109512023627758, 0.02103164978325367, 0.012971687130630016], [0.0027422092389315367, 0.026567362248897552, 0.018559468910098076, 0.40942177176475525, 0.14598894119262695, 0.0024034143425524235, 0.019500043243169785, 0.022194193676114082, 0.020624591037631035, 0.02969285473227501, 0.028407668694853783, 0.022956471890211105, 0.10850811004638672, 0.019845573231577873, 0.01995418407022953, 0.0023168923798948526, 0.019269272685050964, 0.0203462652862072, 0.011095414869487286, 0.038066234439611435, 0.011539075523614883], [0.0033538322895765305, 0.0409417562186718, 0.05235186964273453, 0.18615777790546417, 0.0952095091342926, 0.002018679864704609, 0.02348955348134041, 0.023520611226558685, 0.06424260884523392, 0.04431971535086632, 0.03208712860941887, 0.04812948778271675, 0.06781961023807526, 0.06484159827232361, 0.01976189762353897, 0.00299675646238029, 0.02956502139568329, 0.12277795374393463, 0.04042216017842293, 0.021399540826678276, 0.014592980965971947], [0.003200847888365388, 0.04135613515973091, 0.10457348823547363, 0.14632199704647064, 0.1319853514432907, 0.004027071874588728, 0.03563645854592323, 0.013929491862654686, 0.027962755411863327, 0.059583552181720734, 0.03487919270992279, 0.12162823975086212, 0.08685536682605743, 0.016979137435555458, 0.03600252792239189, 0.0027326680719852448, 0.010997009463608265, 0.01938922517001629, 0.01852543279528618, 0.04391377419233322, 0.039520371705293655], [0.01441645435988903, 0.032147765159606934, 0.061074644327163696, 0.164870485663414, 0.06170594319701195, 0.006109793204814196, 0.02156643010675907, 0.02792326919734478, 0.04539098963141441, 0.07432609796524048, 0.029296088963747025, 0.0653076022863388, 0.03734927624464035, 0.030458873137831688, 0.037215109914541245, 0.0091001121327281, 0.03183066099882126, 0.05941708758473396, 0.051268551498651505, 0.02756888046860695, 0.11165589094161987], [0.013294737786054611, 0.05913868919014931, 0.07947663962841034, 0.10194598883390427, 0.08584420382976532, 0.004485222045332193, 0.016337230801582336, 0.013033510185778141, 0.06124619022011757, 0.09559569507837296, 0.07147448509931564, 0.13534434139728546, 0.04447698965668678, 0.022022541612386703, 0.03039414994418621, 0.002251138910651207, 0.015001715160906315, 0.045191917568445206, 0.014934014528989792, 0.008413412608206272, 0.08009714633226395], [0.0035536664072424173, 0.031208885833621025, 0.03592446446418762, 0.41953766345977783, 0.0914444774389267, 0.0040824818424880505, 0.06599518656730652, 0.013296606950461864, 0.03165009617805481, 0.03482610732316971, 0.015744894742965698, 0.027499377727508545, 0.03840551897883415, 0.02629903331398964, 0.033901091665029526, 0.002746272599324584, 0.014046875759959221, 0.0534326434135437, 0.01818171702325344, 0.015163686126470566, 0.023059282451868057], [0.016974477097392082, 0.061397552490234375, 0.0394749715924263, 0.1389329880475998, 0.06860046088695526, 0.005000755190849304, 0.04851298779249191, 0.014429794624447823, 0.08070039749145508, 0.03956317529082298, 0.04797438159584999, 0.033996712416410446, 0.04281146079301834, 0.07756783813238144, 0.02090384252369404, 0.006366151850670576, 0.016883913427591324, 0.14643160998821259, 0.022376280277967453, 0.020579393953084946, 0.05052090063691139], [0.006945938803255558, 0.05716359615325928, 0.06276611983776093, 0.05524732545018196, 0.061838261783123016, 0.005065311677753925, 0.1038111001253128, 0.007697096094489098, 0.051811061799526215, 0.14400850236415863, 0.05128876864910126, 0.09102704375982285, 0.048783790320158005, 0.031016813591122627, 0.04410899430513382, 0.004717082716524601, 0.013548316434025764, 0.054307833313941956, 0.026999332010746002, 0.013351558707654476, 0.06449616700410843], [0.011553805321455002, 0.06026618927717209, 0.04194781556725502, 0.22371599078178406, 0.13135424256324768, 0.002295565325766802, 0.047425709664821625, 0.015665680170059204, 0.05314656347036362, 0.023442327976226807, 0.04409618675708771, 0.030628234148025513, 0.06924612075090408, 0.04748847335577011, 0.013693192973732948, 0.004622650798410177, 0.016885165125131607, 0.061286911368370056, 0.010809524916112423, 0.024340040981769562, 0.06608960777521133], [0.00850506778806448, 0.04373355954885483, 0.015877874568104744, 0.31138288974761963, 0.11987259238958359, 0.0029056670609861612, 0.04268455132842064, 0.018693603575229645, 0.03302852064371109, 0.026087822392582893, 0.03969178721308708, 0.022840896621346474, 0.11407190561294556, 0.028033727779984474, 0.01878119818866253, 0.0035180258564651012, 0.01990695856511593, 0.029976870864629745, 0.008734822273254395, 0.04105132073163986, 0.05062045902013779], [0.003767223795875907, 0.04519947990775108, 0.09306185692548752, 0.09662659466266632, 0.073963463306427, 0.004391784314066172, 0.09855608642101288, 0.008369828574359417, 0.021654333919286728, 0.11600261926651001, 0.0315016433596611, 0.10914578288793564, 0.08686952292919159, 0.015820764005184174, 0.04883481562137604, 0.00345780816860497, 0.00931073073297739, 0.015239842236042023, 0.015412170439958572, 0.04399527981877327, 0.05881848931312561], [0.014110838994383812, 0.06573972851037979, 0.03492315486073494, 0.08251813799142838, 0.03771906718611717, 0.005522741470485926, 0.056580815464258194, 0.01165866106748581, 0.0788978859782219, 0.05210039019584656, 0.03839496150612831, 0.028041906654834747, 0.035479914397001266, 0.09643397480249405, 0.033810194581747055, 0.007657389156520367, 0.014022702351212502, 0.19381877779960632, 0.024744460359215736, 0.026052843779325485, 0.06177134066820145], [0.002454324858263135, 0.033609770238399506, 0.09750659763813019, 0.1295890063047409, 0.0423252135515213, 0.006135009229183197, 0.059849902987480164, 0.009723013266921043, 0.021555665880441666, 0.25682181119918823, 0.013935744762420654, 0.07244214415550232, 0.0431915707886219, 0.018206104636192322, 0.040612708777189255, 0.005923568271100521, 0.025362733751535416, 0.03204848989844322, 0.04410448670387268, 0.015203220769762993, 0.029399000108242035], [0.008968722075223923, 0.02599222958087921, 0.039155732840299606, 0.1762494444847107, 0.03339399769902229, 0.012781763449311256, 0.10843217372894287, 0.013579173013567924, 0.02237488143146038, 0.1050070971250534, 0.016605760902166367, 0.04175742343068123, 0.031663551926612854, 0.02521584928035736, 0.15678606927394867, 0.012796624563634396, 0.027592243626713753, 0.038560569286346436, 0.03614412620663643, 0.01866336166858673, 0.04827921837568283], [0.003730217693373561, 0.027784138917922974, 0.04277249798178673, 0.195205420255661, 0.06443067640066147, 0.006377947051078081, 0.13018721342086792, 0.01667076162993908, 0.027313170954585075, 0.1216382384300232, 0.014251590706408024, 0.03143826499581337, 0.052750300616025925, 0.02734605222940445, 0.08142197132110596, 0.006466325372457504, 0.01990032009780407, 0.04287717863917351, 0.03810076415538788, 0.02696521207690239, 0.02237170934677124], [0.012586253695189953, 0.02895958162844181, 0.006137567572295666, 0.01841016486287117, 0.00977005623281002, 0.0026014752220362425, 0.013974927365779877, 0.005809693597257137, 0.10829891264438629, 0.011079580523073673, 0.02476726472377777, 0.005993847269564867, 0.008895007893443108, 0.16184352338314056, 0.00798081699758768, 0.004666475113481283, 0.006083181593567133, 0.5302127599716187, 0.008978552184998989, 0.006248913239687681, 0.016701530665159225], [0.00701802596449852, 0.015611681155860424, 0.026164444163441658, 0.007094294764101505, 0.00472265062853694, 0.008475112728774548, 0.14402776956558228, 0.0033811263274401426, 0.01172439195215702, 0.34875720739364624, 0.011885756626725197, 0.04103327542543411, 0.014352554455399513, 0.010149674490094185, 0.1220865324139595, 0.012663645669817924, 0.0072719501331448555, 0.012164552696049213, 0.04990384727716446, 0.017317481338977814, 0.12419407069683075], [0.0031276170630007982, 0.020057745277881622, 0.08579019457101822, 0.08196546882390976, 0.029490066692233086, 0.005668539088219404, 0.12075241655111313, 0.006344054825603962, 0.011372756212949753, 0.19466227293014526, 0.01694141887128353, 0.13304026424884796, 0.0383046418428421, 0.008733970113098621, 0.10724718123674393, 0.006086369976401329, 0.012027028948068619, 0.011755823157727718, 0.03023826703429222, 0.009085400030016899, 0.06730850040912628], [0.0015299661317840219, 0.020992733538150787, 0.08738923072814941, 0.26110973954200745, 0.07554440945386887, 0.006223268806934357, 0.12653787434101105, 0.013294228352606297, 0.01003643311560154, 0.08846960216760635, 0.01818208396434784, 0.08208035677671432, 0.03216587379574776, 0.005396091844886541, 0.10692384839057922, 0.005256179254502058, 0.02083776704967022, 0.004137895535677671, 0.01664816588163376, 0.0051786527037620544, 0.012065649032592773]], [[0.04187773913145065, 0.10854087769985199, 0.019247541204094887, 0.024676773697137833, 0.06382294744253159, 0.034573815762996674, 0.03348545730113983, 0.020466556772589684, 0.09493117779493332, 0.042191281914711, 0.06054343283176422, 0.017691534012556076, 0.04205707088112831, 0.09009655565023422, 0.11475782841444016, 0.002664131112396717, 0.015144804492592812, 0.08480027318000793, 0.023866476491093636, 0.006054320372641087, 0.0585094578564167], [0.08287028223276138, 0.11913120001554489, 0.049840059131383896, 0.053903061896562576, 0.005262378603219986, 0.0006351394113153219, 0.0005618100985884666, 0.002336065052077174, 0.0445893257856369, 0.020763766020536423, 0.1227237805724144, 0.33597755432128906, 0.022026628255844116, 0.03147284686565399, 0.007914766669273376, 0.00022757497208658606, 0.006268288940191269, 0.022109154611825943, 0.000618776073679328, 0.0002565847826190293, 0.07051090896129608], [0.0014402245869860053, 0.00043766351882368326, 0.043500661849975586, 1.1239050763833802e-05, 1.057360896083992e-05, 2.3326998643824481e-07, 1.7280270014907728e-07, 1.435931693549719e-07, 0.00031435638084076345, 3.424787792027928e-05, 0.0016585675766691566, 0.9512638449668884, 4.6978562750155106e-05, 0.00032799216569401324, 7.363492386502912e-06, 4.9302570914733224e-08, 1.6128818742799922e-06, 0.000448174454504624, 4.865833943767939e-06, 7.041863227641443e-06, 0.0004840900655835867], [0.1424258053302765, 0.01095130667090416, 0.0004300540022086352, 0.46228861808776855, 0.0007380414172075689, 1.9870337837346597e-06, 6.777029284421587e-07, 3.9751762415107805e-06, 0.03176269307732582, 0.0017761202761903405, 0.12354547530412674, 0.02427482232451439, 0.00794280506670475, 0.043184347450733185, 0.0003105461655650288, 5.896495167689864e-06, 0.00047159078530967236, 0.12644198536872864, 1.620425609871745e-05, 5.681893162545748e-05, 0.023370150476694107], [0.013040140271186829, 0.0013235080987215042, 0.00011202187306480482, 3.5477092751534656e-05, 0.14636367559432983, 3.7651795992132975e-06, 5.025839300287771e-07, 5.914771463721991e-06, 0.002872849814593792, 5.437206255010096e-06, 0.008335722610354424, 0.0016322270967066288, 0.8039476871490479, 0.008215752430260181, 6.222309139047866e-07, 4.4082717067794874e-06, 0.0002124909806298092, 0.007277997210621834, 2.0613408651115606e-06, 6.364736327668652e-05, 0.00654404703527689], [0.13321426510810852, 0.013497227802872658, 6.299281812971458e-05, 3.781656005230616e-06, 0.00032989494502544403, 0.4492034316062927, 0.0012636713217943907, 0.0004432315763551742, 0.08925458788871765, 7.012393325567245e-05, 0.009896306321024895, 0.00012706840061582625, 0.00044962274841964245, 0.11123506724834442, 0.0004054784949403256, 6.80524535709992e-05, 0.0002859426604118198, 0.1387881487607956, 2.5194685804308392e-05, 0.001809434499591589, 0.04956649988889694], [0.16525311768054962, 0.00917072594165802, 2.186633355449885e-05, 1.0166045285586733e-05, 0.0002513673098292202, 0.00236675888299942, 0.1946466863155365, 0.0013747990597039461, 0.16142764687538147, 0.00019143761892337352, 0.01072507631033659, 0.00027053680969402194, 0.00041494477773085237, 0.17308224737644196, 0.0002501932322047651, 1.2837072063121013e-05, 0.00018607426318340003, 0.23430714011192322, 9.172908175969496e-05, 0.0006135694566182792, 0.045331116765737534], [0.19571396708488464, 0.008103118278086185, 3.584875594242476e-05, 1.1739818546629976e-05, 0.0003089667879976332, 5.279098331811838e-05, 0.0010564427357167006, 0.3816095292568207, 0.041442349553108215, 0.00025614784681238234, 0.0064783343113958836, 0.00031725666485726833, 0.0008429711451753974, 0.029387865215539932, 1.314011387876235e-05, 4.62955649709329e-05, 0.27736696600914, 0.04128507152199745, 6.0848137763969135e-06, 0.00019074996816925704, 0.015474284999072552], [0.08423124998807907, 0.06191369891166687, 0.024460727348923683, 0.03847884014248848, 0.014715640805661678, 0.0077523160725831985, 0.02375010959804058, 0.01366423536092043, 0.10798084735870361, 0.15550509095191956, 0.05132110044360161, 0.031745024025440216, 0.01857144758105278, 0.08622090518474579, 0.037711210548877716, 0.0028965589590370655, 0.013314958661794662, 0.1427946537733078, 0.009486271999776363, 0.005172200966626406, 0.06831303238868713], [0.03040124662220478, 0.008371353149414062, 0.00021303072571754456, 5.942284406046383e-05, 6.184804806252941e-05, 1.653838626225479e-05, 1.3363759535423014e-05, 8.357465412700549e-05, 0.08512778580188751, 0.27775201201438904, 0.010207995772361755, 0.00032738762092776597, 0.00015730469021946192, 0.10898564010858536, 0.001060602953657508, 1.2943041838298086e-05, 0.0003239353245589882, 0.46523404121398926, 0.00039937609108164907, 0.00015211202844511718, 0.01103855948895216], [0.05999556928873062, 0.12491439282894135, 0.04302443191409111, 0.2708492875099182, 0.03767603635787964, 0.0024525204207748175, 0.0038450772408396006, 0.00319667998701334, 0.05729390308260918, 0.05324655771255493, 0.08708217740058899, 0.016094693914055824, 0.018258051946759224, 0.049045953899621964, 0.016195250675082207, 0.005990990903228521, 0.002598177408799529, 0.06292106211185455, 0.007411055266857147, 0.0029695825651288033, 0.07493850588798523], [0.00293306284584105, 0.0039395662024617195, 0.8811154961585999, 0.000329437549225986, 0.00020970731566194445, 3.5622813356894767e-06, 4.7703560994705185e-06, 1.0302377631887794e-05, 0.0015965189086273313, 0.0007146471180021763, 0.0011472710175439715, 0.1014646664261818, 3.9160233427537605e-05, 0.001329963793978095, 2.2979569621384144e-05, 1.307228444602515e-06, 1.9109895674773725e-06, 0.002514880383387208, 0.00029730514506809413, 0.0002610197989270091, 0.0020623384043574333], [0.008608374744653702, 0.004848164971917868, 0.00048069257172755897, 0.00036547472700476646, 0.5018513798713684, 2.2709264158038422e-05, 1.7632629578656633e-06, 9.252456220565364e-05, 0.007202821783721447, 3.7521353078773245e-05, 0.008729156106710434, 0.00036157749127596617, 0.41034042835235596, 0.020517520606517792, 9.187700015900191e-06, 9.710909216664732e-05, 0.0001405245129717514, 0.020577700808644295, 4.708633423433639e-05, 0.0003476471465546638, 0.015320600010454655], [0.07346013933420181, 0.04585127905011177, 0.012461520731449127, 0.022646412253379822, 0.020224152132868767, 0.02162579447031021, 0.005653552711009979, 0.006997798103839159, 0.08761589974164963, 0.0738334134221077, 0.042248375713825226, 0.013953856192529202, 0.02420583926141262, 0.12087269872426987, 0.05533641576766968, 0.014331705868244171, 0.010829351842403412, 0.21943339705467224, 0.021430520340800285, 0.014709538780152798, 0.09227827191352844], [0.007161385845392942, 0.001745407236739993, 6.643143569817767e-05, 2.4224493245128542e-05, 8.609777069068514e-06, 2.28569424507441e-05, 2.562246208981378e-06, 7.689377525821328e-07, 0.01701524294912815, 0.0010645611910149455, 0.005683765280991793, 0.0007679334376007318, 0.00010970087896566838, 0.08621133118867874, 0.6639496684074402, 1.3695220332010649e-05, 2.4593984562670812e-05, 0.21263669431209564, 0.0005698758759535849, 8.324546070070937e-05, 0.0028373843524605036], [0.022410864010453224, 0.0044164531864225864, 6.69347491566441e-06, 9.868757842923515e-06, 0.0001564752747071907, 3.7867703213123605e-05, 4.439050462679006e-05, 0.00014900960377417505, 0.05936609208583832, 0.00027081198641099036, 0.01988827809691429, 5.6398235756205395e-05, 0.0010891399579122663, 0.22623488306999207, 0.0003123034257441759, 0.24696603417396545, 0.002238208195194602, 0.3668496906757355, 7.350127270910889e-05, 0.0015942594036459923, 0.04782867804169655], [0.02506960742175579, 0.005446015857160091, 0.00036489006015472114, 0.0002843873226083815, 0.002339637605473399, 1.8797365555656143e-05, 4.916042962577194e-05, 0.11622598767280579, 0.04039126634597778, 0.002453004475682974, 0.005321436561644077, 0.0001008463223115541, 0.0008394176256842911, 0.07460927963256836, 0.0003095892898272723, 0.007828797213733196, 0.5593754053115845, 0.13990361988544464, 0.00014116254169493914, 0.0017325335647910833, 0.01719527319073677], [0.04061807319521904, 0.024543745443224907, 0.005344704259186983, 0.008573435246944427, 0.006303639616817236, 0.0036713285371661186, 0.002289143390953541, 0.0026622992008924484, 0.10787301510572433, 0.05401096120476723, 0.030741548165678978, 0.005969557445496321, 0.0072243427857756615, 0.15845218300819397, 0.024259116500616074, 0.0034995530731976032, 0.003093463135883212, 0.4125573933124542, 0.013724401593208313, 0.015391651540994644, 0.06919641047716141], [0.03753574192523956, 0.003337079891934991, 0.00011322473437758163, 1.1466874639154412e-05, 3.0132523534120992e-05, 2.8282924176892266e-05, 1.450944364478346e-05, 2.775138636934571e-05, 0.058044612407684326, 0.00049680529627949, 0.016969820484519005, 0.0019132229499518871, 0.00046190290595404804, 0.15322907269001007, 0.0007056392496451735, 3.728563751792535e-05, 0.0003629310813266784, 0.4902138411998749, 0.17090663313865662, 0.010048927739262581, 0.05551109090447426], [0.07093773782253265, 0.0019303039880469441, 0.00024647993268445134, 1.5437246474903077e-05, 9.289736772188917e-05, 0.00023116485681384802, 1.4698694940307178e-05, 0.00011279487807769328, 0.022960109636187553, 0.0014048644807189703, 0.008243483491241932, 0.0006101146573200822, 0.00025467865634709597, 0.05268729478120804, 0.00013196139479987323, 0.00040369597263634205, 0.0007110563456080854, 0.3126053512096405, 0.03057652711868286, 0.4546429514884949, 0.041186317801475525], [0.08426053822040558, 0.053293291479349136, 0.008134156465530396, 0.004259884357452393, 0.008820611983537674, 0.001704241381958127, 0.00011822126543847844, 0.00043954176362603903, 0.07800182700157166, 0.005837719887495041, 0.07582154124975204, 0.016293443739414215, 0.020345643162727356, 0.1477189064025879, 0.006644561421126127, 0.0006400694837793708, 0.002028616378083825, 0.292176216840744, 0.006995684001594782, 0.0027530440129339695, 0.18371225893497467]], [[0.04360625892877579, 0.006124915089458227, 0.003511342452839017, 0.0016182587714865804, 0.00271295802667737, 0.0016989720752462745, 0.0039999233558773994, 0.020997921004891396, 0.15646100044250488, 0.014668885618448257, 0.04648682102560997, 0.006944695021957159, 0.0024869637563824654, 0.12431588023900986, 0.0023128229659050703, 0.007924407720565796, 0.01878696121275425, 0.464738130569458, 0.01086537167429924, 0.013959166593849659, 0.04577835276722908], [0.05470261722803116, 0.08732476085424423, 0.033053088933229446, 0.0365331768989563, 0.016518499702215195, 0.0028799353167414665, 0.020094502717256546, 0.014340703375637531, 0.0997362732887268, 0.02180403098464012, 0.04393473267555237, 0.010814230889081955, 0.009946928359568119, 0.10825269669294357, 0.015327082946896553, 0.009171010926365852, 0.015902375802397728, 0.22014902532100677, 0.0025384079199284315, 0.004840334877371788, 0.17213550209999084], [0.06714267283678055, 0.16921119391918182, 0.0029906455893069506, 0.06881877034902573, 0.006885115057229996, 0.0018685145769268274, 0.04110877588391304, 0.020370084792375565, 0.06939885020256042, 0.024136751890182495, 0.011489610187709332, 0.00019808654906228185, 0.0035462675150483847, 0.07121825963258743, 0.01216744352132082, 0.011823456734418869, 0.02159418910741806, 0.23558957874774933, 0.002102224389091134, 0.0029717660509049892, 0.1553676426410675], [0.034076228737831116, 0.26052919030189514, 0.04758509248495102, 0.044633109122514725, 0.008685529232025146, 0.002669905312359333, 0.021316062659025192, 0.008961775340139866, 0.0768585279583931, 0.004103566519916058, 0.014858000911772251, 0.0013375900452956557, 0.001494802301749587, 0.05311143770813942, 0.0028666681610047817, 0.006019703112542629, 0.011725656688213348, 0.3009580671787262, 0.001443485147319734, 0.0021146205253899097, 0.09465095400810242], [0.010017208755016327, 0.25515127182006836, 0.22823816537857056, 0.23105569183826447, 0.038695432245731354, 0.00016636268992442638, 0.00948622077703476, 0.003528112545609474, 0.03226984664797783, 0.0032532759942114353, 0.009860740043222904, 0.005769300740212202, 0.0020359063055366278, 0.012031052261590958, 0.000599297636654228, 0.0010487916879355907, 0.002642314415425062, 0.05984814837574959, 0.0038889634888619184, 0.0006284590344876051, 0.08978550136089325], [0.01578136719763279, 0.1837863028049469, 0.13124260306358337, 0.08207470923662186, 0.07883847504854202, 0.0027741296216845512, 0.00868700910359621, 0.01068283524364233, 0.07626602053642273, 0.016794301569461823, 0.017199598252773285, 0.0045637888833880424, 0.005802201107144356, 0.050851404666900635, 0.0036754487082362175, 0.0012831231579184532, 0.002493245294317603, 0.1706317514181137, 0.005450043361634016, 0.008248784579336643, 0.12287284433841705], [0.01209109928458929, 0.12716342508792877, 0.21100226044654846, 0.24248524010181427, 0.10777537524700165, 0.026245759800076485, 0.0024083945900201797, 0.011596920900046825, 0.04256182536482811, 0.006835577078163624, 0.013010882772505283, 0.009557880461215973, 0.002893271157518029, 0.019135907292366028, 0.008245269767940044, 0.005301242228597403, 0.0032818324398249388, 0.05276762694120407, 0.0069317277520895, 0.0024211490526795387, 0.08628727495670319], [0.0075838807970285416, 0.15518754720687866, 0.12738005816936493, 0.14930681884288788, 0.2213657945394516, 0.01497851312160492, 0.03260090947151184, 0.007446405943483114, 0.044343966990709305, 0.005391483660787344, 0.01637989468872547, 0.005053183529525995, 0.005113024730235338, 0.036044634878635406, 0.004679430276155472, 0.0013546912232413888, 0.0009170488337986171, 0.05610489845275879, 0.002423978643491864, 0.007867584004998207, 0.09847612679004669], [0.012017892673611641, 0.11772178113460541, 0.08919362723827362, 0.1238323301076889, 0.2505117654800415, 0.010984228923916817, 0.05548832565546036, 0.03156958520412445, 0.08325439691543579, 0.01687079295516014, 0.02416764385998249, 0.007645231671631336, 0.00627204030752182, 0.026982424780726433, 0.0031811960507184267, 0.001311044441536069, 0.0026914167683571577, 0.04672500863671303, 0.0015710598090663552, 0.004837198182940483, 0.08317107707262039], [0.019943803548812866, 0.10927201807498932, 0.049091726541519165, 0.08400916308164597, 0.17315034568309784, 0.042873136699199677, 0.06481973826885223, 0.07413957267999649, 0.13912782073020935, 0.0251460038125515, 0.010277969762682915, 0.0016864868812263012, 0.0023048981092870235, 0.027684515342116356, 0.00542009761556983, 0.002069047186523676, 0.0025060030166059732, 0.06750082969665527, 0.001553863170556724, 0.0019167236750945449, 0.09550618380308151], [0.004496913403272629, 0.06460282951593399, 0.03879553824663162, 0.09980084747076035, 0.24270138144493103, 0.003361326176673174, 0.093289315700531, 0.05421238765120506, 0.1785515546798706, 0.0458747074007988, 0.07423029839992523, 0.019034648314118385, 0.009655432775616646, 0.013655568473041058, 0.0014894594205543399, 0.0007578672957606614, 0.0025408919900655746, 0.013281073421239853, 0.00036943130544386804, 0.0018911085790023208, 0.037407286465168], [0.002332305535674095, 0.03917103260755539, 0.005711807869374752, 0.08553019911050797, 0.1273232400417328, 0.0017857729690149426, 0.16622591018676758, 0.0744350329041481, 0.21649770438671112, 0.11658114939928055, 0.10632458329200745, 0.004888688679784536, 0.00904137548059225, 0.012169340625405312, 0.0028688451275229454, 0.0011893102200701833, 0.0024003589060157537, 0.011060705408453941, 0.00022843587794341147, 0.0008740889024920762, 0.013360104523599148], [0.0016026701778173447, 0.020781027153134346, 0.04228288307785988, 0.03154629096388817, 0.050397735089063644, 0.00018141695181839168, 0.06117222458124161, 0.024155961349606514, 0.11315158009529114, 0.07575526833534241, 0.2096622735261917, 0.32711219787597656, 0.013361572287976742, 0.00890413485467434, 0.0005112841608934104, 0.000737977446988225, 0.001415609149262309, 0.008971613831818104, 0.000583105138503015, 0.00014472001930698752, 0.0075684478506445885], [0.015137073583900928, 0.04274927079677582, 0.0549028106033802, 0.029836775735020638, 0.026644615456461906, 0.002605535788461566, 0.034538380801677704, 0.02951415255665779, 0.12559859454631805, 0.06752718240022659, 0.20200182497501373, 0.15502691268920898, 0.031857218593358994, 0.05488859489560127, 0.009494728408753872, 0.00443258136510849, 0.008777090348303318, 0.052199676632881165, 0.004784666933119297, 0.007333863992244005, 0.04014848172664642], [0.009516969323158264, 0.041099220514297485, 0.06735232472419739, 0.0324740931391716, 0.01894690841436386, 0.002101084915921092, 0.06395696103572845, 0.027959072962403297, 0.0974881500005722, 0.055825378745794296, 0.13274873793125153, 0.2398865967988968, 0.041357267647981644, 0.07025934755802155, 0.007692416198551655, 0.004628471564501524, 0.00895143486559391, 0.046785686165094376, 0.0023142474237829447, 0.0020973903592675924, 0.02655821479856968], [0.015769753605127335, 0.024646181613206863, 0.021945897489786148, 0.013544997200369835, 0.016436398029327393, 0.0025349014904350042, 0.03594975173473358, 0.022595210000872612, 0.07989752292633057, 0.04862825572490692, 0.14664918184280396, 0.18973226845264435, 0.10822827368974686, 0.11992202699184418, 0.01830991916358471, 0.008715781383216381, 0.013967626728117466, 0.06402816623449326, 0.0085850078612566, 0.0055725593119859695, 0.03434028476476669], [0.007188057992607355, 0.01834774576127529, 0.014684717170894146, 0.012248297221958637, 0.029035048559308052, 0.0019030284602195024, 0.023294717073440552, 0.012397924438118935, 0.09128624200820923, 0.019522571936249733, 0.17460216581821442, 0.14127279818058014, 0.12199918180704117, 0.19484837353229523, 0.02573738805949688, 0.006223191972821951, 0.003186635673046112, 0.07129266113042831, 0.0034928671084344387, 0.004354005213826895, 0.023082438856363297], [0.03648005425930023, 0.027323780581355095, 0.014363209716975689, 0.016315938904881477, 0.014476504176855087, 0.003977050073444843, 0.016159262508153915, 0.025670435279607773, 0.12520769238471985, 0.03976297378540039, 0.06817204505205154, 0.026986759155988693, 0.022645406424999237, 0.1524699628353119, 0.019396334886550903, 0.014800658449530602, 0.02300328016281128, 0.2550712823867798, 0.013442551717162132, 0.014602000825107098, 0.06967281550168991], [0.007940312847495079, 0.01180389616638422, 0.006490948610007763, 0.002123521640896797, 0.005184935871511698, 0.0014816458569839597, 0.020498603582382202, 0.04340030997991562, 0.031689196825027466, 0.010827203281223774, 0.10400768369436264, 0.11480586230754852, 0.19401520490646362, 0.0945126861333847, 0.09568638354539871, 0.053094375878572464, 0.14171259105205536, 0.024043282493948936, 0.004904919303953648, 0.010824335739016533, 0.020952222868800163], [0.005353825632482767, 0.016702774912118912, 0.026546960696578026, 0.0072600687853991985, 0.009801555424928665, 0.0006218455382622778, 0.009964767843484879, 0.02041361853480339, 0.025371402502059937, 0.013125002384185791, 0.09140782803297043, 0.31045880913734436, 0.2299281358718872, 0.04281308874487877, 0.06407632678747177, 0.016536418348550797, 0.06192644685506821, 0.014774322509765625, 0.005228393245488405, 0.002837382024154067, 0.024850990623235703], [0.01725033111870289, 0.024567926302552223, 0.01023517269641161, 0.009585468098521233, 0.014091452583670616, 0.00129229505546391, 0.007966353558003902, 0.019688157364726067, 0.13194967806339264, 0.010441655293107033, 0.26790234446525574, 0.08906540274620056, 0.04868122935295105, 0.10287640988826752, 0.017245454713702202, 0.007317556533962488, 0.03013385459780693, 0.08340989798307419, 0.010179059579968452, 0.025130363181233406, 0.0709899365901947]], [[0.012233116663992405, 0.012022720649838448, 0.008950948715209961, 0.016903672367334366, 0.02329319342970848, 0.00398017605766654, 0.04778870567679405, 0.07443762570619583, 0.1793835610151291, 0.10488691180944443, 0.09575751423835754, 0.020108414813876152, 0.021922964602708817, 0.06584597378969193, 0.007394224870949984, 0.01101719494909048, 0.017908485606312752, 0.15588417649269104, 0.032260023057460785, 0.027240503579378128, 0.060779936611652374], [0.008334547281265259, 0.12226886302232742, 0.06948399543762207, 0.01780247502028942, 0.0036086845211684704, 0.0004455518501345068, 0.003174674930050969, 0.0014386355178430676, 0.034739263355731964, 0.00428919680416584, 0.02372564561665058, 0.01853770762681961, 0.005260303150862455, 0.0623442716896534, 0.02095220610499382, 0.0070432634092867374, 0.013447975739836693, 0.3140282928943634, 0.0009176936000585556, 0.0007005060324445367, 0.26745620369911194], [0.0013951302971690893, 0.3700965940952301, 0.19151175022125244, 0.015727192163467407, 0.0031908852979540825, 0.00020766536181326956, 0.0017955527873709798, 0.003832171205431223, 0.005595117341727018, 0.0038978869561105967, 0.0020829690620303154, 0.00048132226220332086, 0.0019094010349363089, 0.006253524217754602, 0.0009285096894018352, 0.0019372531678527594, 0.011890247464179993, 0.07194997370243073, 0.0003156910534016788, 0.00042887713061645627, 0.3045722544193268], [0.0013267556205391884, 0.04714074730873108, 0.8188881278038025, 0.027101559564471245, 0.0030346603598445654, 0.00022627392900176346, 0.00038739474257454276, 0.00015322935360018164, 0.005644072312861681, 0.00028109870618209243, 0.001329920720309019, 0.0027717463672161102, 0.0001645793381612748, 0.006107357796281576, 0.00017568703333381563, 3.5023655073018745e-05, 9.992862032959238e-05, 0.07480815798044205, 0.000544437556527555, 0.00029597143293358386, 0.009483346715569496], [7.373584958259016e-05, 0.007310023531317711, 0.929744303226471, 0.049651116132736206, 0.005756736267358065, 3.637414920376614e-05, 3.686291165649891e-05, 2.584733192634303e-05, 0.0003038410213775933, 5.870235327165574e-05, 0.00011467524018371478, 0.0007298307027667761, 1.792339753592387e-05, 0.00028852178365923464, 1.1516453014337458e-05, 4.083281510247616e-06, 1.7809154087444767e-05, 0.002294851467013359, 3.0295317628770135e-05, 8.157113916240633e-05, 0.003411379409953952], [0.0035348497331142426, 0.0170057974755764, 0.10064003616571426, 0.22778013348579407, 0.3406214416027069, 0.004097807686775923, 0.002189499791711569, 0.0006546233198605478, 0.023056035861372948, 0.0015577498124912381, 0.004267510026693344, 0.0035873085726052523, 0.0011085389414802194, 0.0687289834022522, 0.0023546197917312384, 0.00024978630244731903, 0.00012084141053492203, 0.17507106065750122, 0.0022110517602413893, 0.0019061402417719364, 0.019256282597780228], [0.0027628259267657995, 0.0068204328417778015, 0.07421642541885376, 0.17143352329730988, 0.5949746966362, 0.005045250989496708, 0.001495140022598207, 0.0015413266373798251, 0.013337054289877415, 0.0020768626127392054, 0.0027390033937990665, 0.01572900079190731, 0.0008538795518688858, 0.02288815565407276, 0.0005169401993043721, 7.54365319153294e-05, 0.000295966281555593, 0.06926580518484116, 0.00014697913138661534, 0.00021109449153300375, 0.013574201613664627], [0.001334707485511899, 0.01534874178469181, 0.06463216990232468, 0.09213493019342422, 0.5370194315910339, 0.039375659078359604, 0.07221022993326187, 0.01288088783621788, 0.047778550535440445, 0.004481347743421793, 0.0025947715621441603, 0.0023165675811469555, 0.0007823703926987946, 0.048107635229825974, 0.002461215713992715, 6.548660894623026e-05, 9.532181866234168e-05, 0.03980503976345062, 0.0003029942454304546, 0.0004482816148083657, 0.01582365855574608], [0.0025485006626695395, 0.004235056694597006, 0.011432132683694363, 0.03214691951870918, 0.08307420462369919, 0.02300960384309292, 0.5544336438179016, 0.08289032429456711, 0.11626200377941132, 0.02008535899221897, 0.0036549388896673918, 0.002204090589657426, 0.0011541011044755578, 0.01660306751728058, 0.004366209730505943, 0.0011940662516281009, 0.0007440876797772944, 0.031048260629177094, 0.0004948118003085256, 0.0003794814401771873, 0.008039101958274841], [0.0005656488356180489, 0.0005458593368530273, 0.0006381093407981098, 0.003085526404902339, 0.008063482120633125, 0.022059602662920952, 0.5921773314476013, 0.24370819330215454, 0.08830171823501587, 0.025865240022540092, 0.0011480384273454547, 0.00016377879364881665, 0.000289704417809844, 0.0026131237391382456, 0.00171019381377846, 0.0010285808239132166, 0.0006448118947446346, 0.004665673244744539, 0.0001093634418793954, 7.71625418565236e-05, 0.0025388365611433983], [0.0005959423142485321, 0.0017331988783553243, 0.009087701328098774, 0.007739921100437641, 0.016299903392791748, 0.0029606723692268133, 0.05348759889602661, 0.12050069868564606, 0.4763863980770111, 0.05582296848297119, 0.1077922061085701, 0.0610123872756958, 0.0030832206830382347, 0.01759561337530613, 0.0031291053164750338, 0.0045341807417571545, 0.0049304720014333725, 0.04987458884716034, 0.0004097337950952351, 0.00040233336039818823, 0.002621238585561514], [0.0003527297521941364, 0.0011379466159269214, 0.0033321278169751167, 0.001770822680555284, 0.003210983006283641, 0.0004174889181740582, 0.014037595130503178, 0.023329639807343483, 0.10076780617237091, 0.22997364401817322, 0.4547033905982971, 0.08214344084262848, 0.023335114121437073, 0.012146481312811375, 0.0032927170395851135, 0.009464566595852375, 0.005819694604724646, 0.025196721777319908, 0.0005693733692169189, 0.000415908289141953, 0.004581931512802839], [5.0759648729581386e-05, 0.00014681770699098706, 0.002355049829930067, 0.0006241590599529445, 6.103701161919162e-05, 3.486148489173502e-05, 9.808216418605298e-05, 0.00016392121324315667, 0.0028736041858792305, 0.0015559324529021978, 0.08861412853002548, 0.8859448432922363, 0.006129019428044558, 0.005199793726205826, 0.0008598577114753425, 0.0002601168816909194, 0.0005488474271260202, 0.004013477824628353, 8.465579594485462e-05, 4.980236917617731e-05, 0.0003311024629510939], [0.008753284811973572, 0.00543303694576025, 0.005658489186316729, 0.012048013508319855, 0.005817237310111523, 0.00479109026491642, 0.0072998045943677425, 0.00725273322314024, 0.03494219109416008, 0.013949737884104252, 0.11089670658111572, 0.2229374349117279, 0.19800886511802673, 0.165829598903656, 0.05405910685658455, 0.011653362773358822, 0.009314712136983871, 0.08423999696969986, 0.009730298072099686, 0.007039048708975315, 0.02034514769911766], [0.0011285432847216725, 0.00037864281330257654, 0.0011287274537608027, 0.0033942279405891895, 0.0021187872625887394, 0.004272814840078354, 0.0019202048424631357, 0.002451172098517418, 0.007352993357926607, 0.0012655899627134204, 0.019678015261888504, 0.09885263442993164, 0.5278106927871704, 0.18427787721157074, 0.08053818345069885, 0.025132467970252037, 0.009525618515908718, 0.02434835396707058, 0.00134950946085155, 0.0007870710105635226, 0.0022878069430589676], [0.0008912089979276061, 0.0007529769791290164, 0.002427992643788457, 0.0016756400000303984, 0.0028889328241348267, 0.0003044619516003877, 0.0010107189882546663, 0.009144757874310017, 0.009504291228950024, 0.0059563396498560905, 0.013464801013469696, 0.04168880358338356, 0.5163609385490417, 0.23222485184669495, 0.06191286817193031, 0.019153060391545296, 0.04645196720957756, 0.02002972736954689, 0.0011384981917217374, 0.0034963958896696568, 0.009520702995359898], [0.00027651115669868886, 0.00047909916611388326, 0.0003689676814246923, 0.0008330672862939537, 0.0013494662707671523, 0.0011130719212815166, 0.005857388023287058, 0.002365035004913807, 0.005410945508629084, 0.0020890538580715656, 0.009568915702402592, 0.00781072536483407, 0.21731945872306824, 0.11806651204824448, 0.5791561007499695, 0.024877334013581276, 0.009366553276777267, 0.006671108305454254, 0.0019225372234359384, 0.0019618989899754524, 0.0031362371519207954], [0.01318463496863842, 0.011311138980090618, 0.006189185194671154, 0.01260471623390913, 0.005661552771925926, 0.005970664322376251, 0.029517898336052895, 0.009251740761101246, 0.08710988610982895, 0.020795952528715134, 0.03775566443800926, 0.01735326647758484, 0.021004866808652878, 0.15032775700092316, 0.1402938961982727, 0.04920541122555733, 0.03636237233877182, 0.2688978612422943, 0.03593682870268822, 0.015002334490418434, 0.026262326166033745], [0.0002961579884868115, 0.00044968019938096404, 0.00034615283948369324, 9.835289529291913e-05, 3.391919381101616e-05, 0.00019286538008600473, 0.001578853465616703, 0.0004060916544403881, 0.0010635614162310958, 0.0007539683138020337, 0.001785417553037405, 0.0028220610693097115, 0.022690868005156517, 0.01956409215927124, 0.3669120967388153, 0.17882481217384338, 0.33532851934432983, 0.02408241294324398, 0.0248851478099823, 0.006809367798268795, 0.011075633578002453], [0.0003214087337255478, 0.0015721718082204461, 0.0009143591742031276, 0.0003048975777346641, 9.656000474933535e-05, 0.0002567447372712195, 0.001820152741856873, 0.0008498229435645044, 0.0010599172674119473, 0.0012831570347771049, 0.002946456428617239, 0.004792149178683758, 0.07627934217453003, 0.015618648380041122, 0.296640008687973, 0.1059357076883316, 0.34101352095603943, 0.012287472374737263, 0.08428413420915604, 0.025331109762191772, 0.026392238214612007], [0.002147838706150651, 0.004440922290086746, 0.0004401041369419545, 0.0014601097209379077, 0.00045678651076741517, 0.0004049274721182883, 0.0009981213370338082, 0.0019844474736601114, 0.07084878534078598, 0.0024444495793431997, 0.13502366840839386, 0.018087871372699738, 0.02322734147310257, 0.19946414232254028, 0.009608139283955097, 0.020220691338181496, 0.024328086525201797, 0.4313358664512634, 0.028192155063152313, 0.015290135517716408, 0.0095954155549407]], [[0.01836521364748478, 0.03140346333384514, 0.1190655380487442, 0.12311306595802307, 0.055971160531044006, 0.0038287206552922726, 0.01029675081372261, 0.018538320437073708, 0.009184789843857288, 0.1739863008260727, 0.025794239714741707, 0.08149625360965729, 0.07633102685213089, 0.005665204953402281, 0.06398870795965195, 0.003950732294470072, 0.02071782946586609, 0.005663330666720867, 0.04785209149122238, 0.025789255276322365, 0.07899817079305649], [0.00478488439694047, 0.1362495720386505, 0.04131654277443886, 0.014247268438339233, 0.020192548632621765, 0.010749511420726776, 0.003151609795168042, 0.03153283894062042, 0.1700625866651535, 0.01724914088845253, 0.11612506210803986, 0.02946394309401512, 0.01668515056371689, 0.12428952008485794, 0.0036692656576633453, 0.006565012037754059, 0.014217427000403404, 0.18956027925014496, 0.002303713234141469, 0.0035422162618488073, 0.044041890650987625], [0.008689933456480503, 0.16905862092971802, 0.046605996787548065, 0.03071513958275318, 0.018192920833826065, 0.008992429822683334, 0.002581171691417694, 0.02523788996040821, 0.14798864722251892, 0.009520729072391987, 0.06972304731607437, 0.012760313227772713, 0.00949800293892622, 0.1072051152586937, 0.00362772261723876, 0.00696752592921257, 0.01782815344631672, 0.2558940351009369, 0.0021755481138825417, 0.003386325901374221, 0.043350737541913986], [0.006553259212523699, 0.22277018427848816, 0.04677066579461098, 0.044863998889923096, 0.02288530394434929, 0.009965438395738602, 0.0020314757712185383, 0.048387158662080765, 0.08731114119291306, 0.007518887985497713, 0.15958532691001892, 0.017117852345108986, 0.011029480025172234, 0.07824612408876419, 0.002780418610200286, 0.012790382839739323, 0.04435843601822853, 0.100896917283535, 0.0028405864723026752, 0.013758279383182526, 0.05753862485289574], [0.004588669631630182, 0.0687456876039505, 0.01577901467680931, 0.019219644367694855, 0.10828698426485062, 0.019857309758663177, 0.001787926652468741, 0.04852703586220741, 0.16256700456142426, 0.006326163187623024, 0.1431884914636612, 0.009135792963206768, 0.04267173260450363, 0.0933866947889328, 0.0032569849863648415, 0.007400135044008493, 0.02701306715607643, 0.15998169779777527, 0.0017211827216669917, 0.005308238789439201, 0.05125046521425247], [0.0070078205317258835, 0.0459628701210022, 0.013598768971860409, 0.003479791572317481, 0.033849380910396576, 0.1423664093017578, 0.0209053922444582, 0.0926058441400528, 0.10855043679475784, 0.005452691577374935, 0.020753871649503708, 0.007747908588498831, 0.015944091603159904, 0.14908777177333832, 0.004483912605792284, 0.09447764605283737, 0.03567992150783539, 0.16067127883434296, 0.0038647714536637068, 0.004775345791131258, 0.02873399294912815], [0.008985416032373905, 0.03871938958764076, 0.015374826267361641, 0.004880775697529316, 0.023543093353509903, 0.06897605210542679, 0.020322758704423904, 0.06410686671733856, 0.15458936989307404, 0.03975203260779381, 0.036341357976198196, 0.01494129840284586, 0.017175162211060524, 0.13416650891304016, 0.002952458569779992, 0.01711486093699932, 0.016303889453411102, 0.23480971157550812, 0.007458928041160107, 0.012474552728235722, 0.06701068580150604], [0.0035191457718610764, 0.03954868018627167, 0.0036658942699432373, 0.002489779843017459, 0.013935509137809277, 0.015987509861588478, 0.0027536838315427303, 0.10567834228277206, 0.2355644702911377, 0.008856816217303276, 0.08066079020500183, 0.00474138930439949, 0.013647780753672123, 0.16785457730293274, 0.0007214461802504957, 0.00671711890026927, 0.015252943150699139, 0.23939870297908783, 0.0018665416864678264, 0.00958251766860485, 0.02755635604262352], [0.0060708411037921906, 0.05283086374402046, 0.029351603239774704, 0.015447698533535004, 0.03570213541388512, 0.021606190130114555, 0.005511703435331583, 0.04320140555500984, 0.18117116391658783, 0.023604055866599083, 0.09929870069026947, 0.03948422521352768, 0.03623856231570244, 0.13599233329296112, 0.004853704944252968, 0.010580044239759445, 0.019047515466809273, 0.18750232458114624, 0.005026781000196934, 0.014478710480034351, 0.032999441027641296], [0.007046413142234087, 0.05975629389286041, 0.013354946859180927, 0.00540364533662796, 0.01672985777258873, 0.01955338381230831, 0.00655003497377038, 0.06801613420248032, 0.1768822818994522, 0.013236696831882, 0.09832422435283661, 0.013129896484315395, 0.022365085780620575, 0.15444029867649078, 0.0034137668553739786, 0.015858639031648636, 0.03135977312922478, 0.18998029828071594, 0.006985482294112444, 0.02162780612707138, 0.05598511919379234], [0.004677850753068924, 0.06742879003286362, 0.027743788436055183, 0.01715446077287197, 0.02693481557071209, 0.010787082836031914, 0.0020546859595924616, 0.029933976009488106, 0.15430572628974915, 0.020319370552897453, 0.21022623777389526, 0.04861505329608917, 0.0362919457256794, 0.11830426007509232, 0.00597189599648118, 0.010748926550149918, 0.02385174110531807, 0.1373102217912674, 0.003436732105910778, 0.01014057919383049, 0.03376182168722153], [0.007214718498289585, 0.07111834734678268, 0.027012908831238747, 0.03653513267636299, 0.021765682846307755, 0.006789428647607565, 0.00220874254591763, 0.01885491982102394, 0.12588493525981903, 0.011312175542116165, 0.14892302453517914, 0.033099573105573654, 0.04849507287144661, 0.12869219481945038, 0.008502084761857986, 0.009183160029351711, 0.03259526938199997, 0.1877499222755432, 0.0018305506091564894, 0.009910766035318375, 0.06232139468193054], [0.005790740717202425, 0.038877133280038834, 0.011857862584292889, 0.014369772747159004, 0.07164926826953888, 0.00865144096314907, 0.0012552198022603989, 0.01826922968029976, 0.08581889420747757, 0.006976969540119171, 0.16287092864513397, 0.017233019694685936, 0.1676345318555832, 0.09714116901159286, 0.00975191593170166, 0.013162742368876934, 0.06159104034304619, 0.11255067586898804, 0.002612049225717783, 0.01220841333270073, 0.07972707599401474], [0.0076858229003846645, 0.04919923469424248, 0.034584298729896545, 0.016187569126486778, 0.030651215463876724, 0.02705739252269268, 0.0059479461051523685, 0.03399328887462616, 0.10390407592058182, 0.013660716824233532, 0.06823617219924927, 0.049839142709970474, 0.053723715245723724, 0.16382530331611633, 0.011831555515527725, 0.032832324504852295, 0.05320011451840401, 0.17319250106811523, 0.005888878367841244, 0.02684125490486622, 0.03771739825606346], [0.009602025151252747, 0.05312377214431763, 0.010899522341787815, 0.005089904181659222, 0.009953122586011887, 0.02409743145108223, 0.0018663799855858088, 0.031333982944488525, 0.07354184985160828, 0.0038022398948669434, 0.05664614588022232, 0.012252743355929852, 0.02604549191892147, 0.19462423026561737, 0.007754098623991013, 0.06625334173440933, 0.12307259440422058, 0.18344199657440186, 0.00515344925224781, 0.02934761717915535, 0.07209813594818115], [0.013382391072809696, 0.037682272493839264, 0.009839164093136787, 0.0017047433648258448, 0.006023679859936237, 0.03848383203148842, 0.001291828230023384, 0.04893270134925842, 0.04483318701386452, 0.001820067991502583, 0.03081178478896618, 0.008039706386625767, 0.012652150355279446, 0.131998211145401, 0.003232246730476618, 0.2875955104827881, 0.1684119552373886, 0.09387966990470886, 0.003897513961419463, 0.03182058036327362, 0.0236667487770319], [0.019377240911126137, 0.03222193196415901, 0.006371952593326569, 0.004671165253967047, 0.012725885026156902, 0.01933121681213379, 0.0013495148159563541, 0.07037343084812164, 0.07882051169872284, 0.006245866883546114, 0.05138682946562767, 0.00652973772957921, 0.028504854068160057, 0.15418200194835663, 0.004336492624133825, 0.05638333782553673, 0.1294040083885193, 0.17642737925052643, 0.009317186661064625, 0.07868078351020813, 0.05335872620344162], [0.010745900683104992, 0.05064178630709648, 0.0392741858959198, 0.0218986626714468, 0.020101051777601242, 0.011608627624809742, 0.005724135786294937, 0.019669899716973305, 0.11492761224508286, 0.013510448858141899, 0.0445285327732563, 0.047150786966085434, 0.03005465492606163, 0.16233770549297333, 0.008799603208899498, 0.012824886478483677, 0.025476202368736267, 0.304952472448349, 0.006407230626791716, 0.018511319532990456, 0.030854323878884315], [0.009019073098897934, 0.009005270898342133, 0.0025864902418106794, 0.0028965147212147713, 0.001718497253023088, 0.006903947331011295, 0.001248396118171513, 0.00561499735340476, 0.06220453977584839, 0.002627086127176881, 0.01976553164422512, 0.003992388490587473, 0.010352072305977345, 0.16275277733802795, 0.011371736414730549, 0.0149433184415102, 0.027040086686611176, 0.3969968557357788, 0.010486360639333725, 0.12934936583042145, 0.10912469774484634], [0.008052743971347809, 0.011747080832719803, 0.004459354095160961, 0.007162906229496002, 0.005400032736361027, 0.0039668637327849865, 0.0007506198599003255, 0.008052590303122997, 0.07317732274532318, 0.004619485232979059, 0.03313793987035751, 0.007904556579887867, 0.01857941225171089, 0.16625310480594635, 0.0055200327187776566, 0.008922788314521313, 0.038387179374694824, 0.3535096049308777, 0.00513433525338769, 0.1454142928123474, 0.08984776586294174], [0.009238108061254025, 0.03827868029475212, 0.04640255495905876, 0.011598304845392704, 0.008353104814887047, 0.004388542380183935, 0.00811777450144291, 0.005359798204153776, 0.10198186337947845, 0.031798046082258224, 0.026273593306541443, 0.059429626911878586, 0.014296155422925949, 0.115582175552845, 0.013799150474369526, 0.0030283627565950155, 0.009067676030099392, 0.393801748752594, 0.011147621087729931, 0.0033009848557412624, 0.08475615829229355]], [[0.015538892708718777, 0.07565301656723022, 0.004618655424565077, 0.013681935146450996, 0.004081108141690493, 0.0006741241086274385, 0.0015279321232810616, 0.010432532988488674, 0.08316739648580551, 0.017407087609171867, 0.11991088092327118, 0.009652378968894482, 0.013264319859445095, 0.01928529515862465, 0.0010679684346541762, 0.0004531981539912522, 0.005466407630592585, 0.07418208569288254, 0.008497077971696854, 0.006706319749355316, 0.5147313475608826], [0.013157709501683712, 0.05832101032137871, 0.005786613095551729, 0.01708444580435753, 0.020888622850179672, 0.002478644484654069, 0.0033891461789608, 0.007158856373280287, 0.12605921924114227, 0.014513679780066013, 0.24699857831001282, 0.021887879818677902, 0.05864669382572174, 0.036104392260313034, 0.011816121637821198, 0.001914110966026783, 0.00735499756410718, 0.08576695621013641, 0.007338642608374357, 0.010494090616703033, 0.24283966422080994], [0.009620125405490398, 0.05102265253663063, 0.0035274934489279985, 0.028035977855324745, 0.03275490552186966, 0.0019049509428441525, 0.002640813123434782, 0.00739556597545743, 0.14353451132774353, 0.05457306653261185, 0.18402068316936493, 0.01597253978252411, 0.05567065626382828, 0.09026984870433807, 0.01485834363847971, 0.0023865734692662954, 0.006748873274773359, 0.24155937135219574, 0.0059127407148480415, 0.009743936359882355, 0.037846412509679794], [0.004894034005701542, 0.10058905184268951, 0.005426798947155476, 0.02038649097084999, 0.01864301785826683, 0.0010145582491531968, 0.0004187143058516085, 0.006617306265980005, 0.19658322632312775, 0.009038357064127922, 0.09560598433017731, 0.010541694238781929, 0.02501760795712471, 0.09659499675035477, 0.002087240107357502, 0.0010433547431603074, 0.0060391915030777454, 0.35879677534103394, 0.0017693922854959965, 0.00398040609434247, 0.03491191938519478], [0.00825309194624424, 0.03455448895692825, 0.0028336544055491686, 0.010589208453893661, 0.01758115366101265, 0.0017777299508452415, 0.0013220853870734572, 0.009559872560203075, 0.17366863787174225, 0.014696880243718624, 0.056579675525426865, 0.005506173707544804, 0.018171794712543488, 0.09521294385194778, 0.0010612698970362544, 0.000859394553117454, 0.0052123526111245155, 0.49437275528907776, 0.003099162597209215, 0.0095509709790349, 0.03553656488656998], [0.020029515027999878, 0.03410184383392334, 0.01613140106201172, 0.007271159440279007, 0.009585562162101269, 0.006152968388050795, 0.014125782065093517, 0.010477914474904537, 0.1064923033118248, 0.015733342617750168, 0.04215722158551216, 0.019453823566436768, 0.009492517448961735, 0.1284083127975464, 0.003744814544916153, 0.010734496638178825, 0.008648610673844814, 0.40807005763053894, 0.005929857958108187, 0.015906857326626778, 0.10735169053077698], [0.030071092769503593, 0.030542345717549324, 0.02166021056473255, 0.028727630153298378, 0.019240587949752808, 0.018671132624149323, 0.05846230685710907, 0.03847987577319145, 0.08529708534479141, 0.1279582381248474, 0.05252455174922943, 0.06089315563440323, 0.03338683396577835, 0.08412428945302963, 0.018181540071964264, 0.02422918751835823, 0.03590277582406998, 0.15015870332717896, 0.019827233627438545, 0.024097183719277382, 0.03756405785679817], [0.024639150127768517, 0.09494441002607346, 0.015804043039679527, 0.023561524227261543, 0.013929048553109169, 0.004072351381182671, 0.023847457021474838, 0.007355894893407822, 0.12367784231901169, 0.044431500136852264, 0.10584503412246704, 0.025184283033013344, 0.020874319598078728, 0.06985174864530563, 0.006582969333976507, 0.008318898268043995, 0.005338761489838362, 0.23894980549812317, 0.01262882724404335, 0.03278695046901703, 0.09737522155046463], [0.03653902933001518, 0.08552542328834534, 0.02544133923947811, 0.02513865754008293, 0.02392788790166378, 0.005983961280435324, 0.017375972121953964, 0.015629848465323448, 0.07930731773376465, 0.03114624321460724, 0.09540116041898727, 0.02844170480966568, 0.04142969474196434, 0.05131594091653824, 0.022126682102680206, 0.008778201416134834, 0.016585420817136765, 0.1123092919588089, 0.015138896182179451, 0.02196086198091507, 0.2404964119195938], [0.049606990069150925, 0.03563119098544121, 0.012765822000801563, 0.02808402106165886, 0.011089478619396687, 0.005079227965325117, 0.037283457815647125, 0.006580266170203686, 0.08421537280082703, 0.13703544437885284, 0.04594704136252403, 0.03733436018228531, 0.025303823873400688, 0.06933244317770004, 0.008979796431958675, 0.005672527477145195, 0.010358781553804874, 0.24229584634304047, 0.02706023119390011, 0.019528936594724655, 0.10081487894058228], [0.0318150594830513, 0.07243833690881729, 0.006456475704908371, 0.019913116469979286, 0.009440464898943901, 0.0019886766094714403, 0.001918000285513699, 0.01285638939589262, 0.08729427307844162, 0.007905412465333939, 0.11582785844802856, 0.00951975118368864, 0.022023411467671394, 0.05174379050731659, 0.004986073821783066, 0.0030043846927583218, 0.010350452736020088, 0.16492897272109985, 0.005513086449354887, 0.009919287636876106, 0.35015666484832764], [0.0388048030436039, 0.06085884943604469, 0.005984368734061718, 0.03243562579154968, 0.01266289409250021, 0.003823961364105344, 0.003469897899776697, 0.01197939831763506, 0.09603044390678406, 0.03340284898877144, 0.06829607486724854, 0.007369887083768845, 0.021243805065751076, 0.12031955271959305, 0.015741290524601936, 0.007541355676949024, 0.009568819776177406, 0.32130691409111023, 0.007575047668069601, 0.016706567257642746, 0.1048775166273117], [0.018115807324647903, 0.05544488504528999, 0.009198473766446114, 0.026633363217115402, 0.015207775868475437, 0.007661120966076851, 0.001956232590600848, 0.01752837561070919, 0.12076982855796814, 0.023055585101246834, 0.0391831137239933, 0.009770073927938938, 0.020138513296842575, 0.1114070937037468, 0.004443906247615814, 0.004132851958274841, 0.013860751874744892, 0.3651745319366455, 0.02468787506222725, 0.030010633170604706, 0.08161932229995728], [0.03758951649069786, 0.06376757472753525, 0.024469051510095596, 0.025958027690649033, 0.020260978490114212, 0.012578245252370834, 0.018422750756144524, 0.03222358226776123, 0.10017827153205872, 0.0302366241812706, 0.05836523696780205, 0.022785766050219536, 0.028925860300660133, 0.08424095809459686, 0.02526772767305374, 0.01399404089897871, 0.0354766808450222, 0.19336120784282684, 0.025323202833533287, 0.027987133711576462, 0.11858750879764557], [0.013750352896749973, 0.03234432637691498, 0.004965434316545725, 0.012938713654875755, 0.003847829531878233, 0.006734744179993868, 0.002531643258407712, 0.02417769655585289, 0.09811794757843018, 0.028039002791047096, 0.019818861037492752, 0.0038117244839668274, 0.006015270948410034, 0.12634912133216858, 0.0018999134190380573, 0.006205239333212376, 0.010874893516302109, 0.5256804823875427, 0.014013444073498249, 0.008767634630203247, 0.04911573603749275], [0.03381230682134628, 0.029190249741077423, 0.011044972576200962, 0.012165991589426994, 0.008568924851715565, 0.00936515536159277, 0.005408020224422216, 0.025807635858654976, 0.07993654161691666, 0.010137430392205715, 0.019303299486637115, 0.007518409751355648, 0.01317902933806181, 0.13602444529533386, 0.0042685274966061115, 0.007859094999730587, 0.024104682728648186, 0.44969940185546875, 0.0077323345467448235, 0.012827889062464237, 0.09204574674367905], [0.0383673831820488, 0.05753033235669136, 0.011207767762243748, 0.01718786172568798, 0.009341135621070862, 0.01596911810338497, 0.010759049095213413, 0.005814933218061924, 0.08802805840969086, 0.029329102486371994, 0.03904280066490173, 0.009241738356649876, 0.009708852507174015, 0.12863434851169586, 0.007337677758187056, 0.01879512518644333, 0.004129418171942234, 0.3792151212692261, 0.017496734857559204, 0.028436332941055298, 0.07442712038755417], [0.0492202490568161, 0.0671563521027565, 0.03668041154742241, 0.03128685802221298, 0.021073155105113983, 0.008811081759631634, 0.03010372817516327, 0.018664715811610222, 0.09474553912878036, 0.04085184261202812, 0.04953375086188316, 0.02841165103018284, 0.024645932018756866, 0.09123428165912628, 0.04376465827226639, 0.016300717368721962, 0.023419201374053955, 0.20250970125198364, 0.014921530149877071, 0.02114064246416092, 0.08552398532629013], [0.04477942734956741, 0.03085915930569172, 0.007905816659331322, 0.011127550154924393, 0.0060408147983253, 0.0037536844611167908, 0.013937121257185936, 0.01315954327583313, 0.08636026829481125, 0.04221050441265106, 0.030429335311055183, 0.009547555819153786, 0.015314597636461258, 0.11011239141225815, 0.005113250110298395, 0.0084828557446599, 0.015873432159423828, 0.31617245078086853, 0.009941539727151394, 0.03121182881295681, 0.1876668781042099], [0.027698319405317307, 0.04190961644053459, 0.03496626764535904, 0.017223242670297623, 0.02439139038324356, 0.003174032084643841, 0.013424016535282135, 0.017991473898291588, 0.079393669962883, 0.05234633386135101, 0.037804391235113144, 0.045176949352025986, 0.044084131717681885, 0.07941626757383347, 0.0071762315928936005, 0.0029370582196861506, 0.05179340019822121, 0.19444654881954193, 0.010836395435035229, 0.018167655915021896, 0.1956426203250885], [0.05643457546830177, 0.035381413996219635, 0.002616850659251213, 0.004385719541460276, 0.0031039658933877945, 0.0012801394332200289, 0.004356711637228727, 0.01211849320679903, 0.05119311437010765, 0.010351103730499744, 0.12693732976913452, 0.008686280809342861, 0.008583616465330124, 0.01155044138431549, 0.0020578247494995594, 0.0007239125552587211, 0.00886412151157856, 0.028833748772740364, 0.00383424642495811, 0.009861255995929241, 0.6088452339172363]]], [[[0.0015585150104016066, 0.7543509006500244, 0.06313767284154892, 0.014119209721684456, 0.0009386185556650162, 0.0038695482071489096, 0.0026572097558528185, 0.00887312926352024, 0.004502486903220415, 0.0018432645592838526, 0.004472316708415747, 0.001337005291134119, 0.0005154184182174504, 0.03200786933302879, 0.008136173710227013, 0.014833373948931694, 0.020111452788114548, 0.06010691821575165, 0.0005609685904346406, 0.0013641465920954943, 0.0007038458134047687], [0.001881178468465805, 0.06559285521507263, 0.6507888436317444, 0.011969786137342453, 0.011647505685687065, 0.0011244782945141196, 0.004150007385760546, 0.0002921928244177252, 0.004994079004973173, 0.003508866298943758, 0.0002140380092896521, 0.0015757344663143158, 0.00021984196791891009, 0.023788293823599815, 0.002958436729386449, 0.00023291466641239822, 0.0002859595406334847, 0.20715822279453278, 0.0037751125637441874, 0.0009555203141644597, 0.002886225236579776], [0.002643396146595478, 0.08286872506141663, 0.035598982125520706, 0.11843276768922806, 0.01873413845896721, 0.0003304127021692693, 0.0009591369889676571, 0.0003746809670701623, 0.018837546929717064, 0.0010573710314929485, 0.0037896691355854273, 0.00013143121032044291, 0.0005403933464549482, 0.05207206681370735, 0.0006425424944609404, 4.490572609938681e-05, 0.0001605411380296573, 0.6544334292411804, 0.0008601416484452784, 0.0011584553867578506, 0.006329332944005728], [0.001675675855949521, 0.0011527014430612326, 0.008684761822223663, 0.011823642998933792, 0.8940058350563049, 0.002517958404496312, 0.003777236444875598, 0.0008645075722597539, 0.002416868694126606, 0.001052642590366304, 0.00015757724759168923, 0.0023370536509901285, 0.0011957421666011214, 0.012502257712185383, 0.0009737886721268296, 0.0003495787095744163, 2.7832902560476214e-05, 0.04606461524963379, 6.44293031655252e-05, 0.00019128898566123098, 0.008163971826434135], [0.0014804716920480132, 0.0017725094221532345, 0.00431014271453023, 0.007222444284707308, 0.05510937422513962, 0.03388911113142967, 0.01015060767531395, 0.00452844612300396, 0.0686737671494484, 0.003784573171287775, 7.72692947066389e-05, 9.41900179896038e-06, 5.96424397372175e-05, 0.15523499250411987, 0.003852238180115819, 7.077937880239915e-06, 3.195326280547306e-05, 0.6493115425109863, 6.096948709455319e-05, 4.197786620352417e-05, 0.00039136671693995595], [0.0007161303656175733, 0.0010602198308333755, 0.002167202765122056, 0.002668319270014763, 0.013879748992621899, 0.009511686861515045, 0.8911762237548828, 0.014792948961257935, 0.01898777112364769, 0.0037193919997662306, 2.142628000001423e-05, 9.088023944059387e-05, 0.00012816522212233394, 0.007204620633274317, 0.0023519895039498806, 0.00010496035247342661, 0.0003029329818673432, 0.03045412339270115, 0.00017315700824838132, 1.3231239790911786e-05, 0.0004749090294353664], [0.00036088924389332533, 0.0032161888666450977, 0.0015486727934330702, 0.0011760214110836387, 0.0020630036015063524, 0.00099298229906708, 0.006938145495951176, 0.591913104057312, 0.25186094641685486, 0.028160616755485535, 0.004746331367641687, 0.0005186244379729033, 0.0001023199365590699, 0.0063497042283415794, 0.0005679098539985716, 0.0011156710097566247, 0.00529954070225358, 0.07707764208316803, 7.51591578591615e-05, 0.00046919635497033596, 0.015447374433279037], [0.002112214919179678, 0.0010495169553905725, 0.0001614019274711609, 0.0006363988504745066, 0.0008342164801433682, 0.0006584099610336125, 0.0026484106201678514, 0.012190253473818302, 0.5864866971969604, 0.09203937649726868, 0.0047396766021847725, 4.3660489609465e-05, 5.3972464229445904e-05, 0.0027370078023523092, 0.0001345525379292667, 5.669661277352134e-06, 0.00011578630073927343, 0.2872690260410309, 0.00010610050958348438, 3.08082380797714e-05, 0.0059468625113368034], [0.014201638288795948, 0.00538539607077837, 0.012829606421291828, 0.002484431955963373, 0.0025641496758908033, 0.005050342995673418, 0.026558829471468925, 0.01039827335625887, 0.11369746178388596, 0.5179206132888794, 0.014402044005692005, 0.008676784113049507, 0.00028175950865261257, 0.020707454532384872, 0.00448996014893055, 0.0010150111047551036, 0.0007667399477213621, 0.22447210550308228, 0.006379475351423025, 0.0014967952156439424, 0.006221030373126268], [0.0007997957291081548, 0.004235790576785803, 0.000944102939683944, 0.0005950258346274495, 0.000239914923440665, 1.4473289411398582e-05, 0.0004508826823439449, 0.006312118843197823, 0.11506081372499466, 0.05077042803168297, 0.24330559372901917, 0.0017589065246284008, 0.000421463162638247, 0.00986632239073515, 0.00024532730458304286, 0.00020994964870624244, 0.001575183472596109, 0.5590846538543701, 0.0013928188709542155, 0.001013650093227625, 0.0017028447473421693], [0.0019597243517637253, 0.0013768303906545043, 0.0057077263481915, 0.0008258902817033231, 0.0005960026755928993, 0.00010931965516647324, 0.00016667461022734642, 5.242973202257417e-05, 0.003656020388007164, 0.006790640763938427, 0.02859771065413952, 0.8495364189147949, 0.009869975037872791, 0.031862523406744, 0.00381746725179255, 0.00012351760233286768, 0.0001715902762953192, 0.051169510930776596, 0.0008381184889003634, 0.000577346479985863, 0.0021945086773484945], [0.0013177639339119196, 0.0012907697819173336, 0.000447492056991905, 0.0008880604291334748, 0.0008492778288200498, 4.934172102366574e-05, 3.254242255934514e-05, 3.904126424458809e-05, 0.0016772281378507614, 0.00019229303870815784, 0.011360416188836098, 0.04280365630984306, 0.26972317695617676, 0.43461817502975464, 0.0058119329623878, 0.0003273662587162107, 0.0008628749055787921, 0.22288617491722107, 0.00028413391555659473, 0.001234648167155683, 0.0033037355169653893], [0.0005013862974010408, 0.00020120857516303658, 3.274309347034432e-05, 6.312510231509805e-05, 5.6765013141557574e-05, 0.0003745026479009539, 2.2997099222266115e-05, 2.6352981876698323e-05, 0.0005152531084604561, 3.440477667027153e-05, 0.0001622598065296188, 0.0003589671687223017, 0.018227944150567055, 0.7818317413330078, 0.10973139852285385, 0.00036801467649638653, 0.002307315357029438, 0.08363072574138641, 0.00033891364000737667, 0.0004382995830383152, 0.000775710039306432], [0.014688440598547459, 0.007761713583022356, 0.004431857727468014, 0.0019546367693692446, 0.002516247797757387, 0.010949941352009773, 0.007508165668696165, 0.0020089352037757635, 0.009625740349292755, 0.004407106898725033, 0.002446898724883795, 0.009604008868336678, 0.03337977081537247, 0.258550763130188, 0.37577393651008606, 0.033374249935150146, 0.020519539713859558, 0.1578994244337082, 0.016959402710199356, 0.010191425681114197, 0.015447781421244144], [0.00025686228764243424, 0.0008978992118500173, 0.00022572538000531495, 6.048309842299204e-06, 3.5691959055839106e-05, 5.3705058235209435e-05, 0.0008899224922060966, 0.0012986973160877824, 0.0004638638929463923, 0.0003056608256883919, 0.00020865835540462285, 0.00016345949552487582, 0.0027978133875876665, 0.016639091074466705, 0.03742699325084686, 0.7109243869781494, 0.18427467346191406, 0.03375554457306862, 0.002515588654205203, 0.0037933867424726486, 0.0030662298668175936], [1.3066586689092219e-05, 0.00010950748401228338, 1.670907295192592e-05, 1.0247912314298446e-06, 7.703263236180646e-07, 3.171939169988036e-06, 3.9930251659825444e-05, 0.0011997403344139457, 6.156125891720876e-05, 3.814563388004899e-05, 1.1307120985293295e-05, 5.303479156282265e-06, 9.044854959938675e-05, 0.0006413240334950387, 0.0017419848591089249, 0.0027095365803688765, 0.9892310500144958, 0.002310199197381735, 0.0005917133530601859, 0.000873512530233711, 0.0003100616449955851], [0.0012006494216620922, 0.00460605276748538, 0.00017711117106955498, 0.0001022940268740058, 5.07656077388674e-05, 3.039168586838059e-05, 2.1348845621105283e-05, 0.0009280501399189234, 0.013442853465676308, 0.004295426420867443, 0.007125073112547398, 0.0003903920005541295, 0.007005093619227409, 0.024438519030809402, 0.023072386160492897, 0.0007520605577155948, 0.14920403063297272, 0.6691316366195679, 0.040725838392972946, 0.038286108523607254, 0.015013894997537136], [0.07835758477449417, 0.04879315569996834, 0.032274048775434494, 0.009802955202758312, 0.007308545056730509, 0.008107258006930351, 0.008792713284492493, 0.005561261437833309, 0.042410749942064285, 0.0399654284119606, 0.020897017791867256, 0.02645045705139637, 0.010301811620593071, 0.09070288389921188, 0.025866227224469185, 0.013947336934506893, 0.012086816132068634, 0.3173413872718811, 0.05943680182099342, 0.03474411368370056, 0.10685136914253235], [0.0009183853981085122, 0.009003187529742718, 0.0023479072842746973, 0.0006886285264045, 0.0002614117693156004, 1.2284773220017087e-05, 3.222783197998069e-05, 0.00026806604000739753, 0.0012296941131353378, 0.0005151542718522251, 0.005065848585218191, 0.0023778683971613646, 0.0068632629700005054, 0.03562329337000847, 0.0010087096597999334, 0.005154752172529697, 0.01702975481748581, 0.3415237367153168, 0.07226783037185669, 0.4315827786922455, 0.06622526049613953], [0.003712160512804985, 0.01937580294907093, 0.0014246797654777765, 0.0034158630296587944, 0.0010033888975158334, 3.998620741185732e-05, 3.813146031461656e-05, 0.0006213707965798676, 0.007597999181598425, 0.0007465639500878751, 0.012342994101345539, 0.0017603482119739056, 0.016552086919546127, 0.05519812926650047, 0.001744991634041071, 0.0005169682553969324, 0.023054055869579315, 0.4707000255584717, 0.0616966113448143, 0.17850719392299652, 0.13995058834552765], [0.006592394784092903, 0.49019309878349304, 0.12819814682006836, 0.006989295594394207, 0.0032392863649874926, 0.002168429084122181, 0.0038365847431123257, 0.006070483010262251, 0.013449456542730331, 0.01404770277440548, 0.01103135384619236, 0.007361614145338535, 0.002827743999660015, 0.052072856575250626, 0.030248524621129036, 0.0030803284607827663, 0.012824198231101036, 0.1529996395111084, 0.028751632198691368, 0.014669635333120823, 0.009347659535706043]], [[0.002401834586635232, 0.02945278398692608, 0.05736618489027023, 0.03699729964137077, 0.015729550272226334, 0.0074858590960502625, 0.0020421319641172886, 0.01097126118838787, 0.10526134073734283, 0.04742661491036415, 0.0861237421631813, 0.028244568035006523, 0.004055733326822519, 0.040793437510728836, 0.007878100499510765, 0.01283432636409998, 0.01356363296508789, 0.39019718766212463, 0.07030054926872253, 0.029357384890317917, 0.0015166446100920439], [0.008665494620800018, 0.054145555943250656, 0.005018377676606178, 0.00015769439050927758, 1.3237352504802402e-05, 4.122935479244916e-06, 0.0019833415281027555, 0.00010024353832704946, 0.0026212683878839016, 0.0009351507178507745, 0.0002006512659136206, 5.226340363151394e-05, 2.250336910947226e-05, 0.006383828353136778, 0.0005367676494643092, 7.957840716699138e-05, 0.0003027371421921998, 0.3554891347885132, 0.0012428999179974198, 0.0007301720906980336, 0.5613150000572205], [1.7838146959547885e-05, 0.8648844957351685, 0.009439620189368725, 2.8689888495136984e-05, 6.332521934382385e-06, 3.999901764473179e-06, 5.160561340744607e-05, 6.311411198112182e-07, 0.000561832741368562, 8.711683040019125e-05, 0.002529139630496502, 6.302885140030412e-06, 5.354185361738928e-08, 0.000519026187248528, 1.9665443687699735e-05, 4.819348305318272e-06, 2.2518402147397865e-06, 0.1092907190322876, 0.00027561248862184584, 3.583767465897836e-05, 0.012234466150403023], [3.226207263651304e-05, 0.002621518913656473, 0.9532901048660278, 0.01368135865777731, 0.001132478821091354, 4.1054136090679094e-05, 0.00012358462845440954, 5.344532382878242e-06, 9.499221778241917e-05, 0.0003752499760594219, 4.720496144727804e-05, 0.0028861924074590206, 9.841075552685652e-06, 0.0010453665163367987, 1.891019564936869e-05, 3.361329845574801e-06, 3.2165191896638134e-06, 0.023102909326553345, 0.0003231610171496868, 0.0008570798672735691, 0.0003047838108614087], [3.9394669215653266e-07, 2.7905236493097618e-05, 0.0016051740385591984, 0.9976529479026794, 0.0006566489464603364, 8.130259061545075e-07, 3.0038659133424517e-06, 1.4382739266238787e-07, 6.048167620065215e-07, 2.1508451197860268e-07, 3.9740731949677865e-07, 2.2767118935007602e-05, 3.4307941376710005e-08, 7.51567597490066e-07, 4.83147459817701e-07, 1.4041242613060945e-09, 1.0051993903914536e-08, 1.5547400835203007e-05, 2.7379962830309523e-07, 6.994792443038023e-07, 1.1319844816171099e-05], [4.6543224016204476e-05, 1.3025931366428267e-05, 0.00013613271585199982, 0.022947505116462708, 0.973388671875, 0.0006131381960585713, 0.0010428052628412843, 3.097728040302172e-05, 1.6332835002685897e-05, 3.4131160191464005e-06, 3.084228637817432e-06, 4.38952338299714e-05, 0.0010473818983882666, 0.00022117310436442494, 6.023031164659187e-05, 3.9136102714110166e-07, 1.1892982456629397e-06, 0.0002587756607681513, 1.2070436241629068e-06, 6.100329301261809e-06, 0.00011810485739260912], [0.00013772740203421563, 6.918753933859989e-05, 0.0005671182298101485, 0.0061001284047961235, 0.9798616170883179, 0.003922211471945047, 0.002993092406541109, 0.00020044609846081585, 0.0006673595053143799, 9.754709026310593e-05, 4.6574941734434105e-06, 5.571351266553393e-06, 0.00019135602633468807, 0.0010663942666724324, 6.134442082839087e-05, 1.5333818055296433e-06, 2.840641400325694e-06, 0.003158287378028035, 1.037878519127844e-06, 3.503718517094967e-06, 0.0008870324236340821], [0.00019462067575659603, 6.784362994949333e-06, 8.223501208703965e-05, 0.0007917602779343724, 0.011432727798819542, 0.00037932509439997375, 0.9733015894889832, 0.010423058643937111, 0.0016367195639759302, 0.001342645613476634, 4.293616711947834e-06, 2.0826073523494415e-06, 3.5876084893970983e-06, 1.8176062440034002e-05, 2.198154470534064e-05, 6.0320635384414345e-05, 8.608606549387332e-06, 0.00011628669744823128, 1.88920421351213e-05, 6.812127685407177e-05, 8.625506598036736e-05], [0.001028175582177937, 0.0004887971444986761, 0.0006319975946098566, 0.0012167575769126415, 0.007146788761019707, 0.000347955065080896, 0.13301891088485718, 0.1158992275595665, 0.26751774549484253, 0.11346357315778732, 0.00033048904151655734, 3.36415869242046e-05, 5.8155612350674346e-05, 0.007122220005840063, 0.0018734901677817106, 0.0003415665414649993, 0.0007833040435798466, 0.34373095631599426, 8.981490100268275e-05, 0.00014370938879437745, 0.004732780158519745], [1.0270271559420507e-05, 0.000851753749884665, 0.00010868531535379589, 1.1373163943062536e-05, 0.0001184111024485901, 7.714064850006253e-06, 0.011821512132883072, 0.0026753395795822144, 0.8265088200569153, 0.020575128495693207, 0.0019188161240890622, 2.968794433400035e-06, 6.115453032862206e-08, 0.0007087609264999628, 3.555054354364984e-05, 7.74392447056016e-06, 6.036682407284388e-06, 0.13287436962127686, 1.3381207281781826e-05, 1.0022217793448362e-06, 0.0017421755474060774], [0.00016000194591470063, 6.336221849778667e-05, 0.0005969557678326964, 1.6240874174400233e-05, 2.2541585167346057e-06, 1.6798638569071045e-07, 0.0012277167988941073, 0.0011719251051545143, 0.06716714054346085, 0.6579574942588806, 0.0617418996989727, 0.008721509017050266, 2.5171249944833107e-05, 0.0014964919537305832, 0.0007437167223542929, 0.00026924232952296734, 0.0003561672056093812, 0.19691814482212067, 0.00065974285826087, 0.000155668196384795, 0.0005489024333655834], [5.509957077265426e-07, 1.9799446818069555e-05, 4.118340257264208e-06, 1.0453270533616887e-06, 8.741124268851763e-09, 6.505300298442762e-09, 5.138439007623674e-08, 1.4347389942770405e-08, 4.436285234987736e-05, 0.0002191706735175103, 0.9938774704933167, 0.0034248081501573324, 3.3337866511828906e-07, 7.401550828944892e-05, 1.840394133978407e-06, 8.329782303917455e-07, 5.750655986958009e-07, 0.002306838985532522, 1.6478374163853005e-05, 4.039863142679678e-06, 3.73522220797895e-06], [4.175884441792732e-06, 6.369270408868033e-07, 4.166363214608282e-05, 0.00023319118190556765, 6.468707738349622e-07, 4.343694470776427e-08, 1.3560881484409038e-07, 1.9674210705034056e-08, 8.499591785948724e-07, 1.2985500688955653e-05, 0.0008100828854367137, 0.9963582158088684, 0.0009176963940262794, 0.0005656052962876856, 0.0002589524956420064, 1.398096628690837e-06, 1.1733827705029398e-05, 0.0005904684658162296, 7.897273462731391e-05, 0.00010374801786383614, 8.93682135938434e-06], [0.0014897299697622657, 0.0004970670561306179, 0.00036177903530187905, 0.00012187007814645767, 0.000725042074918747, 0.000341703969752416, 0.0005120031419210136, 8.89635193743743e-05, 0.003229426918551326, 0.000528630567714572, 0.002938004909083247, 0.01091236062347889, 0.3488614559173584, 0.35066884756088257, 0.012781647965312004, 0.0022970407735556364, 0.0006748069426976144, 0.2562236189842224, 0.0007314600516110659, 0.0013363981852307916, 0.004678164608776569], [2.3445300030289218e-06, 2.5503630240564235e-05, 2.8363689125399105e-05, 3.083666797465412e-06, 0.00010160343663301319, 1.6726949979783967e-05, 2.101193240378052e-05, 4.58536362657469e-07, 0.00011658971925498918, 4.855042334384052e-06, 0.0001023982695187442, 0.0008772850269451737, 0.008126480504870415, 0.8221681714057922, 0.07829953730106354, 0.0013572813477367163, 7.153993647079915e-05, 0.08847405016422272, 9.07806315808557e-06, 1.1509955584187992e-05, 0.00018216883472632617], [2.2235964934225194e-05, 2.3792147203494096e-06, 3.3558642371644964e-06, 8.058522666942736e-07, 9.9921140645165e-05, 5.8794607866730075e-06, 4.5494456571759656e-05, 3.529806633650878e-07, 2.335183489776682e-05, 8.941157830122393e-06, 1.1259378879913129e-05, 7.542558887507766e-05, 0.016465621069073677, 0.15987078845500946, 0.8047257661819458, 0.010803738608956337, 0.0002491491904947907, 0.007183069363236427, 0.00014011580788064748, 0.00012356924708001316, 0.00013879319885745645], [0.0001412801502738148, 9.539622260490432e-05, 9.128564124694094e-05, 2.478469127709104e-07, 2.3987076929188333e-05, 1.909068259919877e-06, 0.0005272825947031379, 1.475233966630185e-05, 0.00038745353231206536, 0.00035089842276647687, 0.00016045378288254142, 0.0005287615349516273, 0.0023070448078215122, 0.036387063562870026, 0.0888698473572731, 0.8529719710350037, 0.0037507684901356697, 0.004506486468017101, 0.004153748042881489, 0.004191469866782427, 0.000537925458047539], [0.0020775815937668085, 0.005698961205780506, 0.009421023540198803, 0.0004992438480257988, 0.0005615140544250607, 0.0007031944114714861, 0.00379058881662786, 0.003737051272764802, 0.04767554998397827, 0.02270592749118805, 0.0037056715227663517, 0.0022112817969173193, 0.002244561677798629, 0.06274130195379257, 0.021561091765761375, 0.024287618696689606, 0.014479405246675014, 0.7262067794799805, 0.023542992770671844, 0.016986439004540443, 0.005162351299077272], [6.166515504446579e-06, 0.0013056412572041154, 4.5621211029356346e-05, 6.342787628454971e-07, 2.331559301183006e-07, 1.2343026867256413e-07, 5.56007471175235e-08, 6.168377240101108e-07, 0.0005937189562246203, 0.00022040064504835755, 0.0026224178727716208, 6.783300341339782e-05, 2.8863438274129294e-05, 0.026361629366874695, 0.005427220370620489, 0.0006019338616169989, 0.008955144323408604, 0.9462117552757263, 0.004600920714437962, 0.001269215950742364, 0.0016798702999949455], [0.00012617476750165224, 0.0013063610531389713, 0.0006504835328087211, 2.9241261927381856e-06, 1.3429036698653363e-05, 4.535365576430195e-07, 1.1893801854512276e-07, 2.8337399271549657e-07, 0.00022297575196716934, 0.0015952776884660125, 0.004878736101090908, 0.00020516692893579602, 0.0013017943128943443, 0.124203160405159, 0.027279259636998177, 0.00277441437356174, 0.05581684783101082, 0.5438351035118103, 0.14567771553993225, 0.07069522887468338, 0.019414065405726433], [0.0032713348045945168, 0.0002478632377460599, 0.0033784531988203526, 0.0006966402288526297, 2.08168839890277e-05, 2.5492394343018532e-05, 0.005786702036857605, 0.00037803896702826023, 0.0013630334287881851, 0.0012316630454733968, 0.0002767003024928272, 0.005618860479444265, 0.0004194780485704541, 0.005611986853182316, 0.004631461575627327, 0.0013505953829735518, 0.008346530608832836, 0.16652095317840576, 0.21583081781864166, 0.5746400356292725, 0.0003525048086885363]], [[0.005159560590982437, 0.050404611974954605, 0.022770237177610397, 0.07849716395139694, 0.027190616354346275, 0.006358715705573559, 0.006938295904546976, 0.012982153333723545, 0.04467279836535454, 0.04804401844739914, 0.09940965473651886, 0.028400447219610214, 0.04925592988729477, 0.07875418663024902, 0.03417462110519409, 0.005777357611805201, 0.030249666422605515, 0.19151344895362854, 0.052153702825307846, 0.013952039182186127, 0.11334075033664703], [0.01872253231704235, 0.03628432750701904, 0.03223457187414169, 0.03729340061545372, 0.014234050177037716, 0.003697383916005492, 0.0029674868565052748, 0.008393609896302223, 0.04046478495001793, 0.009000474587082863, 0.03446745127439499, 0.02235570177435875, 0.010692507959902287, 0.10792916268110275, 0.010993970558047295, 0.00486718351021409, 0.013636971823871136, 0.5324499607086182, 0.0035109638702124357, 0.0020233383402228355, 0.053780216723680496], [0.015569688752293587, 0.05597948655486107, 0.026501566171646118, 0.021528104320168495, 0.01501599419862032, 0.0014270241372287273, 0.0018083672039210796, 0.007765620946884155, 0.04048250988125801, 0.009771662764251232, 0.02313552051782608, 0.005989583674818277, 0.0057194908149540424, 0.09294962882995605, 0.0073879496194422245, 0.00215669022873044, 0.007165455725044012, 0.5835232734680176, 0.0021465513855218887, 0.0016411137767136097, 0.07233469188213348], [0.01935652643442154, 0.12891511619091034, 0.2162286788225174, 0.02086326852440834, 0.0430842749774456, 0.001236535725183785, 0.0035833462607115507, 0.005468989256769419, 0.02814801223576069, 0.020652828738093376, 0.03399965167045593, 0.022280335426330566, 0.016148027032613754, 0.060997750610113144, 0.006758875213563442, 0.00205902848392725, 0.013933605514466763, 0.2588568925857544, 0.0062653678469359875, 0.00524052744731307, 0.08592230826616287], [0.00368561246432364, 0.10435947775840759, 0.6148988604545593, 0.02275256998836994, 0.05515485256910324, 0.00037008931394666433, 0.003880798816680908, 0.0020626960322260857, 0.008610482327640057, 0.010805537924170494, 0.011317958123981953, 0.02539224363863468, 0.006663514766842127, 0.01393125019967556, 0.0035459690261632204, 0.0006821921560913324, 0.0035109363961964846, 0.07755504548549652, 0.001884668366983533, 0.0022773421369493008, 0.026657983660697937], [0.012814288958907127, 0.1513696014881134, 0.2065739780664444, 0.032666340470314026, 0.03102870099246502, 0.0045720054768025875, 0.021176829934120178, 0.010148716159164906, 0.059993501752614975, 0.08350761979818344, 0.017844267189502716, 0.01335966307669878, 0.004925342742353678, 0.041817281395196915, 0.005862760823220015, 0.0017131022177636623, 0.0027541080489754677, 0.15615485608577728, 0.009620779193937778, 0.0068901521153748035, 0.1252060830593109], [0.011141816154122353, 0.20229607820510864, 0.18656356632709503, 0.04779618978500366, 0.049034129828214645, 0.0042885178700089455, 0.028968462720513344, 0.0163569338619709, 0.046288833022117615, 0.09950099885463715, 0.013347533531486988, 0.0065755695104599, 0.00227260566316545, 0.03949621692299843, 0.002894893055781722, 0.0016003538621589541, 0.0022044482175260782, 0.11710449308156967, 0.0019228886812925339, 0.0021349359303712845, 0.1182105764746666], [0.014722520485520363, 0.205624058842659, 0.22740060091018677, 0.06558645516633987, 0.06763605028390884, 0.006201121490448713, 0.027054425328969955, 0.013887465000152588, 0.042276110500097275, 0.06112203374505043, 0.012590623460710049, 0.0035147545859217644, 0.001129231182858348, 0.03682921826839447, 0.0018562248442322016, 0.001157816732302308, 0.0019172047032043338, 0.1072034165263176, 0.001962324371561408, 0.0030660589691251516, 0.09726229310035706], [0.012638360261917114, 0.086548812687397, 0.057783447206020355, 0.13534900546073914, 0.08737990260124207, 0.016776924952864647, 0.012516279704868793, 0.011043034493923187, 0.057283055037260056, 0.017139393836259842, 0.01830436848104, 0.006472023203969002, 0.004713165108114481, 0.06839500367641449, 0.007072077598422766, 0.0026297839358448982, 0.004981487523764372, 0.32535094022750854, 0.003784013446420431, 0.002658512908965349, 0.061180416494607925], [0.012074877507984638, 0.07153991609811783, 0.05117021128535271, 0.041171178221702576, 0.04953242838382721, 0.01557149738073349, 0.06030547618865967, 0.03008280135691166, 0.08706741780042648, 0.11355710029602051, 0.00454552611336112, 0.0009866293985396624, 0.0011074066860601306, 0.05351812019944191, 0.004363351035863161, 0.0020158954430371523, 0.002183174714446068, 0.23802374303340912, 0.005793980322778225, 0.0033198099117726088, 0.15206949412822723], [0.005141240078955889, 0.1233958899974823, 0.024863241240382195, 0.1789126694202423, 0.15820738673210144, 0.027533115819096565, 0.061988234519958496, 0.07483862340450287, 0.06420129537582397, 0.044077903032302856, 0.09238197654485703, 0.015658928081393242, 0.0034269343595951796, 0.017281195148825645, 0.003004761878401041, 0.0016849770909175277, 0.004525802098214626, 0.05385312810540199, 0.0010882163187488914, 0.001327376696281135, 0.04260709881782532], [0.002155509078875184, 0.08750554919242859, 0.03777484595775604, 0.07507268339395523, 0.1426292359828949, 0.004442423582077026, 0.02402813918888569, 0.040738340467214584, 0.0796147808432579, 0.046568989753723145, 0.2578122019767761, 0.07190333306789398, 0.007577984128147364, 0.023571886122226715, 0.005061654839664698, 0.001507391920313239, 0.005758358631283045, 0.06387095898389816, 0.0007890726556070149, 0.0009662735392339528, 0.020650343969464302], [0.00045532823423855007, 0.018918892368674278, 0.06552838534116745, 0.01280877087265253, 0.0904427170753479, 0.0009210738935507834, 0.010816787369549274, 0.005649819038808346, 0.017898360267281532, 0.03966270014643669, 0.15233534574508667, 0.4964343011379242, 0.03879391774535179, 0.010644960217177868, 0.00790637731552124, 0.0017356912139803171, 0.005432655103504658, 0.014160774648189545, 0.003222663886845112, 0.003423880785703659, 0.0028065661899745464], [0.009583588689565659, 0.035206109285354614, 0.03669935092329979, 0.028590457513928413, 0.025298507884144783, 0.006354216020554304, 0.0098645044490695, 0.012647398747503757, 0.0726214274764061, 0.02980879694223404, 0.15336358547210693, 0.14724735915660858, 0.022242551669478416, 0.09196097403764725, 0.020610066130757332, 0.008937816135585308, 0.015836045145988464, 0.22734478116035461, 0.011048618704080582, 0.008406235836446285, 0.02632751688361168], [0.003102079266682267, 0.029833009466528893, 0.062279537320137024, 0.01367316022515297, 0.033508192747831345, 0.003150016302242875, 0.0043011982925236225, 0.005162328947335482, 0.034886088222265244, 0.02110516093671322, 0.10562847554683685, 0.22924520075321198, 0.04787072539329529, 0.12410955876111984, 0.04213318973779678, 0.012036612257361412, 0.010823000222444534, 0.14052997529506683, 0.026672590523958206, 0.022741932421922684, 0.02720799297094345], [0.0055467672646045685, 0.017157264053821564, 0.03717320039868355, 0.005700984504073858, 0.03499062359333038, 0.005824808496981859, 0.009630715474486351, 0.009091474115848541, 0.042110420763492584, 0.035124897956848145, 0.12614932656288147, 0.23751656711101532, 0.07988531142473221, 0.11762677878141403, 0.04546043649315834, 0.01911979168653488, 0.01896042376756668, 0.09319044649600983, 0.021253351122140884, 0.016537532210350037, 0.021949000656604767], [0.005383847281336784, 0.017806172370910645, 0.045825887471437454, 0.0060550738126039505, 0.024151107296347618, 0.0011364048114046454, 0.0022588816937059164, 0.004760554991662502, 0.04081934317946434, 0.019760556519031525, 0.15500539541244507, 0.23808088898658752, 0.05396690219640732, 0.16189423203468323, 0.02133588120341301, 0.01011232752352953, 0.014806537888944149, 0.13944454491138458, 0.006565583869814873, 0.009561077691614628, 0.021268755197525024], [0.0209761131554842, 0.02643049694597721, 0.020056074485182762, 0.018989162519574165, 0.014954894781112671, 0.008614610880613327, 0.007393233012408018, 0.008471776731312275, 0.0509522445499897, 0.017163025215268135, 0.06206223741173744, 0.04224622622132301, 0.030868040397763252, 0.15165969729423523, 0.037761516869068146, 0.01755390502512455, 0.026469754055142403, 0.3625034689903259, 0.016399100422859192, 0.0122218644246459, 0.046252526342868805], [0.006135852076113224, 0.008640892803668976, 0.005273583345115185, 0.0007224088767543435, 0.0025072558782994747, 0.0031178819481283426, 0.011740898713469505, 0.003780630649998784, 0.02914820984005928, 0.02940257079899311, 0.06791780889034271, 0.04873471334576607, 0.06323621422052383, 0.15782314538955688, 0.18417571485042572, 0.05694345757365227, 0.03141690418124199, 0.10363645106554031, 0.11625141650438309, 0.042983051389455795, 0.026410989463329315], [0.003472475567832589, 0.014658614061772823, 0.007329678162932396, 0.002856259001418948, 0.005513051059097052, 0.005615240894258022, 0.013362355530261993, 0.006574014667421579, 0.02737532928586006, 0.023277752101421356, 0.1729246973991394, 0.0839521661400795, 0.0759301483631134, 0.1600399613380432, 0.1002952978014946, 0.08008697628974915, 0.03660723194479942, 0.06878609955310822, 0.0459546335041523, 0.03938150405883789, 0.026006560772657394], [0.004971393849700689, 0.023896601051092148, 0.004518432077020407, 0.023987486958503723, 0.010510649532079697, 0.00613083690404892, 0.004237680695950985, 0.006751150358468294, 0.030835187062621117, 0.012256002984941006, 0.3502442538738251, 0.10676117241382599, 0.07790298759937286, 0.09796054661273956, 0.027874669060111046, 0.013076464645564556, 0.03612932562828064, 0.10020650923252106, 0.020564693957567215, 0.011455142870545387, 0.029728803783655167]], [[0.009173714555799961, 0.027763471007347107, 0.028113259002566338, 0.038620661944150925, 0.018782878294587135, 0.01043904572725296, 0.022716520354151726, 0.02150203287601471, 0.042545564472675323, 0.12857964634895325, 0.04016508162021637, 0.04242882877588272, 0.0322689488530159, 0.04478780925273895, 0.06771688908338547, 0.01916171982884407, 0.016279129311442375, 0.06722316145896912, 0.19405655562877655, 0.04384462162852287, 0.08383031189441681], [0.04179294779896736, 0.12301044911146164, 0.014662976376712322, 0.07858867198228836, 0.019433578476309776, 0.007172925863415003, 0.017794016748666763, 0.07073622196912766, 0.029293451458215714, 0.08457768708467484, 0.11179384589195251, 0.019095737487077713, 0.01446844357997179, 0.0455918051302433, 0.031147217378020287, 0.009821366518735886, 0.03268700838088989, 0.05685144290328026, 0.06915438175201416, 0.019807584583759308, 0.10251826792955399], [0.024459490552544594, 0.07216174155473709, 0.02145974710583687, 0.009644092991948128, 0.01542740035802126, 0.00923041719943285, 0.016356203705072403, 0.029133329167962074, 0.02510506846010685, 0.3268396258354187, 0.07786975055932999, 0.04600546136498451, 0.020139306783676147, 0.04032725840806961, 0.03261350095272064, 0.0025496957823634148, 0.006038349121809006, 0.05015884339809418, 0.04360702633857727, 0.02190486527979374, 0.1089688315987587], [0.007733540143817663, 0.10566752403974533, 0.02625512331724167, 0.24652083218097687, 0.024575049057602882, 0.001637545763514936, 0.0026841587387025356, 0.1854177862405777, 0.023809289559721947, 0.05043594539165497, 0.05950640141963959, 0.023903504014015198, 0.014749955385923386, 0.02854122593998909, 0.009545513428747654, 0.017206551507115364, 0.05245270952582359, 0.02947094850242138, 0.01895809732377529, 0.019886724650859833, 0.05104158818721771], [0.015021488070487976, 0.10444056987762451, 0.08396430313587189, 0.046339258551597595, 0.024356622248888016, 0.0024103240575641394, 0.0014320425689220428, 0.030147820711135864, 0.03152754157781601, 0.18380427360534668, 0.08449079841375351, 0.09253900498151779, 0.020124027505517006, 0.048043668270111084, 0.01967024616897106, 0.0048364452086389065, 0.018107276409864426, 0.07444417476654053, 0.04005424305796623, 0.03460671752691269, 0.0396391823887825], [0.027890058234333992, 0.0385918989777565, 0.022502662613987923, 0.041010089218616486, 0.035400792956352234, 0.003888576989993453, 0.022029904648661613, 0.017980074509978294, 0.036119405180215836, 0.28296881914138794, 0.06435593962669373, 0.03006955049932003, 0.027712933719158173, 0.04772089421749115, 0.009658283554017544, 0.002952408278360963, 0.005427862983196974, 0.13612224161624908, 0.052324727177619934, 0.03296040743589401, 0.0623125396668911], [0.016732797026634216, 0.0024224647786468267, 0.0006950897513888776, 0.0008059022948145866, 0.0007918933988548815, 0.00011835477198474109, 0.011338590644299984, 0.002286298666149378, 0.0038655558601021767, 0.8757991790771484, 0.004027821123600006, 0.0017787414835765958, 0.0030696624889969826, 0.007283741608262062, 0.0019185692071914673, 0.00017027326975949109, 0.0008588755736127496, 0.015880655497312546, 0.023391276597976685, 0.006421559490263462, 0.020342616364359856], [0.05742416903376579, 0.03191402554512024, 0.0035894112661480904, 0.04458380490541458, 0.012193785980343819, 0.0024840431287884712, 0.01059337705373764, 0.04915639013051987, 0.017693448811769485, 0.21048834919929504, 0.06651835888624191, 0.006416586227715015, 0.009235402569174767, 0.04321257770061493, 0.013811187818646431, 0.007644861936569214, 0.08993871510028839, 0.06712663173675537, 0.12505125999450684, 0.01609312742948532, 0.11483054608106613], [0.08055181801319122, 0.05680548772215843, 0.020536202937364578, 0.038679201155900955, 0.016802622005343437, 0.010646466165781021, 0.028576277196407318, 0.06322026997804642, 0.07054176181554794, 0.07180994004011154, 0.0718531459569931, 0.02428421378135681, 0.01900496333837509, 0.09350892901420593, 0.01292403880506754, 0.011719982139766216, 0.02778059057891369, 0.14671394228935242, 0.04185843467712402, 0.02366514317691326, 0.06851653009653091], [0.014428064227104187, 0.010979329235851765, 0.0019582542590796947, 0.0017663032049313188, 0.004966240841895342, 0.002025516936555505, 0.029812365770339966, 0.0037001222372055054, 0.011048294603824615, 0.47388404607772827, 0.015640081837773323, 0.0026154816150665283, 0.01172165758907795, 0.03684138506650925, 0.026917358860373497, 0.0009638957562856376, 0.001535029150545597, 0.04620876535773277, 0.2248544991016388, 0.01980268396437168, 0.05833057686686516], [0.0356237031519413, 0.11831189692020416, 0.02572445757687092, 0.09936405718326569, 0.017002832144498825, 0.009747673757374287, 0.012740863487124443, 0.06187266483902931, 0.04598662629723549, 0.057575471699237823, 0.11575742810964584, 0.031010279431939125, 0.012343917973339558, 0.056788258254528046, 0.012708596885204315, 0.010516745038330555, 0.02331285923719406, 0.10331606864929199, 0.03982343524694443, 0.020564299076795578, 0.08990777283906937], [0.021573280915617943, 0.061961885541677475, 0.024490293115377426, 0.018323764204978943, 0.02077353745698929, 0.009965146891772747, 0.005722154397517443, 0.02759627066552639, 0.03564175218343735, 0.35014310479164124, 0.06887698173522949, 0.031100373715162277, 0.024073561653494835, 0.05403319373726845, 0.015698401257395744, 0.0037251533940434456, 0.007899057120084763, 0.10751790553331375, 0.028908178210258484, 0.03142097592353821, 0.05055501312017441], [0.025435280054807663, 0.04982379078865051, 0.0534941740334034, 0.020767679437994957, 0.015696272253990173, 0.0021490443032234907, 0.0037851089145988226, 0.019755100831389427, 0.02130093239247799, 0.33990517258644104, 0.044795289635658264, 0.0672922357916832, 0.01997924968600273, 0.032257575541734695, 0.02487611025571823, 0.00844912976026535, 0.01815759390592575, 0.04823966696858406, 0.10647610574960709, 0.04185975715517998, 0.035504646599292755], [0.057524699717760086, 0.05014599487185478, 0.018766777589917183, 0.024654680863022804, 0.024254893884062767, 0.013348693028092384, 0.01587776094675064, 0.03844800591468811, 0.07134286314249039, 0.05307265371084213, 0.06500379741191864, 0.02699746936559677, 0.025688830763101578, 0.09828845411539078, 0.021594079211354256, 0.01263729389756918, 0.02470296248793602, 0.1327091008424759, 0.11045811325311661, 0.043742455542087555, 0.07074040919542313], [0.030673274770379066, 0.033073537051677704, 0.006595714017748833, 0.010345458053052425, 0.02229725383222103, 0.008125203661620617, 0.0025138172786682844, 0.02299073524773121, 0.0303189717233181, 0.04135363548994064, 0.03680520877242088, 0.013113693334162235, 0.03341806307435036, 0.07159437984228134, 0.056821733713150024, 0.02089477702975273, 0.019242260605096817, 0.0781765803694725, 0.29641711711883545, 0.13147497177124023, 0.03375371918082237], [0.04013310745358467, 0.09624987095594406, 0.026180138811469078, 0.04325141757726669, 0.014981521293520927, 0.0020224296022206545, 0.006757804658263922, 0.04561241343617439, 0.01902872323989868, 0.08777309954166412, 0.06766001880168915, 0.029075825586915016, 0.015444598160684109, 0.030026061460375786, 0.07296650856733322, 0.011587136425077915, 0.03203408047556877, 0.03421982750296593, 0.2109997421503067, 0.03527555242180824, 0.07872004806995392], [0.013278289698064327, 0.08024005591869354, 0.013134226202964783, 0.06203008070588112, 0.0175129733979702, 0.0018660267814993858, 0.0010584760457277298, 0.04180261865258217, 0.017911272123456, 0.03223061561584473, 0.06927701085805893, 0.010643965564668179, 0.013563728891313076, 0.042016588151454926, 0.026937335729599, 0.018223989754915237, 0.2483319640159607, 0.04250777140259743, 0.16286039352416992, 0.012702153995633125, 0.07187042385339737], [0.052074503153562546, 0.05014590919017792, 0.028501411899924278, 0.02792903035879135, 0.026096388697624207, 0.019462965428829193, 0.02233254350721836, 0.03500282019376755, 0.07850790023803711, 0.04707489535212517, 0.06422607600688934, 0.03620261698961258, 0.03359067812561989, 0.10596959292888641, 0.02700522541999817, 0.01599080115556717, 0.02909143455326557, 0.13174596428871155, 0.07580569386482239, 0.041001107543706894, 0.052242379635572433], [0.026394926011562347, 0.023334428668022156, 0.0011199403088539839, 0.0032753776758909225, 0.0029536692891269922, 0.002350971568375826, 7.617336814291775e-05, 0.0032468230929225683, 0.017375478520989418, 0.0566103495657444, 0.0338512659072876, 0.0015445906901732087, 0.0043325419537723064, 0.043154533952474594, 0.003683466697111726, 0.0012529257219284773, 0.007158071734011173, 0.11232969164848328, 0.51793372631073, 0.027752898633480072, 0.11026814579963684], [0.02749999240040779, 0.011629513464868069, 0.0035030103754252195, 0.0025552294682711363, 0.003626258810982108, 0.0017284665955230594, 0.0038257266860455275, 0.004723880439996719, 0.011146985925734043, 0.11776057630777359, 0.017131095752120018, 0.006643717642873526, 0.0056580002419650555, 0.02192940190434456, 0.00631748978048563, 0.0023140977136790752, 0.0031031726393848658, 0.0320582240819931, 0.6020125150680542, 0.030125251039862633, 0.08470752090215683], [0.05062691122293472, 0.04335237294435501, 0.01151326484978199, 0.026730557903647423, 0.006671341601759195, 0.01311394665390253, 0.009312974289059639, 0.030385063961148262, 0.035660453140735626, 0.11960303038358688, 0.08253955096006393, 0.017479220405220985, 0.009861589409410954, 0.05156663805246353, 0.029473500326275826, 0.008606947958469391, 0.047171998769044876, 0.06879973411560059, 0.1867252141237259, 0.027179988101124763, 0.12362568080425262]], [[0.004862617235630751, 0.03424730524420738, 0.05445796996355057, 0.06500295549631119, 0.027612503618001938, 0.010133090429008007, 0.03680642321705818, 0.021296849474310875, 0.023491598665714264, 0.3185044825077057, 0.03293042257428169, 0.1132650151848793, 0.030189890414476395, 0.017656579613685608, 0.039309971034526825, 0.0038898263592272997, 0.019570568576455116, 0.022602668032050133, 0.08753940463066101, 0.016283703967928886, 0.020346136763691902], [0.12571097910404205, 0.035791974514722824, 0.02837727777659893, 0.01637878082692623, 0.028343845158815384, 0.03562851622700691, 0.012855845503509045, 0.022291773930191994, 0.05021044611930847, 0.026890993118286133, 0.08504904806613922, 0.035185325890779495, 0.027582738548517227, 0.06667403131723404, 0.028990577906370163, 0.012949193827807903, 0.030149240046739578, 0.12536633014678955, 0.03159001097083092, 0.025052640587091446, 0.1489303857088089], [0.08801044523715973, 0.047681234776973724, 0.00768497958779335, 0.025129353627562523, 0.04195209592580795, 0.03542826324701309, 0.009061304852366447, 0.008940628729760647, 0.03299549221992493, 0.016669094562530518, 0.061764802783727646, 0.012321466580033302, 0.053284529596567154, 0.0889577716588974, 0.03617208078503609, 0.013283602893352509, 0.03490687906742096, 0.21530795097351074, 0.0540938638150692, 0.021162763237953186, 0.09519144147634506], [0.07525289803743362, 0.03140806406736374, 0.023243771865963936, 0.011499403975903988, 0.10106679052114487, 0.0259591955691576, 0.0048955287784338, 0.0031924548093229532, 0.05559937283396721, 0.01783684454858303, 0.04054661840200424, 0.060833897441625595, 0.09896766394376755, 0.09750604629516602, 0.01706034317612648, 0.00629401532933116, 0.007821585983037949, 0.27818331122398376, 0.00917854718863964, 0.00351659650914371, 0.030137045308947563], [0.02478429488837719, 0.06770594418048859, 0.031163793057203293, 0.08716623485088348, 0.05850210040807724, 0.0128951920196414, 0.015669433400034904, 0.007711479905992746, 0.06945084035396576, 0.04984137415885925, 0.05235110595822334, 0.04232478514313698, 0.07281330972909927, 0.08986768871545792, 0.017972245812416077, 0.009562387131154537, 0.007089173886924982, 0.2119990885257721, 0.027977067977190018, 0.011825058609247208, 0.03132733330130577], [0.02891324833035469, 0.08073505014181137, 0.031134730204939842, 0.08695738762617111, 0.05034571886062622, 0.002599331783130765, 0.02052297629415989, 0.008984834887087345, 0.05356249213218689, 0.15072011947631836, 0.05252133309841156, 0.023683667182922363, 0.050835587084293365, 0.06448253244161606, 0.02167561836540699, 0.009145892225205898, 0.01631314307451248, 0.12108580023050308, 0.04859005659818649, 0.03536418452858925, 0.04182631894946098], [0.03625015169382095, 0.037298861891031265, 0.005057564936578274, 0.019016992300748825, 0.02385891042649746, 0.0197775699198246, 0.0018419749103486538, 0.007100599817931652, 0.09930871427059174, 0.07130014896392822, 0.05996295437216759, 0.0079546719789505, 0.023725321516394615, 0.15643388032913208, 0.00667574955150485, 0.004308411851525307, 0.008087522350251675, 0.23612146079540253, 0.05524872615933418, 0.007329283282160759, 0.11334054917097092], [0.053005825728178024, 0.020955536514520645, 0.005723315291106701, 0.005588257685303688, 0.012337366119027138, 0.008823700249195099, 0.0258465688675642, 0.002665765816345811, 0.054299529641866684, 0.1270616203546524, 0.048351362347602844, 0.01133655570447445, 0.02370692975819111, 0.0944705531001091, 0.00997568666934967, 0.0022947893012315035, 0.0032435806933790445, 0.21042752265930176, 0.1305037885904312, 0.027055397629737854, 0.1223263144493103], [0.04012268781661987, 0.07151591032743454, 0.027630846947431564, 0.04281630739569664, 0.04183590039610863, 0.022648155689239502, 0.043322257697582245, 0.03345610201358795, 0.05248367413878441, 0.04316146299242973, 0.08178544789552689, 0.0322282500565052, 0.04322034865617752, 0.06980696320533752, 0.025993525981903076, 0.017169233411550522, 0.041655030101537704, 0.11152052879333496, 0.03907425329089165, 0.0349004864692688, 0.08365266025066376], [0.08592840284109116, 0.024278786033391953, 0.004401393700391054, 0.011481243185698986, 0.010874711908400059, 0.01098113227635622, 0.012866276316344738, 0.03459157794713974, 0.07421087473630905, 0.028367633000016212, 0.036879751831293106, 0.010539358481764793, 0.023123126477003098, 0.1048940122127533, 0.02511695958673954, 0.005312066059559584, 0.029404057189822197, 0.19287988543510437, 0.12211962044239044, 0.040754545480012894, 0.11099444329738617], [0.07571028918027878, 0.061640676110982895, 0.04219000041484833, 0.05259613320231438, 0.046064864844083786, 0.012735797092318535, 0.021892158314585686, 0.01880483143031597, 0.046646032482385635, 0.04756134748458862, 0.06500714272260666, 0.030329464003443718, 0.030319668352603912, 0.05913369730114937, 0.013223156332969666, 0.007269627880305052, 0.021935686469078064, 0.10303077101707458, 0.019973255693912506, 0.02551530860364437, 0.1984201967716217], [0.09306243807077408, 0.0637643039226532, 0.011283035390079021, 0.061962030827999115, 0.06273127347230911, 0.023571815341711044, 0.011509427800774574, 0.009865389205515385, 0.0450541190803051, 0.03728595748543739, 0.054427292197942734, 0.005275392904877663, 0.04708351194858551, 0.08566371351480484, 0.020581208169460297, 0.01055025216192007, 0.027529655024409294, 0.177709698677063, 0.02690119668841362, 0.017570113763213158, 0.10661819577217102], [0.018935363739728928, 0.05638708919286728, 0.03292381390929222, 0.10362568497657776, 0.07165806740522385, 0.027351725846529007, 0.027290545403957367, 0.0198737233877182, 0.06571803241968155, 0.0693822130560875, 0.04310862720012665, 0.034904442727565765, 0.05486883968114853, 0.06536795198917389, 0.03157375007867813, 0.014035731554031372, 0.016733407974243164, 0.14337685704231262, 0.04840467870235443, 0.026626504957675934, 0.027852850034832954], [0.027404967695474625, 0.061792194843292236, 0.03868350759148598, 0.04400305822491646, 0.041790056973695755, 0.03398702293634415, 0.035054292529821396, 0.04449605196714401, 0.051339924335479736, 0.04240529239177704, 0.06863522529602051, 0.03473909571766853, 0.0382259264588356, 0.05675526708364487, 0.03870341181755066, 0.023876385763287544, 0.05417961627244949, 0.09421756118535995, 0.05298638343811035, 0.06267557293176651, 0.05404910445213318], [0.02588706463575363, 0.01878170482814312, 0.019932027906179428, 0.026681624352931976, 0.05958014726638794, 0.014785629697144032, 0.00432622991502285, 0.007331490982323885, 0.0459662526845932, 0.06147384271025658, 0.02137780748307705, 0.030336875468492508, 0.10653655230998993, 0.10247968137264252, 0.01703202910721302, 0.011158487759530544, 0.014711350202560425, 0.2573379576206207, 0.10382453352212906, 0.0376184917986393, 0.01284024864435196], [0.030951660126447678, 0.025429032742977142, 0.008233124390244484, 0.01733090914785862, 0.03031405434012413, 0.024966856464743614, 0.009183239191770554, 0.006740119308233261, 0.05560529977083206, 0.029090477153658867, 0.05094391107559204, 0.015644337981939316, 0.05404304340481758, 0.10472097992897034, 0.029044009745121002, 0.006377450190484524, 0.01954968087375164, 0.2701452672481537, 0.11606743931770325, 0.053887989372015, 0.04173113778233528], [0.05441766604781151, 0.025177570059895515, 0.02042713575065136, 0.010871954262256622, 0.025701461359858513, 0.021431349217891693, 0.019193582236766815, 0.004974480718374252, 0.06579448282718658, 0.07638351619243622, 0.040428318083286285, 0.022410480305552483, 0.046522945165634155, 0.10479229688644409, 0.02652105502784252, 0.00865259114652872, 0.004007653798907995, 0.22227954864501953, 0.09335654973983765, 0.06997355073690414, 0.036681823432445526], [0.031037796288728714, 0.0670589804649353, 0.03855973854660988, 0.05218401551246643, 0.04114421457052231, 0.0338757187128067, 0.033427391201257706, 0.04980064183473587, 0.048011817038059235, 0.04288403317332268, 0.06500129401683807, 0.03612697869539261, 0.03171117976307869, 0.05263237655162811, 0.043892450630664825, 0.02464235946536064, 0.06144655495882034, 0.0717044547200203, 0.05665050074458122, 0.049794383347034454, 0.06841316819190979], [0.0357663668692112, 0.03800208121538162, 0.013728214427828789, 0.014570937491953373, 0.014621783047914505, 0.011024685576558113, 0.02231602743268013, 0.05266573652625084, 0.06526705622673035, 0.15228767693042755, 0.022948401048779488, 0.011778273619711399, 0.02185938134789467, 0.09996979683637619, 0.048088278621435165, 0.009631572291254997, 0.037847425788640976, 0.2210777997970581, 0.028638185933232307, 0.041452936828136444, 0.03645738214254379], [0.030184395611286163, 0.021762998774647713, 0.016950391232967377, 0.010399585589766502, 0.02498428337275982, 0.009979341179132462, 0.01405879482626915, 0.023071805015206337, 0.029546992853283882, 0.10112053155899048, 0.01217689085751772, 0.02180081605911255, 0.04731607064604759, 0.09270384907722473, 0.04769359901547432, 0.016279296949505806, 0.059765174984931946, 0.1324576735496521, 0.16884274780750275, 0.062478166073560715, 0.05642658472061157], [0.053490638732910156, 0.0290024783462286, 0.018068045377731323, 0.027669336646795273, 0.012815174646675587, 0.008455469273030758, 0.051984310150146484, 0.025541840121150017, 0.046390704810619354, 0.14693740010261536, 0.07168126106262207, 0.03088112734258175, 0.019230766221880913, 0.03553490340709686, 0.044740770012140274, 0.007475889287889004, 0.02474447526037693, 0.06259389221668243, 0.09672444313764572, 0.02749602496623993, 0.15854103863239288]], [[0.014628642238676548, 0.18425294756889343, 0.09365590661764145, 0.1422271728515625, 0.026817727833986282, 0.014221523888409138, 0.017761247232556343, 0.005214077420532703, 0.028973817825317383, 0.02004317194223404, 0.16578306257724762, 0.051899246871471405, 0.017278244718909264, 0.07079709321260452, 0.014810577034950256, 0.010277616791427135, 0.004286062903702259, 0.07816655933856964, 0.005515524186193943, 0.007923065684735775, 0.025466736406087875], [0.0036990426015108824, 0.03340587392449379, 0.10212049633264542, 0.22201210260391235, 0.23423291742801666, 0.012218417599797249, 0.04186045750975609, 0.04411102458834648, 0.05570506304502487, 0.06795735657215118, 0.04171757027506828, 0.01240738295018673, 0.009253268130123615, 0.018295040354132652, 0.008154766634106636, 0.0009198218467645347, 0.002354295924305916, 0.04548788443207741, 0.004153427667915821, 0.004021701402962208, 0.035911962389945984], [0.0035451266448944807, 0.012915516272187233, 0.031225474551320076, 0.11764834821224213, 0.4322369396686554, 0.026148458942770958, 0.08764554560184479, 0.06961584836244583, 0.029919734224677086, 0.03795864060521126, 0.027450527995824814, 0.027313653379678726, 0.0164501816034317, 0.014107760973274708, 0.014954609796404839, 0.0012466200860217214, 0.002030938398092985, 0.02778516709804535, 0.002293267985805869, 0.0025401937309652567, 0.014967459253966808], [0.0028159311041235924, 0.008877990767359734, 0.013010998256504536, 0.04145924001932144, 0.2749171257019043, 0.03601245954632759, 0.07334882020950317, 0.12596866488456726, 0.10793177783489227, 0.17660166323184967, 0.036726322025060654, 0.0079420180991292, 0.01582588069140911, 0.019139064475893974, 0.017477165907621384, 0.001645876793190837, 0.0023269192315638065, 0.024027202278375626, 0.0015124240890145302, 0.0012266418198123574, 0.011205757036805153], [0.002465927740558982, 0.0062187896110117435, 0.002752127358689904, 0.01236198004335165, 0.04590069130063057, 0.013178310357034206, 0.08786866068840027, 0.17163494229316711, 0.10308237373828888, 0.2516080141067505, 0.16205568611621857, 0.020589973777532578, 0.01030066516250372, 0.017815206199884415, 0.027721107006072998, 0.0036719623021781445, 0.00804952159523964, 0.037903573364019394, 0.003376987762749195, 0.0017447801074013114, 0.009698649868369102], [0.009006238542497158, 0.013516919687390327, 0.01154640968888998, 0.007211035117506981, 0.022166626527905464, 0.01303897239267826, 0.02318800985813141, 0.08522520214319229, 0.09102155268192291, 0.4714025855064392, 0.06322869658470154, 0.020654894411563873, 0.010281741619110107, 0.013745816424489021, 0.025789499282836914, 0.004704410210251808, 0.008167539723217487, 0.03752611577510834, 0.034916337579488754, 0.007711181882768869, 0.025950105860829353], [0.009112578816711903, 0.015941079705953598, 0.012528428807854652, 0.013331432826817036, 0.022844329476356506, 0.01064976304769516, 0.026367953047156334, 0.027155516669154167, 0.05033203959465027, 0.42046815156936646, 0.18397794663906097, 0.053999293595552444, 0.012723350897431374, 0.019687408581376076, 0.022793753072619438, 0.0030452830251306295, 0.004686533939093351, 0.042371802031993866, 0.024446306750178337, 0.004121334757655859, 0.019415568560361862], [0.01877804473042488, 0.012531175278127193, 0.008193360641598701, 0.0045738425105810165, 0.00884497445076704, 0.0030731698498129845, 0.007290315348654985, 0.010484359227120876, 0.09337892383337021, 0.18177585303783417, 0.2742147147655487, 0.04514746367931366, 0.01278191339224577, 0.05830101668834686, 0.00788769219070673, 0.002516373759135604, 0.00393708748742938, 0.20338678359985352, 0.014764641411602497, 0.006004177499562502, 0.0221340823918581], [0.028866736218333244, 0.013286370784044266, 0.008052260614931583, 0.015296580269932747, 0.008000529371201992, 0.004973245784640312, 0.009651961736381054, 0.016420846804976463, 0.09508614987134933, 0.10457167029380798, 0.12049870938062668, 0.036987774074077606, 0.03353455662727356, 0.1099187582731247, 0.01504781935364008, 0.005111626349389553, 0.017239432781934738, 0.2876894474029541, 0.008997241966426373, 0.009322685189545155, 0.05144559219479561], [0.016114139929413795, 0.01818598061800003, 0.010604028590023518, 0.01120087131857872, 0.017414486035704613, 0.003373944666236639, 0.008469490334391594, 0.010822074487805367, 0.06628720462322235, 0.11379459500312805, 0.21479687094688416, 0.08468638360500336, 0.06558173149824142, 0.10949762165546417, 0.013674410060048103, 0.003866784041747451, 0.006682860665023327, 0.18863172829151154, 0.011039412580430508, 0.009569520130753517, 0.015705930069088936], [0.0075831045396625996, 0.002924455562606454, 0.002026432892307639, 0.0025883333291858435, 0.0010179913369938731, 0.0006132860435172915, 0.00047007741522975266, 0.0005325382226146758, 0.0020947353914380074, 0.00295272096991539, 0.025033466517925262, 0.07937510311603546, 0.3522605001926422, 0.11502596735954285, 0.09620953351259232, 0.016452860087156296, 0.02501995861530304, 0.025262748822569847, 0.0333922803401947, 0.04189193248748779, 0.16727210581302643], [0.002716564107686281, 0.0014737825840711594, 0.0005042831762693822, 0.0007283146260306239, 0.0004904206143692136, 0.000383320584660396, 0.0005107428296469152, 0.0003483719192445278, 0.00046667311107739806, 0.000665685860440135, 0.01533260103315115, 0.08621042966842651, 0.28534775972366333, 0.06913379579782486, 0.23644566535949707, 0.03474579006433487, 0.04154125973582268, 0.009593737311661243, 0.04689464345574379, 0.0683581754565239, 0.09810813516378403], [0.005671315360814333, 0.0032917254138737917, 0.0006473683752119541, 0.0004110522859264165, 0.0007169672753661871, 0.00022235256619751453, 0.00023210416838992387, 0.0003866179031319916, 0.0012006546603515744, 0.000681934820022434, 0.005907848943024874, 0.0071209389716386795, 0.06340672075748444, 0.09632248431444168, 0.14678120613098145, 0.05315074324607849, 0.10568578541278839, 0.09253150224685669, 0.18213950097560883, 0.131262868642807, 0.10222826153039932], [0.028469249606132507, 0.018354469910264015, 0.007045548874884844, 0.007259949576109648, 0.0073563833720982075, 0.0027642797213047743, 0.003195537254214287, 0.00558839738368988, 0.01623816229403019, 0.008886920288205147, 0.015755243599414825, 0.012483949773013592, 0.057295095175504684, 0.1028720885515213, 0.05995972827076912, 0.030757758766412735, 0.08410805463790894, 0.2035689800977707, 0.07750272750854492, 0.09479959309101105, 0.15573783218860626], [0.014459772035479546, 0.007949604652822018, 0.004829060286283493, 0.0007582622347399592, 0.00430187676101923, 0.0005385883268900216, 0.0005362167139537632, 0.0011795187601819634, 0.00448174774646759, 0.0038609830662608147, 0.0049034771509468555, 0.005894250702112913, 0.025583410635590553, 0.05592779442667961, 0.03609859198331833, 0.017571618780493736, 0.0460333414375782, 0.20717158913612366, 0.276919424533844, 0.19803206622600555, 0.08296865969896317], [0.02748715877532959, 0.007840992882847786, 0.005493170581758022, 0.0012004162417724729, 0.0023340866900980473, 0.0005894992500543594, 0.0003778019454330206, 0.0003687264979816973, 0.002339509781450033, 0.0028531397692859173, 0.00451236916705966, 0.010029764845967293, 0.021541250869631767, 0.048226743936538696, 0.04345379397273064, 0.019540052860975266, 0.019614141434431076, 0.12653115391731262, 0.408578485250473, 0.15805590152740479, 0.08903173357248306], [0.02708749659359455, 0.009120646864175797, 0.005320756696164608, 0.002238802146166563, 0.0032219632994383574, 0.00038779215537942946, 0.00027988539659418166, 0.0002524351584725082, 0.0031142078805714846, 0.001506226253695786, 0.010073667392134666, 0.013476613909006119, 0.021657615900039673, 0.06634873896837234, 0.01396140456199646, 0.01228710450232029, 0.0086362324655056, 0.2755037546157837, 0.2391052395105362, 0.15524747967720032, 0.1311718374490738], [0.06717046350240707, 0.040333736687898636, 0.01945987343788147, 0.03267063945531845, 0.02407708391547203, 0.008040409535169601, 0.01186569593846798, 0.011655456386506557, 0.04992133751511574, 0.017609484493732452, 0.02375701442360878, 0.009845318272709846, 0.020124826580286026, 0.0996553897857666, 0.01548584271222353, 0.009000282734632492, 0.014756674878299236, 0.38327884674072266, 0.014859109185636044, 0.022430850192904472, 0.10400169342756271], [0.08394874632358551, 0.01100611500442028, 0.0044699134305119514, 0.00632278760895133, 0.014334877021610737, 0.0013707895996049047, 0.0016771120717749, 0.0016132858581840992, 0.012315060943365097, 0.0026519272942095995, 0.005250450223684311, 0.0037055995780974627, 0.01070743054151535, 0.09805050492286682, 0.007180567365139723, 0.003003319725394249, 0.003977723885327578, 0.5425980091094971, 0.03670986741781235, 0.02389705181121826, 0.12520892918109894], [0.06518756598234177, 0.005969802848994732, 0.0021169420797377825, 0.006768150720745325, 0.011319798417389393, 0.001465192879550159, 0.0024337635841220617, 0.003132603829726577, 0.011923723854124546, 0.004074390046298504, 0.012789387255907059, 0.0050117457285523415, 0.021463828161358833, 0.07637599110603333, 0.015296505764126778, 0.007422636728733778, 0.010599271394312382, 0.3501361012458801, 0.0567488856613636, 0.039858680218458176, 0.2899050712585449], [0.007567945867776871, 0.10215451568365097, 0.13080859184265137, 0.21282069385051727, 0.14330928027629852, 0.015438768081367016, 0.056000348180532455, 0.020456744357943535, 0.02426365576684475, 0.02466193027794361, 0.06841821223497391, 0.02309124730527401, 0.006452299654483795, 0.022758418694138527, 0.011768011376261711, 0.0022098340559750795, 0.0031749617774039507, 0.060920342803001404, 0.005000351928174496, 0.004362143110483885, 0.054361701011657715]], [[0.007105638738721609, 0.007890728302299976, 0.0022556371986865997, 0.0025328167248517275, 0.0027340324595570564, 0.0023319751489907503, 0.01671105995774269, 0.004479348659515381, 0.038759056478738785, 0.05524936318397522, 0.554013192653656, 0.0693226307630539, 0.013278144411742687, 0.00946992076933384, 0.016856636852025986, 0.002297822153195739, 0.002695683389902115, 0.01188330352306366, 0.03847077861428261, 0.0334651954472065, 0.10819698125123978], [0.012326584197580814, 0.03988085314631462, 0.006547539494931698, 0.0105515131726861, 0.016338974237442017, 0.006124693900346756, 0.0036911398638039827, 0.009222766384482384, 0.14064425230026245, 0.01211757306009531, 0.1245458722114563, 0.03001481667160988, 0.019502168521285057, 0.19586268067359924, 0.008538216352462769, 0.009664640761911869, 0.004766662605106831, 0.28114837408065796, 0.011511383578181267, 0.0139504699036479, 0.043049003928899765], [0.010443263687193394, 0.06919924169778824, 0.03677348420023918, 0.015002445317804813, 0.05697108060121536, 0.0037387763150036335, 0.006062446627765894, 0.005530456081032753, 0.07051224261522293, 0.029485562816262245, 0.05116090178489685, 0.06038033962249756, 0.060497719794511795, 0.1576741486787796, 0.008518913760781288, 0.004925454501062632, 0.0039083887822926044, 0.27077293395996094, 0.01252194494009018, 0.015430699102580547, 0.05048951506614685], [0.017321715131402016, 0.039226800203323364, 0.11308325827121735, 0.11395564675331116, 0.11319175362586975, 0.009956949390470982, 0.010625511407852173, 0.005320757161825895, 0.04404953494668007, 0.027635054662823677, 0.025705557316541672, 0.10738519579172134, 0.09505720436573029, 0.0694907084107399, 0.013397762551903725, 0.02088150382041931, 0.0038266389165073633, 0.10873599350452423, 0.01367960125207901, 0.01850256510078907, 0.028970275074243546], [0.00846177339553833, 0.04704922437667847, 0.03803982958197594, 0.1478421539068222, 0.23000910878181458, 0.002828613854944706, 0.0032186114694923162, 0.004094931297004223, 0.0280899740755558, 0.017114322632551193, 0.0415247343480587, 0.06413542479276657, 0.10147161036729813, 0.07614000886678696, 0.008693822659552097, 0.004805433098226786, 0.00450558215379715, 0.12934164702892303, 0.011624982580542564, 0.005267854779958725, 0.025740396231412888], [0.13592840731143951, 0.052371371537446976, 0.008164982311427593, 0.025585725903511047, 0.02882506512105465, 0.012256024405360222, 0.006387574132531881, 0.025881526991724968, 0.07739824056625366, 0.04866841062903404, 0.0965481698513031, 0.02860904484987259, 0.03428800776600838, 0.07761978358030319, 0.017613805830478668, 0.012629405595362186, 0.01045900210738182, 0.0935981273651123, 0.035195380449295044, 0.030337579548358917, 0.14163430035114288], [0.03340588137507439, 0.026974307373166084, 0.032180652022361755, 0.01626686006784439, 0.026039818301796913, 0.004019665066152811, 0.016368789598345757, 0.015574458986520767, 0.06966529786586761, 0.06479885429143906, 0.06786958128213882, 0.07940836250782013, 0.03048587404191494, 0.11257756501436234, 0.01781231164932251, 0.012491872534155846, 0.009870953857898712, 0.20847301185131073, 0.040278416126966476, 0.04528689756989479, 0.07015050202608109], [0.05654321610927582, 0.04982932657003403, 0.025268496945500374, 0.013886717148125172, 0.01392386108636856, 0.014886966906487942, 0.01142161339521408, 0.1632508486509323, 0.048962801694869995, 0.06175115332007408, 0.0666373074054718, 0.056118786334991455, 0.021832777187228203, 0.042389582842588425, 0.026459509506821632, 0.019440636038780212, 0.04436738044023514, 0.04684513807296753, 0.011239017359912395, 0.026942936703562737, 0.17800192534923553], [0.00965144019573927, 0.03190041333436966, 0.005286558531224728, 0.008472799323499203, 0.0044935317710042, 0.002184673910960555, 0.0005612665554508567, 0.0072045172564685345, 0.1372726559638977, 0.005377078894525766, 0.05964404717087746, 0.016004348173737526, 0.004896647296845913, 0.20166191458702087, 0.003880836069583893, 0.003449584124609828, 0.003785427426919341, 0.46112626791000366, 0.002574311336502433, 0.00511451018974185, 0.02545725181698799], [0.029185911640524864, 0.02838684432208538, 0.027994602918624878, 0.012195018120110035, 0.014219081960618496, 0.0036762466188520193, 0.02047276869416237, 0.021727338433265686, 0.04305000975728035, 0.17129375040531158, 0.08119972050189972, 0.060839977115392685, 0.031038034707307816, 0.052903275936841965, 0.023897754028439522, 0.010932397097349167, 0.01618555746972561, 0.06435927003622055, 0.054105330258607864, 0.10126666724681854, 0.1310703307390213], [0.024883421137928963, 0.05502923205494881, 0.008572990074753761, 0.02763551101088524, 0.012775540351867676, 0.0030352468602359295, 0.0037396978586912155, 0.0152180977165699, 0.11585690826177597, 0.0186170544475317, 0.18171830475330353, 0.04760110750794411, 0.01517043448984623, 0.09030318260192871, 0.006065618246793747, 0.006991447880864143, 0.006999460514634848, 0.20860141515731812, 0.005555999930948019, 0.011231050826609135, 0.13439828157424927], [0.01604776456952095, 0.04160766676068306, 0.03179210051894188, 0.04108338803052902, 0.03130440413951874, 0.0017589698545634747, 0.00432260287925601, 0.006904038600623608, 0.041718002408742905, 0.023995094001293182, 0.11431016772985458, 0.16401901841163635, 0.03556825965642929, 0.04654154181480408, 0.0037127132527530193, 0.004091999959200621, 0.005456572864204645, 0.13631652295589447, 0.008607061579823494, 0.011550159193575382, 0.2292918711900711], [0.01187247596681118, 0.055726658552885056, 0.026404215022921562, 0.08905404061079025, 0.13396711647510529, 0.0037070054095238447, 0.0035551530309021473, 0.009913140907883644, 0.053422629833221436, 0.02162294276058674, 0.05591830611228943, 0.050737183541059494, 0.07799684256315231, 0.10734497755765915, 0.009272042661905289, 0.0060827420093119144, 0.010438173078000546, 0.2011335790157318, 0.0131983682513237, 0.008411997929215431, 0.05022035166621208], [0.02196638658642769, 0.05466732010245323, 0.01105857826769352, 0.027111167088150978, 0.010453535243868828, 0.005603259429335594, 0.0013192353071644902, 0.00965631753206253, 0.10225944966077805, 0.010358700528740883, 0.06341428309679031, 0.022297360002994537, 0.010408014990389347, 0.1906910538673401, 0.012659493833780289, 0.00872472021728754, 0.008046235889196396, 0.3613640069961548, 0.008392572402954102, 0.005678155925124884, 0.053870171308517456], [0.026327593252062798, 0.04361870512366295, 0.027836406603455544, 0.006861339323222637, 0.026633545756340027, 0.0024494847748428583, 0.0023036764468997717, 0.006985023617744446, 0.07026912271976471, 0.018695365637540817, 0.03604121878743172, 0.043587714433670044, 0.03954567760229111, 0.1921825259923935, 0.013713684864342213, 0.018785320222377777, 0.01300263125449419, 0.2883136570453644, 0.022324783727526665, 0.01825486123561859, 0.08226767182350159], [0.09993446618318558, 0.0399414524435997, 0.018499769270420074, 0.011745411902666092, 0.028120050206780434, 0.010843172669410706, 0.00611912040039897, 0.02433222532272339, 0.0407717227935791, 0.05336911976337433, 0.06339412927627563, 0.05828750878572464, 0.054860979318618774, 0.05145842954516411, 0.06280485540628433, 0.026063429191708565, 0.02759520709514618, 0.05994977802038193, 0.07701146602630615, 0.021080847829580307, 0.16381676495075226], [0.06330309063196182, 0.061329297721385956, 0.026889238506555557, 0.008966297842562199, 0.019931524991989136, 0.01326829381287098, 0.005208287388086319, 0.07528906315565109, 0.0465003065764904, 0.02444499358534813, 0.029383642598986626, 0.025302419438958168, 0.03312103450298309, 0.08885858952999115, 0.012372552417218685, 0.024583734571933746, 0.029959531500935555, 0.11261008679866791, 0.009974084794521332, 0.019007058814167976, 0.26969674229621887], [0.015252138487994671, 0.05069257691502571, 0.010228128172457218, 0.014757199212908745, 0.007478675805032253, 0.003735337173566222, 0.0010451897978782654, 0.00820055603981018, 0.10459620505571365, 0.006563553120940924, 0.056282877922058105, 0.01727992668747902, 0.007583863567560911, 0.19040919840335846, 0.00651651993393898, 0.004368338733911514, 0.006317138671875, 0.43612417578697205, 0.004167517181485891, 0.004476325586438179, 0.04392445087432861], [0.03386925160884857, 0.034183625131845474, 0.010223164223134518, 0.008584899827837944, 0.011676809750497341, 0.007005422376096249, 0.005289224907755852, 0.01889425702393055, 0.060814954340457916, 0.03955557569861412, 0.06176743656396866, 0.01943863183259964, 0.02508619986474514, 0.12564916908740997, 0.013705991208553314, 0.015849262475967407, 0.012803795747458935, 0.1708105057477951, 0.04481301084160805, 0.09788329154253006, 0.18209555745124817], [0.037989482283592224, 0.037120502442121506, 0.023142989724874496, 0.0482737198472023, 0.030637791380286217, 0.013248572126030922, 0.009896008297801018, 0.022936830297112465, 0.02538210339844227, 0.11827601492404938, 0.05133063718676567, 0.036791279911994934, 0.027941877022385597, 0.05686255171895027, 0.08682272583246231, 0.009190727956593037, 0.018314190208911896, 0.07896751165390015, 0.04759672284126282, 0.036178845912218094, 0.18309900164604187], [0.015250923112034798, 0.029981350526213646, 0.006217229180037975, 0.02545979991555214, 0.014502947218716145, 0.012307959608733654, 0.03631246089935303, 0.05757154896855354, 0.08099314570426941, 0.08733858168125153, 0.2304675132036209, 0.06824678927659988, 0.020434509962797165, 0.05592899024486542, 0.04402888938784599, 0.008977105841040611, 0.03115943633019924, 0.089678093791008, 0.025996580719947815, 0.02929624170064926, 0.02984997257590294]], [[0.023045621812343597, 0.005391222424805164, 0.0033220904879271984, 0.01868739351630211, 0.003301930846646428, 0.0013451239792630076, 0.011635751463472843, 0.008702138438820839, 0.03139640763401985, 0.03701965883374214, 0.06119894981384277, 0.09411808103322983, 0.020269649103283882, 0.07999327033758163, 0.01712697744369507, 0.013139665126800537, 0.029532460495829582, 0.28239062428474426, 0.09246610850095749, 0.11768046766519547, 0.04823639243841171], [0.01200389675796032, 0.08935123682022095, 0.02812463790178299, 0.0011954024666920304, 0.00010497758921701461, 1.4567600373993628e-05, 0.0008060307009145617, 0.00015213628648780286, 0.007776841055601835, 0.0017321460181847215, 0.0007952069863677025, 0.000868555682245642, 0.0002767400583252311, 0.04304976016283035, 0.0030104017350822687, 0.0008861160022206604, 0.001510840025730431, 0.7183902263641357, 0.0020809066481888294, 0.003703705035150051, 0.08416564762592316], [0.012087110430002213, 0.4486885666847229, 0.07687702029943466, 0.00581797119230032, 0.0007730217184871435, 0.00015809221076779068, 0.002646208740770817, 0.00175875099375844, 0.002750095911324024, 0.004134166985750198, 0.0018097658175975084, 0.00011535913654370233, 0.00014844238467048854, 0.006010045763105154, 0.0011414876207709312, 0.00027145372587256134, 0.005813536699861288, 0.2820078730583191, 0.0008008190779946744, 0.0010019951732829213, 0.14518825709819794], [0.003065594471991062, 0.04744177311658859, 0.16366100311279297, 0.011728012003004551, 0.005322062876075506, 0.00021245336392894387, 0.0007711024372838438, 4.7235338570317253e-05, 0.0052175745368003845, 0.000472321204142645, 0.0007313473033718765, 0.0010124723194167018, 0.0002406252606306225, 0.036616675555706024, 0.00019013200653716922, 2.9155822630855255e-05, 6.229525024536997e-05, 0.6928825378417969, 0.0019775512628257275, 0.0017395091708749533, 0.026578586548566818], [0.000439980038208887, 0.015692714601755142, 0.12595407664775848, 0.735549807548523, 0.04130357503890991, 0.0001181047991849482, 0.0013920486671850085, 0.00011904734128620476, 0.0012701405212283134, 0.0001298122515436262, 0.00020834742463193834, 0.0024766360875219107, 4.0031474782153964e-05, 0.004379858262836933, 6.731141911586747e-05, 4.078454367117956e-06, 1.0178468983212952e-05, 0.05597737431526184, 0.00030789474840275943, 0.0003442916495259851, 0.01421479694545269], [0.0009031142108142376, 0.0023899890948086977, 0.004471818450838327, 0.02653115801513195, 0.8690711855888367, 0.0013468237593770027, 0.003697637002915144, 0.00011715873552020639, 0.0034483883064240217, 0.00026323081692680717, 0.00035901344381272793, 0.00035486428532749414, 0.0014757007593289018, 0.018221404403448105, 0.0009582414641045034, 1.7062766346498393e-05, 2.0122288333368488e-05, 0.05248004570603371, 9.555261203786358e-05, 0.00022217327204998583, 0.013555300422012806], [0.002447224920615554, 0.0025480648037046194, 0.008058481849730015, 0.017376765608787537, 0.8166648149490356, 0.017953354865312576, 0.004385222680866718, 0.0029084165580570698, 0.02066599391400814, 0.0036831048782914877, 0.0007442464702762663, 0.00041279298602603376, 0.0007019645418040454, 0.012092888355255127, 0.0007130331941880286, 5.62195637030527e-05, 6.790809129597619e-05, 0.05516813322901726, 8.993496157927439e-05, 0.00039747293340042233, 0.03286396339535713], [0.005302966572344303, 0.004428217653185129, 0.0019110151333734393, 0.023051979020237923, 0.18241330981254578, 0.1544838696718216, 0.3648527264595032, 0.010507732629776001, 0.061521049588918686, 0.037515923380851746, 0.0010761363664641976, 6.042207678547129e-05, 0.0001382937334710732, 0.00900549627840519, 0.01269487664103508, 0.0013664704747498035, 0.00027804894489236176, 0.05729534104466438, 0.0009055864647962153, 0.0013248909963294864, 0.06986568123102188], [0.017091374844312668, 0.005716889631003141, 0.005521521903574467, 0.01722945086658001, 0.025518538430333138, 0.00496423477306962, 0.3246234059333801, 0.04648434743285179, 0.12454252690076828, 0.04113886505365372, 0.0028453601989895105, 0.0014500267570838332, 0.0006567667587660253, 0.0171887818723917, 0.006568763870745897, 0.0012231761356815696, 0.0011423812247812748, 0.29529067873954773, 0.0019213041523471475, 0.0012227800907567143, 0.0576588399708271], [0.00516161136329174, 0.004795468412339687, 0.0012992238625884056, 0.0021401315461844206, 0.011001698672771454, 0.0018170397961512208, 0.32846158742904663, 0.14569063484668732, 0.24321138858795166, 0.07783591002225876, 0.005683073773980141, 0.00035095339990220964, 0.00018218929471913725, 0.003019027877599001, 0.004643341992050409, 0.0006024268222972751, 0.0029874411411583424, 0.07299100607633591, 0.000813222723081708, 0.000171813735505566, 0.08714071661233902], [0.008743319660425186, 0.0012241940712556243, 0.001386201591230929, 0.0005875584902241826, 0.00010866069351322949, 9.50577395997243e-06, 0.00250022835098207, 0.0019588242284953594, 0.09166831523180008, 0.04479211941361427, 0.05572609230875969, 0.02857781946659088, 0.000404280232032761, 0.022412234917283058, 0.001075664535164833, 0.0003724558337125927, 0.0011236551217734814, 0.7279921770095825, 0.0012273109750822186, 0.0006620707572437823, 0.007447266485542059], [0.010427640751004219, 0.002878723433241248, 0.003702443093061447, 0.0011854310287162662, 8.596443512942642e-05, 1.5599816833855584e-05, 0.0002163909375667572, 0.0004597978258971125, 0.0042078676633536816, 0.02738567441701889, 0.542473554611206, 0.11651510745286942, 0.0025929459370672703, 0.0164969339966774, 0.0010428312234580517, 0.0001893181906780228, 0.006764661520719528, 0.2606843411922455, 0.0003314404748380184, 0.0005854301853105426, 0.0017579327104613185], [0.00019397572032175958, 5.646048884955235e-05, 0.00023119170509744436, 0.0005335963214747608, 1.98173220269382e-05, 9.718103228806285e-07, 1.6120882719405927e-05, 2.3538625555374892e-06, 0.00012149287067586556, 0.00013773184036836028, 0.00798576045781374, 0.9267670512199402, 0.010166272521018982, 0.02692318521440029, 0.001643767929635942, 4.610865653376095e-05, 0.00013166638382244855, 0.02246931567788124, 0.0011845997069031, 0.0004966701380908489, 0.0008718828903511167], [0.006472963374108076, 0.003633275628089905, 0.0026914833579212427, 0.0017908193403854966, 0.0019950636196881533, 0.0011741998605430126, 0.0014292921405285597, 0.00034222155227325857, 0.013453041203320026, 0.002844988601282239, 0.023320386186242104, 0.055805884301662445, 0.2494075745344162, 0.3260651230812073, 0.04580928757786751, 0.00817103125154972, 0.005743281915783882, 0.19571717083454132, 0.011377868242561817, 0.01339000929147005, 0.02936507947742939], [0.0010487339459359646, 0.00029327685479074717, 8.694831922184676e-05, 0.00024050545471254736, 0.001376967877149582, 0.00034531945129856467, 0.0012062389869242907, 0.0001853760186349973, 0.0005550723290070891, 0.00027097135898657143, 0.0032038018107414246, 0.005898728966712952, 0.6476485729217529, 0.18017512559890747, 0.11649583280086517, 0.0034785233438014984, 0.008569191209971905, 0.01934388279914856, 0.000255386607022956, 0.001057652523741126, 0.008263974450528622], [0.0010814460692927241, 0.00026734371203929186, 5.4916268709348515e-05, 8.365916437469423e-05, 0.0047491006553173065, 0.0013435818254947662, 0.00026934908237308264, 0.00011420487862778828, 0.0005416362546384335, 7.827314402675256e-05, 0.0018369911704212427, 0.0010375981219112873, 0.5109853744506836, 0.3342934846878052, 0.06929559260606766, 0.006695009768009186, 0.017092596739530563, 0.03788462281227112, 0.00018657566397450864, 0.0008092221105471253, 0.011299364268779755], [0.00245133345015347, 0.0011225691996514797, 4.540731242741458e-05, 6.880968430778012e-05, 0.0004977505304850638, 0.002864134032279253, 0.004905655514448881, 0.00031041115289554, 0.0014573652297258377, 0.0007625285070389509, 0.0031431526876986027, 0.00036998128052800894, 0.04758868366479874, 0.08172444254159927, 0.6918066740036011, 0.077717624604702, 0.03689788281917572, 0.024202976375818253, 0.0028160561341792345, 0.003096477361395955, 0.016150102019309998], [0.025292817503213882, 0.017691094428300858, 0.016460131853818893, 0.006222827360033989, 0.0021500964649021626, 0.001530673005618155, 0.013375810347497463, 0.003700265660881996, 0.058194756507873535, 0.011228986084461212, 0.012890322133898735, 0.01804698072373867, 0.008941275998950005, 0.10087398439645767, 0.05244047939777374, 0.030524875968694687, 0.02897046133875847, 0.4504449665546417, 0.059458453208208084, 0.03666558489203453, 0.04489515349268913], [0.002174676861613989, 0.0026592568028718233, 0.0009709182195365429, 0.00013192949700169265, 7.448474207194522e-05, 5.8837544202106073e-05, 0.000629287853371352, 0.0005124519229866564, 0.0009811683557927608, 0.0035929593723267317, 0.003603860270231962, 0.004421932622790337, 0.010830993764102459, 0.025936514139175415, 0.2259030044078827, 0.04810716211795807, 0.45280978083610535, 0.14441531896591187, 0.04883089289069176, 0.007474090438336134, 0.015880519524216652], [0.0012005070457234979, 0.0006547467201016843, 9.096237045014277e-05, 3.684873809106648e-05, 8.04936425993219e-05, 8.396153134526685e-06, 9.636353934183717e-05, 0.00013987303827889264, 0.0003129687102045864, 0.0034398301504552364, 0.0016372493701055646, 0.0006942272884771228, 0.02519959956407547, 0.017334435135126114, 0.1892465353012085, 0.02445686049759388, 0.5631680488586426, 0.03840913623571396, 0.09259466826915741, 0.0122912572696805, 0.028907081112265587], [0.0066284132190048695, 0.0010584681294858456, 0.0007618830422870815, 0.0004921366926282644, 3.859790740534663e-05, 0.0002636029967106879, 0.0008944441797211766, 6.20737046119757e-05, 0.004937096498906612, 0.0012016540858894587, 0.0025569533463567495, 0.011261308565735817, 0.0013307265471667051, 0.10525082051753998, 0.023428739979863167, 0.019419727846980095, 0.0055932896211743355, 0.6647436618804932, 0.10117828100919724, 0.04196059703826904, 0.006937580183148384]], [[0.0006388904293999076, 0.44071632623672485, 0.2429698258638382, 0.003577473573386669, 0.0027771475724875927, 0.004783277865499258, 0.0034974589943885803, 0.003339551156386733, 0.004448218736797571, 0.02277621440589428, 0.11029835790395737, 0.11043555289506912, 0.0031811927910894156, 0.005313878878951073, 0.014788363128900528, 0.0006704191328026354, 0.007222320884466171, 0.002827610820531845, 0.006727976258844137, 0.0073348102159798145, 0.0016751267248764634], [0.001606539124622941, 0.26890602707862854, 0.2885963022708893, 0.1128043457865715, 0.13647393882274628, 0.0004976080963388085, 0.0023916256614029408, 0.006272505968809128, 0.013089053332805634, 0.0020245546475052834, 0.001679784618318081, 0.0007664504228159785, 0.0005036764196120203, 0.011478787288069725, 0.0006319032981991768, 0.00018622384232003242, 0.000767749676015228, 0.14604420959949493, 0.0008643426117487252, 0.0025045645888894796, 0.0019098048796877265], [0.00031941774068400264, 0.00718841515481472, 0.010047193616628647, 0.3402000963687897, 0.6108937859535217, 0.00014378961350303143, 0.0029374805744737387, 0.00031529326224699616, 0.002503762487322092, 0.00042782907257787883, 0.00115964247379452, 0.0003604804223868996, 0.0013167955912649632, 0.0017233415273949504, 0.0001672193466220051, 1.3462238712236285e-05, 1.4819948773947544e-05, 0.01836162619292736, 0.0005427057622000575, 0.0006134654395282269, 0.0007492778822779655], [0.0007243322907015681, 0.0017578662373125553, 0.003938616253435612, 0.03431190550327301, 0.8608483076095581, 0.008291291072964668, 0.05511065572500229, 0.014169895090162754, 0.008318496868014336, 0.0011852375464513898, 0.00032945803832262754, 0.0005239887395873666, 0.0005359540809877217, 0.002136919880285859, 0.001328767859376967, 9.722340473672375e-05, 2.240774847450666e-05, 0.005039071198552847, 7.111808372428641e-05, 5.259038516669534e-05, 0.0012057918356731534], [9.087903890758753e-05, 7.56990339141339e-05, 9.935799607774243e-05, 0.001448675524443388, 0.019648820161819458, 0.00330161489546299, 0.9359894394874573, 0.02146266959607601, 0.007800889667123556, 0.0020137159153819084, 0.00019695429364219308, 2.380549631197937e-05, 1.5455250832019374e-05, 0.001632002997212112, 0.0014776497846469283, 0.0006013685488142073, 6.757899245712906e-05, 0.003981287125498056, 1.2846438039559871e-05, 1.106079071178101e-05, 4.8298188630724326e-05], [0.00022059895854908973, 0.0019206077558919787, 0.0007494364981539547, 0.0013032659189775586, 0.007021239027380943, 0.03709706664085388, 0.2012156993150711, 0.4937068223953247, 0.10275190323591232, 0.10721810162067413, 0.0003693088365253061, 2.3637669073650613e-05, 4.449744665180333e-05, 0.003011382417753339, 0.0012223509838804603, 0.0002992069348692894, 0.0036675636656582355, 0.033030036836862564, 0.0008802639204077423, 0.00014528821338899434, 0.004101712256669998], [0.0006709836306981742, 0.00048541781143285334, 0.00032459586509503424, 6.788323662476614e-05, 0.0010288007324561477, 0.0041577876545488834, 0.0025929384864866734, 0.003396537620574236, 0.1864432841539383, 0.780698299407959, 0.0053544603288173676, 0.0006056108395569026, 4.070740033057518e-05, 0.0011034400667995214, 0.0014832444721832871, 1.7150905478047207e-05, 5.7059987739194185e-05, 0.010522549971938133, 0.000371360540157184, 8.208641520468518e-05, 0.0004956611664965749], [0.0006563109345734119, 0.0014098731335252523, 0.0027375253848731518, 0.0001241534628206864, 0.0003419714339543134, 0.0003550479596015066, 0.011603395454585552, 0.014589639380574226, 0.10693617910146713, 0.7861515283584595, 0.017186805605888367, 0.0024396423250436783, 2.9993032512720674e-05, 0.002178632654249668, 0.0013492798898369074, 0.00013749286881648004, 0.000844249501824379, 0.049394071102142334, 0.0009598150500096381, 0.00019823871843982488, 0.0003761924454011023], [0.008187706582248211, 0.008305056020617485, 0.0035937821958214045, 0.001964760944247246, 0.0034199324436485767, 0.0004364459600765258, 0.012003295123577118, 0.04581889137625694, 0.15008996427059174, 0.21380554139614105, 0.08577802032232285, 0.0074546365067362785, 0.00118632719386369, 0.02937241829931736, 0.0010194333735853434, 0.0006241342052817345, 0.0037283687852323055, 0.41952192783355713, 0.0007657137466594577, 0.0015498747816309333, 0.0013736735563725233], [0.010760338976979256, 0.009576326236128807, 0.0033023934811353683, 0.0033987637143582106, 0.0010551444720476866, 8.741379861021414e-05, 0.0035010897554457188, 0.008015342988073826, 0.0759572982788086, 0.0750107541680336, 0.43553513288497925, 0.034285321831703186, 0.001885236706584692, 0.02697833441197872, 0.0009245685068890452, 9.60653560468927e-05, 0.001096385414712131, 0.30273619294166565, 0.0013116929912939668, 0.0016439941246062517, 0.002842230722308159], [0.0033936977852135897, 0.0016947827534750104, 0.0008749431581236422, 0.0006113565759733319, 0.0010031062411144376, 3.292499604867771e-05, 7.506222027586773e-05, 0.0005152460653334856, 0.0021905465982854366, 0.0010609745513647795, 0.08746254444122314, 0.5199448466300964, 0.2325209677219391, 0.07141438871622086, 0.00355014787055552, 0.0011658734874799848, 0.003598327049985528, 0.060935135930776596, 0.0013879475882276893, 0.0025096628814935684, 0.004057544749230146], [8.898854139260948e-05, 4.740513759315945e-05, 6.0870765992149245e-06, 9.793128265300766e-05, 0.0004840833425987512, 3.583636271287105e-06, 2.1715393813792616e-05, 2.2346362129610498e-06, 4.6247463615145534e-05, 3.0255698220571503e-05, 0.0024529751390218735, 0.02011186257004738, 0.9557426571846008, 0.012811637483537197, 0.0029148252215236425, 0.00022779587015975267, 0.0001289224746869877, 0.0019080420024693012, 0.0012787401210516691, 0.0012375524966046214, 0.0003564055950846523], [0.0001608768361620605, 0.00010008065146394074, 2.2171579985297285e-05, 4.660411377699347e-06, 8.54845256981207e-06, 2.153323293896392e-05, 0.0008608493371866643, 3.415711034904234e-05, 3.8979229429969564e-05, 3.145656592096202e-05, 0.0002878195373341441, 0.00331305293366313, 0.013195089064538479, 0.11257238686084747, 0.7171819806098938, 0.09012345969676971, 0.046784739941358566, 0.004833961371332407, 0.004557229578495026, 0.005211796145886183, 0.0006551208207383752], [0.012302697636187077, 0.014822008088231087, 0.0016665109433233738, 0.0014304592041298747, 0.00223804684355855, 0.0009469083161093295, 0.005743027664721012, 0.007313137874007225, 0.007517047692090273, 0.0010729815112426877, 0.004736727569252253, 0.005182479973882437, 0.033371709287166595, 0.1583789438009262, 0.11581340432167053, 0.09045608341693878, 0.29165300726890564, 0.17936529219150543, 0.01437744777649641, 0.026905281469225883, 0.024706903845071793], [0.0016305367462337017, 0.002250672783702612, 0.0005176530103199184, 3.005111102538649e-05, 0.00010073711746372283, 5.084764416096732e-05, 0.0001179480750579387, 0.0002300891646882519, 0.000958795368205756, 0.0010246065212413669, 0.0006278882501646876, 0.0011647009523585439, 0.0076208035461604595, 0.011448902077972889, 0.10805084556341171, 0.006479116156697273, 0.15662814676761627, 0.04355556145310402, 0.5103868246078491, 0.1148352324962616, 0.0322900153696537], [0.0006175151211209595, 0.0012510353699326515, 0.0003523819032125175, 1.0494712114450522e-05, 1.7236992789548822e-05, 2.316338759555947e-05, 1.147482544183731e-05, 0.0002777110494207591, 0.0007225806475616992, 0.001642777700908482, 0.0010315998224541545, 0.001315749017521739, 0.0014659375883638859, 0.004065363202244043, 0.02355307899415493, 0.0011799016501754522, 0.12258195132017136, 0.02681993879377842, 0.7082476615905762, 0.09275846183300018, 0.01205400750041008], [0.000329258618876338, 0.0006190986023284495, 0.0015781550901010633, 1.488288035034202e-05, 1.1116654604848009e-05, 1.907757450680947e-06, 1.0281539289280772e-05, 2.4699178538867272e-05, 0.0001484570384491235, 0.001480970880948007, 0.0015634624287486076, 0.010313918814063072, 0.0012937847059220076, 0.0011282159248366952, 0.012568855658173561, 0.001648958888836205, 0.049477025866508484, 0.012485740706324577, 0.7342936396598816, 0.16644130647182465, 0.004566262010484934], [0.06910322606563568, 0.06437487155199051, 0.012303052470088005, 0.01448720321059227, 0.00927829835563898, 0.0023566174786537886, 0.0038607358001172543, 0.006110269110649824, 0.034328803420066833, 0.00793509092181921, 0.035454560071229935, 0.010215992107987404, 0.01318054087460041, 0.10792680084705353, 0.01028669998049736, 0.006079379003494978, 0.02352997474372387, 0.4519619047641754, 0.017675703391432762, 0.03430426865816116, 0.06524599343538284], [0.036279115825891495, 0.005223930813372135, 0.0003618398914113641, 0.001862205914221704, 0.0004114264447707683, 6.44252531856182e-06, 5.042704742663773e-06, 1.2028624951199163e-05, 0.0009021401056088507, 9.459668217459694e-05, 0.0021123350597918034, 0.0004148028092458844, 0.006962993182241917, 0.04056743532419205, 0.00027995920390821993, 7.099221693351865e-05, 0.0010730730136856437, 0.6743733286857605, 0.036500126123428345, 0.09298664331436157, 0.09949948638677597], [0.04385919123888016, 0.006903523579239845, 0.0024019081611186266, 0.006098459009081125, 0.0028003633487969637, 3.5019002098124474e-05, 0.0001363935152767226, 0.00014487396401818842, 0.0017444082768633962, 0.00011055432696593925, 0.004454275127500296, 0.0043127587996423244, 0.009871901012957096, 0.04756835103034973, 0.0024585004430264235, 0.0012239314382895827, 0.007095620036125183, 0.4895564913749695, 0.07878317683935165, 0.08223924040794373, 0.20820122957229614], [0.0007788132643327117, 0.353776216506958, 0.5184417366981506, 0.01510556135326624, 0.017202431336045265, 0.0005828490830026567, 0.005472155287861824, 0.006857283879071474, 0.0030624722130596638, 0.005064165685325861, 0.006431405432522297, 0.004807464312762022, 0.0015207963297143579, 0.011251303367316723, 0.00852040946483612, 0.0007558638462796807, 0.007484390866011381, 0.024729272350668907, 0.0013273549266159534, 0.004693357273936272, 0.0021345794666558504]], [[0.019607750698924065, 0.07190586626529694, 0.0740121454000473, 0.0619720034301281, 0.09945821017026901, 0.0034814788959920406, 0.012027422897517681, 0.03438795730471611, 0.06973805278539658, 0.05099768564105034, 0.031338535249233246, 0.012874494306743145, 0.026903552934527397, 0.07433399558067322, 0.08066951483488083, 0.0054496643133461475, 0.018022725358605385, 0.17215627431869507, 0.020003141835331917, 0.010550939477980137, 0.05010852962732315], [0.030476832762360573, 0.0488966666162014, 0.011997233144938946, 0.015968503430485725, 0.009231514297425747, 0.002475654473528266, 0.0011240721214562654, 0.008812091313302517, 0.0331299751996994, 0.006138375494629145, 0.23033985495567322, 0.17723974585533142, 0.035900745540857315, 0.1062903106212616, 0.012757053598761559, 0.014273909851908684, 0.03235810250043869, 0.15189360082149506, 0.002041624393314123, 0.0024902706500142813, 0.06616394221782684], [0.00023838460037950426, 0.003172782715409994, 0.013190604746341705, 0.0006272534374147654, 0.0012257103808224201, 9.15547352633439e-05, 1.3630646208184771e-05, 0.0002600965672172606, 0.0032668174244463444, 8.203493780456483e-05, 0.02368776686489582, 0.9222416877746582, 0.009691369719803333, 0.008153009228408337, 0.0006081282044760883, 0.0002806013508234173, 0.0015624051447957754, 0.010951039381325245, 8.146759500959888e-05, 7.109682337613776e-05, 0.0005025587161071599], [0.024898864328861237, 0.15867139399051666, 0.00873598176985979, 0.07137934863567352, 0.0031259835232049227, 0.000760924129281193, 1.8070506484946236e-05, 0.012256374582648277, 0.02964833937585354, 0.0005838961224071681, 0.13904666900634766, 0.04465102031826973, 0.007853369228541851, 0.12486572563648224, 0.007823699153959751, 0.005458443891257048, 0.03057476319372654, 0.24984292685985565, 0.0006774531211704016, 0.00038461401709355414, 0.07874225080013275], [0.0007426621741615236, 0.0052301096729934216, 0.006124886218458414, 0.0005171067896299064, 0.15576809644699097, 0.0002987400512211025, 4.13641391787678e-05, 0.0008400983060710132, 0.006560564506798983, 0.0013217382365837693, 0.012160739861428738, 0.07923002541065216, 0.6851541996002197, 0.012274769134819508, 0.001289629959501326, 0.0005707595264539123, 0.006107382010668516, 0.02179640345275402, 0.0018581274198368192, 0.0010210592299699783, 0.001091509941034019], [0.006738767959177494, 0.019187889993190765, 0.04255417361855507, 0.0019282217836007476, 0.055626872926950455, 0.09985821694135666, 0.002545228460803628, 0.00841737724840641, 0.03251885995268822, 0.01934986189007759, 0.04333607479929924, 0.0318036712706089, 0.02773158811032772, 0.1061217188835144, 0.01076405681669712, 0.006394159514456987, 0.027809234336018562, 0.3964756727218628, 0.004172222223132849, 0.008072114549577236, 0.04859389364719391], [0.0074500818736851215, 0.006702413782477379, 0.0003504593623802066, 0.00012033544044243172, 0.0003241413796786219, 0.0002817643980961293, 0.3155297338962555, 0.011556626297533512, 0.03109860233962536, 0.35614606738090515, 0.005994089413434267, 0.0007201833068393171, 0.0016139597864821553, 0.05897868797183037, 0.0013781554298475385, 0.000109359338239301, 0.0004882235371042043, 0.16743184626102448, 0.0006071779644116759, 0.0009679219801910222, 0.03215017914772034], [0.002421967452391982, 0.03396036848425865, 0.008415108546614647, 0.00491966400295496, 0.004930001217871904, 0.002386438427492976, 0.008845566771924496, 0.24190784990787506, 0.060219906270504, 0.038877759128808975, 0.03507377579808235, 0.012892323546111584, 0.0045300982892513275, 0.15267860889434814, 0.003759130835533142, 0.0029172892682254314, 0.0966087356209755, 0.26942527294158936, 0.0012662590015679598, 0.00042406696593388915, 0.013539728708565235], [0.038698192685842514, 0.044289711862802505, 0.009003746323287487, 0.016916830092668533, 0.007668746169656515, 0.010978970676660538, 0.023349637165665627, 0.030327172949910164, 0.04652319476008415, 0.07770135998725891, 0.04679063335061073, 0.012973901815712452, 0.01199482660740614, 0.15339629352092743, 0.02910645119845867, 0.019096916541457176, 0.025556126609444618, 0.2530773878097534, 0.017567306756973267, 0.017952552065253258, 0.10703007876873016], [0.009692477062344551, 0.012913575395941734, 0.000858454848639667, 0.0007917497423477471, 0.0012745994608849287, 0.00025168139836750925, 0.01785271242260933, 0.007025008089840412, 0.07164862006902695, 0.4443591237068176, 0.013132994063198566, 0.0015449034981429577, 0.00540791405364871, 0.1098736897110939, 0.008162771351635456, 0.0006804217118769884, 0.0017819211352616549, 0.2070722132921219, 0.00969255156815052, 0.004176023881882429, 0.07180660218000412], [0.02742816135287285, 0.1861531287431717, 0.06890586763620377, 0.0489673838019371, 0.026589466258883476, 0.006515819113701582, 0.0031803904566913843, 0.022272011265158653, 0.04184865206480026, 0.008283332921564579, 0.0444418340921402, 0.011616019532084465, 0.002585636917501688, 0.0766608864068985, 0.012819970026612282, 0.008338621817529202, 0.011365597136318684, 0.19650998711585999, 0.006889186799526215, 0.004406052641570568, 0.184222012758255], [0.0004482658114284277, 0.06075781211256981, 0.7493153214454651, 0.006274134386330843, 0.06473729014396667, 0.0003507981600705534, 7.282065780600533e-05, 0.0023918740916997194, 0.015093139372766018, 0.0005355400498956442, 0.005419024731963873, 0.024931756779551506, 0.0016118427738547325, 0.012295176275074482, 0.0011714679421857, 0.0002706288069020957, 0.0009651117725297809, 0.0502750426530838, 0.0010416196892037988, 0.00021432657376863062, 0.001827044296078384], [0.0002125179598806426, 0.011045503430068493, 0.040540896356105804, 0.0008223039330914617, 0.8799208998680115, 0.000340955302817747, 5.316172246239148e-05, 0.0005594821413978934, 0.004724191036075354, 0.0006727097788825631, 0.0011320074554532766, 0.001995872240513563, 0.03066599927842617, 0.003580808639526367, 0.0009890287183225155, 0.00030884461011737585, 0.0003299322270322591, 0.0158117413520813, 0.0048484778963029385, 0.0008987744222395122, 0.0005458332016132772], [0.022257043048739433, 0.0782967284321785, 0.02344336360692978, 0.02408393658697605, 0.027852730825543404, 0.018864482641220093, 0.01242348738014698, 0.022231202572584152, 0.05731477960944176, 0.06987110525369644, 0.05031392350792885, 0.010471581481397152, 0.014693583361804485, 0.08270883560180664, 0.07747919857501984, 0.03281398490071297, 0.027195580303668976, 0.14697252213954926, 0.07182935625314713, 0.05139714479446411, 0.07748544216156006], [0.001489378628320992, 0.07510340213775635, 0.019601676613092422, 0.014465305022895336, 0.005502981133759022, 0.0012318100780248642, 0.00020523316925391555, 0.012597145512700081, 0.040151700377464294, 0.00653250003233552, 0.027955051511526108, 0.005479339510202408, 0.002347377361729741, 0.07251283526420593, 0.4435538351535797, 0.04026554897427559, 0.06545677036046982, 0.1288243681192398, 0.018338723108172417, 0.006235230714082718, 0.012149764224886894], [0.0008235835121013224, 0.02520057186484337, 0.009857065044343472, 0.013243489898741245, 0.008710306137800217, 0.003442933317273855, 0.0008111583883874118, 0.02826719544827938, 0.02249351143836975, 0.003891848959028721, 0.016660558059811592, 0.0029440883081406355, 0.0019200933165848255, 0.06685248017311096, 0.06657271087169647, 0.5106180906295776, 0.05834531784057617, 0.12492749840021133, 0.007567684631794691, 0.009232163429260254, 0.017617691308259964], [0.0007348310900852084, 0.08604136854410172, 0.0573318712413311, 0.039915554225444794, 0.08015980571508408, 0.002609966089949012, 0.00014649542572442442, 0.09914281219244003, 0.033804554492235184, 0.004037645645439625, 0.01894855871796608, 0.007701814640313387, 0.0035869241692125797, 0.07422412931919098, 0.022655967622995377, 0.011847011744976044, 0.28521233797073364, 0.1577732115983963, 0.005659039597958326, 0.0005684004281647503, 0.00789779145270586], [0.03401428833603859, 0.058978576213121414, 0.010640784166753292, 0.02029257081449032, 0.013873210176825523, 0.016955867409706116, 0.011512481607496738, 0.028776589781045914, 0.08003132790327072, 0.05436873808503151, 0.06876740604639053, 0.009209898300468922, 0.015526385977864265, 0.12953539192676544, 0.04557157680392265, 0.020824257284402847, 0.02915787696838379, 0.17604349553585052, 0.05241234973073006, 0.04241247475147247, 0.0810944214463234], [0.0026858984492719173, 0.013950233347713947, 0.0015987014630809426, 0.0010891456622630358, 0.0034672280307859182, 0.000506933662109077, 3.061215829802677e-05, 0.0004164466226939112, 0.04749402776360512, 0.0059712850488722324, 0.024575134739279747, 0.0020919344387948513, 0.00778167275711894, 0.09381773322820663, 0.01203814335167408, 0.0022358582355082035, 0.0016874342691153288, 0.20062299072742462, 0.49552062153816223, 0.06632968038320541, 0.016088340431451797], [0.0018600781913846731, 0.01484540943056345, 0.004631734453141689, 0.0007644717115908861, 0.005172471981495619, 0.000938643526751548, 0.000702233868651092, 0.0004665220039896667, 0.044910747557878494, 0.015764448791742325, 0.01757587492465973, 0.003083222545683384, 0.0044723693281412125, 0.07665388286113739, 0.019628148525953293, 0.004282378125935793, 0.0003922147152479738, 0.17693549394607544, 0.2931869924068451, 0.3035137951374054, 0.010218899697065353], [0.025436140596866608, 0.06586067378520966, 0.0015121345641091466, 0.01240447536110878, 0.00407566549256444, 0.005000049248337746, 0.007915506139397621, 0.017066601663827896, 0.12341123819351196, 0.032026391476392746, 0.15345607697963715, 0.003437170758843422, 0.005593575071543455, 0.1760282963514328, 0.014410886913537979, 0.0029987357556819916, 0.00842087622731924, 0.24783305823802948, 0.007760958280414343, 0.0043819015845656395, 0.08096949756145477]], [[0.0526110976934433, 0.02576795592904091, 0.1065353974699974, 0.04745161533355713, 0.020132027566432953, 0.0008447961299680173, 0.006228625774383545, 0.0018998653395101428, 0.019298244267702103, 0.01676350273191929, 0.01773284189403057, 0.16793522238731384, 0.02666863054037094, 0.05401501804590225, 0.06236368790268898, 0.0020423654932528734, 0.010031870566308498, 0.22448696196079254, 0.018258020281791687, 0.011223820969462395, 0.1077084094285965], [0.0011278004385530949, 0.10613934695720673, 0.12422487139701843, 0.34731826186180115, 0.2170751541852951, 0.0023679547011852264, 0.01818356290459633, 0.008816318586468697, 0.01520687434822321, 0.01046446617692709, 0.009904014877974987, 0.007561331614851952, 0.01646190881729126, 0.023533247411251068, 0.010503184050321579, 0.0005013695918023586, 0.0028076921589672565, 0.06035995855927467, 0.0018757008947432041, 0.0018391216872259974, 0.013727829791605473], [0.0028633123729377985, 0.07456454634666443, 0.059980954974889755, 0.6002044081687927, 0.1104138046503067, 0.0004409905814100057, 0.008083043619990349, 0.0007456493331119418, 0.006306269206106663, 0.004397961776703596, 0.004941923078149557, 0.0010545991826802492, 0.0045531513169407845, 0.015322772786021233, 0.005867853295058012, 8.343898662133142e-05, 0.00047977373469620943, 0.08680826425552368, 0.0006730459863319993, 0.001049128593876958, 0.01116513554006815], [0.00897456519305706, 0.05973505228757858, 0.21408475935459137, 0.15487858653068542, 0.2538639307022095, 0.009555218741297722, 0.04401836544275284, 0.022001048550009727, 0.040615689009428024, 0.01656850427389145, 0.024728212505578995, 0.016543062403798103, 0.0029211854562163353, 0.0228166151791811, 0.004936646670103073, 0.0006201406358741224, 0.0015401376876980066, 0.07957028597593307, 0.0004707529442384839, 0.00047635132796131074, 0.02108084037899971], [0.002407187595963478, 0.0323692262172699, 0.15391041338443756, 0.5790347456932068, 0.10421770066022873, 0.009795885533094406, 0.007743557449430227, 0.00151259102858603, 0.02290063351392746, 0.007376446388661861, 0.017506999894976616, 0.008440015837550163, 0.0004031831631436944, 0.007542891427874565, 0.002925749635323882, 0.0001357519067823887, 0.00031377727282233536, 0.03324826434254646, 0.000371274451026693, 0.0003984333307016641, 0.007445195224136114], [0.0006053352262824774, 0.0018631737912073731, 0.0011164946481585503, 0.046198464930057526, 0.016765179112553596, 0.006248530000448227, 0.8513644337654114, 0.027263127267360687, 0.002340796636417508, 0.01880865916609764, 0.0020333004649728537, 0.003121577203273773, 0.000775636755861342, 0.0006005376926623285, 0.006684341002255678, 0.00020605267491191626, 0.0021181143820285797, 0.0026335834991186857, 0.004784168675541878, 0.0008659424493089318, 0.0036024737637490034], [0.0017129163024947047, 0.007936126552522182, 0.010803746059536934, 0.07365075498819351, 0.06774576753377914, 0.06701067835092545, 0.042692117393016815, 0.015164552256464958, 0.018956070765852928, 0.5884005427360535, 0.00586325116455555, 0.004139353986829519, 0.0016337912529706955, 0.007892749272286892, 0.01706281490623951, 0.00016777402197476476, 0.00038522924296557903, 0.054728809744119644, 0.004655627533793449, 0.0011256529251113534, 0.008271767757833004], [0.0006891052471473813, 0.008482804521918297, 0.015416291542351246, 0.18795257806777954, 0.03534300625324249, 0.2323160171508789, 0.3188168704509735, 0.011849788017570972, 0.01747778430581093, 0.07406425476074219, 0.009154784493148327, 0.015784800052642822, 0.0018742767861112952, 0.004996253177523613, 0.029834503307938576, 0.000266409624600783, 0.000396457762690261, 0.024458061903715134, 0.0039949617348611355, 0.0007010306580923498, 0.006129926536232233], [0.005064721684902906, 0.03800230100750923, 0.03546115383505821, 0.08213524520397186, 0.0962401032447815, 0.009595858864486217, 0.07205122709274292, 0.031082190573215485, 0.12874191999435425, 0.10990335792303085, 0.060652200132608414, 0.0537528358399868, 0.01860683783888817, 0.054044246673583984, 0.01156944502145052, 0.0014791488647460938, 0.004566245246678591, 0.13886575400829315, 0.007180850952863693, 0.0031136006582528353, 0.03789064660668373], [0.004436276387423277, 0.02458999678492546, 0.037944160401821136, 0.08281102776527405, 0.03911048173904419, 0.038037437945604324, 0.27002760767936707, 0.028083207085728645, 0.05064833536744118, 0.1680343598127365, 0.02562825195491314, 0.01627725176513195, 0.00557323032990098, 0.0276391189545393, 0.017621802166104317, 0.001009957049973309, 0.004106398206204176, 0.10858061909675598, 0.015457605011761189, 0.0027651917189359665, 0.03161778301000595], [0.0008017622167244554, 0.009068043902516365, 0.005606533493846655, 0.034345727413892746, 0.026636887341737747, 0.0005415997584350407, 0.00695196446031332, 0.002179600764065981, 0.011934841983020306, 0.002597239101305604, 0.11812840402126312, 0.5743447542190552, 0.11759018152952194, 0.032028112560510635, 0.014417084865272045, 0.0009399654227308929, 0.005113810766488314, 0.02333861030638218, 0.0013056911993771791, 0.0012134122662246227, 0.010915848426520824], [0.005569471511989832, 0.007925555109977722, 0.0033425369765609503, 0.038771096616983414, 0.008758245036005974, 0.00010110147559316829, 0.0002551560755819082, 0.00017771052080206573, 0.0062906164675951, 0.0007191268960013986, 0.19598276913166046, 0.35228824615478516, 0.2020917534828186, 0.08461204916238785, 0.014645607210695744, 0.0009328941814601421, 0.004108990076929331, 0.05785711854696274, 0.0007280594436451793, 0.0016688579926267266, 0.013173047453165054], [0.004270856734365225, 0.003897850401699543, 0.012559427879750729, 0.006737904157489538, 0.001436295104213059, 0.00019456019799690694, 0.0002646205248311162, 9.913044777931646e-05, 0.0028342041186988354, 0.0018511151429265738, 0.06350211054086685, 0.45943084359169006, 0.06152784824371338, 0.11104948818683624, 0.11038713157176971, 0.009093360975384712, 0.04318372160196304, 0.05879048630595207, 0.011907219886779785, 0.02292727679014206, 0.014054614119231701], [0.008430371060967445, 0.016532685607671738, 0.011078443378210068, 0.013191771693527699, 0.014228885993361473, 0.0042069959454238415, 0.009428956545889378, 0.006101200822740793, 0.014823125675320625, 0.016874214634299278, 0.03764035925269127, 0.09541137516498566, 0.19066348671913147, 0.10563957691192627, 0.13829773664474487, 0.04362514242529869, 0.05190112069249153, 0.0820050835609436, 0.06173837184906006, 0.04424729570746422, 0.033933769911527634], [0.0008041016990318894, 0.0011789476266130805, 0.00558158103376627, 0.0018854718655347824, 0.00528033496811986, 0.0006790307816118002, 0.0017250097589567304, 0.0014495849609375, 0.00044162035919725895, 0.00556730292737484, 0.0020878014620393515, 0.04574122279882431, 0.12468509376049042, 0.016323905438184738, 0.19563716650009155, 0.05333808809518814, 0.2786608040332794, 0.017686063423752785, 0.17116452753543854, 0.0662514939904213, 0.0038308370858430862], [3.98817501263693e-05, 0.00013817092985846102, 0.0005278047174215317, 0.0009021948790177703, 0.0002609976218082011, 0.0008731422713026404, 0.0005138074047863483, 5.1230475946795195e-05, 2.3525273718405515e-05, 0.00035262529854662716, 0.0004033826116938144, 0.009836317040026188, 0.01691645383834839, 0.0012847977923229337, 0.8732893466949463, 0.0023033255711197853, 0.018387695774435997, 0.0010841955663636327, 0.0523168183863163, 0.0198803897947073, 0.0006138330209068954], [0.00012924097245559096, 0.0006997673772275448, 0.005058765411376953, 0.003105457639321685, 0.0007702746661379933, 0.001412886194884777, 0.004251972306519747, 9.101957402890548e-05, 0.0001358959561912343, 0.000691175286192447, 0.0012061016168445349, 0.06982671469449997, 0.02675585448741913, 0.003906912170350552, 0.6955212950706482, 0.00973173975944519, 0.010533547960221767, 0.004648805130273104, 0.12762446701526642, 0.03249557688832283, 0.0014025135897099972], [0.03882072865962982, 0.04834399372339249, 0.035523876547813416, 0.03221449255943298, 0.034366074949502945, 0.005699303932487965, 0.012619846500456333, 0.008850876241922379, 0.04166535660624504, 0.02109692059457302, 0.044085707515478134, 0.061833836138248444, 0.06062982231378555, 0.09477055072784424, 0.07218612730503082, 0.016137758269906044, 0.01991923525929451, 0.17445966601371765, 0.04624326899647713, 0.02489236369729042, 0.10564029216766357], [0.006310789845883846, 0.004161940421909094, 0.007873425260186195, 0.002827082062140107, 0.0013645937433466315, 0.001221202197484672, 0.0012372032506391406, 0.00042224430944770575, 0.0030480525456368923, 0.002919520018622279, 0.008155591785907745, 0.0459064319729805, 0.019399061799049377, 0.059086717665195465, 0.3358263075351715, 0.018771015107631683, 0.02938619814813137, 0.1521669328212738, 0.20536629855632782, 0.06299764662981033, 0.03155182674527168], [0.000925292435567826, 0.0007453519501723349, 0.001965959556400776, 0.0009196893079206347, 0.00011477580846985802, 0.00047844418440945446, 0.001545499893836677, 4.1861603676807135e-05, 0.0005295644514262676, 0.001348260324448347, 0.0013853508280590177, 0.01614345982670784, 0.002438517287373543, 0.009327159263193607, 0.2123955339193344, 0.008088481612503529, 0.006933914963155985, 0.026645425707101822, 0.6867244839668274, 0.01195831224322319, 0.009344534017145634], [0.01306183636188507, 0.07227879017591476, 0.028668951243162155, 0.07509911805391312, 0.028495563194155693, 0.003732820972800255, 0.006855097599327564, 0.0033900123089551926, 0.045980460941791534, 0.008084896951913834, 0.07167774438858032, 0.07760792970657349, 0.036065489053726196, 0.09542497247457504, 0.08242319524288177, 0.004831036552786827, 0.013209417462348938, 0.23413415253162384, 0.023484081029891968, 0.00674589816480875, 0.06874855607748032]], [[0.01363279577344656, 0.07501369714736938, 0.026894593611359596, 0.011956186965107918, 0.013516227714717388, 0.013395551592111588, 0.007699448615312576, 0.011414446868002415, 0.037998225539922714, 0.012539839372038841, 0.0734381452202797, 0.05203121528029442, 0.039882004261016846, 0.12090794742107391, 0.02257811464369297, 0.018572911620140076, 0.041972529143095016, 0.28395119309425354, 0.024093683809041977, 0.057703897356987, 0.040807340294122696], [0.1201571449637413, 0.05013478174805641, 0.02126445807516575, 0.009475882165133953, 0.0011618982534855604, 0.0003790745104197413, 0.0015450920909643173, 0.0006789324688725173, 0.02142973430454731, 0.0033848627936095, 0.009639936499297619, 0.004407192580401897, 0.0005708298413082957, 0.0673186331987381, 0.002716578310355544, 0.001297995913773775, 0.0012862298171967268, 0.5843177437782288, 0.0021453555673360825, 0.0015691303415223956, 0.09511850029230118], [0.05639088526368141, 0.20167484879493713, 0.03724845126271248, 0.03751736506819725, 0.0030071651563048363, 0.0006754986825399101, 0.0056873769499361515, 0.0035243025049567223, 0.01940997503697872, 0.0077630323357880116, 0.008068213239312172, 0.0007993901963345706, 0.0004511179868131876, 0.031182391569018364, 0.002615872770547867, 0.0013293300289660692, 0.003997004125267267, 0.4518383741378784, 0.0028105159290134907, 0.0015726753044873476, 0.12243624031543732], [0.035185955464839935, 0.3769962191581726, 0.05386285111308098, 0.07710742205381393, 0.011511188000440598, 0.0007288104970939457, 0.002566020004451275, 0.0011393841123208404, 0.017968185245990753, 0.005232359282672405, 0.006031084340065718, 0.0005423797410912812, 0.00030121608870103955, 0.01766492798924446, 0.0003662311937659979, 0.00014985192683525383, 0.00037388800410553813, 0.16302451491355896, 0.002862491412088275, 0.002089195651933551, 0.22429579496383667], [0.0031140465289354324, 0.15266698598861694, 0.1863878220319748, 0.4939906895160675, 0.042043838649988174, 0.0003569875261746347, 0.002259571338072419, 0.00035054865293204784, 0.0022295736707746983, 0.0008455303614027798, 0.0017998628318309784, 0.0019279348198324442, 0.0002919815306086093, 0.004830202553421259, 0.00040816268301568925, 0.00014864993863739073, 0.0001478346239309758, 0.03864303603768349, 0.0010936404578387737, 0.0007077597547322512, 0.0657552108168602], [0.005640782415866852, 0.09558277577161789, 0.12024989724159241, 0.47548285126686096, 0.17116263508796692, 0.005916875321418047, 0.00749787874519825, 0.002853015437722206, 0.013886318542063236, 0.004170951899141073, 0.008186894468963146, 0.005196802318096161, 0.001071370905265212, 0.009959856048226357, 0.0021927785128355026, 0.00048066230374388397, 0.0003607975086197257, 0.02246934548020363, 0.001757885329425335, 0.001018379582092166, 0.044861167669296265], [0.0012365636648610234, 0.014089844189584255, 0.06836985796689987, 0.30143216252326965, 0.558178186416626, 0.007389206439256668, 0.0072036320343613625, 0.0012026251060888171, 0.003480105195194483, 0.0026035679038614035, 0.0012947877403348684, 0.00226596905849874, 0.00040103349601849914, 0.001155531732365489, 0.0015264034736901522, 0.00016705603047739714, 0.00018401398847345263, 0.004284367896616459, 0.0006360339466482401, 0.00017807085532695055, 0.022720951586961746], [0.0016160602681338787, 0.021155046299099922, 0.06809307634830475, 0.08711691945791245, 0.7389270067214966, 0.023776976391673088, 0.004539256915450096, 0.0010046794777736068, 0.01169987116008997, 0.005288565997034311, 0.002382555976510048, 0.0014005709672346711, 0.0003258576325606555, 0.005541949532926083, 0.00078048394061625, 0.00011289124086033553, 7.230353367049247e-05, 0.008222891949117184, 0.0005102973664179444, 0.0003725434362422675, 0.01706024818122387], [0.016585808247327805, 0.04079201817512512, 0.021269788965582848, 0.12227141112089157, 0.185977503657341, 0.04337520897388458, 0.04554355517029762, 0.008374378085136414, 0.13691385090351105, 0.010759416967630386, 0.010661615990102291, 0.003814142430201173, 0.0006621376960538328, 0.04533242806792259, 0.0014936752850189805, 0.0003739121893886477, 0.0002765663084574044, 0.2571307420730591, 0.0024412046186625957, 0.001847788691520691, 0.044102855026721954], [0.002275859471410513, 0.019830135628581047, 0.02432824857532978, 0.058556508272886276, 0.3853313624858856, 0.12029462307691574, 0.20560012757778168, 0.030794084072113037, 0.05521981045603752, 0.04620632529258728, 0.007566326763480902, 0.0018012186046689749, 0.00025782384909689426, 0.003017502138391137, 0.0009042657329700887, 0.00019084973610006273, 0.00029495294438675046, 0.01383309904485941, 0.000537990708835423, 0.00032896376796998084, 0.022829974070191383], [0.007849142886698246, 0.02311497926712036, 0.0039042311254888773, 0.014226838946342468, 0.02174447476863861, 0.006797304842621088, 0.008900411427021027, 0.014029955491423607, 0.23976434767246246, 0.01140133198350668, 0.19478236138820648, 0.030660223215818405, 0.0012949861120432615, 0.05803345888853073, 0.0009478432475589216, 0.0010007416130974889, 0.001621850999072194, 0.3280385732650757, 0.0008178520365618169, 0.0013448501704260707, 0.029724132269620895], [0.0031911320984363556, 0.01086698193103075, 0.0011538731632754207, 0.003216045442968607, 0.0011735382722690701, 0.00018947335775010288, 0.0019197118235751987, 0.0035736411809921265, 0.05354760214686394, 0.007109487894922495, 0.6444767713546753, 0.09496355801820755, 0.0024856035597622395, 0.030914785340428352, 0.0011162315495312214, 0.0010017622262239456, 0.0027735866606235504, 0.12625981867313385, 0.00026911907480098307, 0.00037816280382685363, 0.009419039823114872], [0.0002988834457937628, 0.001289870124310255, 0.000547914591152221, 0.0034192337188869715, 0.00042978901183232665, 5.0545884732855484e-05, 0.00036578919389285147, 0.00014087025192566216, 0.0024860904086381197, 0.0014532982604578137, 0.3372249901294708, 0.6094132661819458, 0.017908772453665733, 0.011618505232036114, 0.0024837467353791, 0.0008291960111819208, 0.0007964177057147026, 0.006837541237473488, 0.0005983809242025018, 0.0003157657338306308, 0.0014911600155755877], [0.015192746184766293, 0.008226065896451473, 0.004413052927702665, 0.017219766974449158, 0.004571344703435898, 0.0013384229969233274, 0.002381025580689311, 0.0017871321178972721, 0.03316517546772957, 0.0076765622943639755, 0.23954372107982635, 0.27999356389045715, 0.050625767558813095, 0.1303989142179489, 0.01207838486880064, 0.005152448546141386, 0.005092170089483261, 0.15461024641990662, 0.005759018007665873, 0.004285921808332205, 0.01648847945034504], [0.004309958312660456, 0.004695228300988674, 0.003371880389750004, 0.01613612100481987, 0.00957206729799509, 0.002785046584904194, 0.0068804859183728695, 0.002291714306920767, 0.010595791973173618, 0.007810184266418219, 0.19098149240016937, 0.36660054326057434, 0.22670336067676544, 0.07114040106534958, 0.026836734265089035, 0.006692106835544109, 0.005283537320792675, 0.02232537977397442, 0.0028214293997734785, 0.002918897196650505, 0.009247674606740475], [0.0020847171545028687, 0.002499592723324895, 0.002671648748219013, 0.0023107535671442747, 0.0045882961712777615, 0.0009727926808409393, 0.0015132002299651504, 0.001764960470609367, 0.0047030458226799965, 0.0039911698549985886, 0.11142545193433762, 0.46533480286598206, 0.23030437529087067, 0.08494244515895844, 0.026030028238892555, 0.006958812475204468, 0.01948287896811962, 0.013017077930271626, 0.0024306471459567547, 0.0028981035575270653, 0.010075214318931103], [0.0014329974073916674, 0.002517178189009428, 0.0013822508044540882, 0.002657239092513919, 0.011023507453501225, 0.002607356058433652, 0.0021398563403636217, 0.0019241111585870385, 0.006009448319673538, 0.004061559215188026, 0.10516513884067535, 0.2023835927248001, 0.4096831679344177, 0.11274708062410355, 0.08469679951667786, 0.011103830300271511, 0.01460826676338911, 0.013090894557535648, 0.0019168310100212693, 0.0034583848901093006, 0.00539043452590704], [0.025434410199522972, 0.02640586718916893, 0.007844284176826477, 0.016414809972047806, 0.00994633324444294, 0.006395041011273861, 0.003000162309035659, 0.004594627767801285, 0.05019461736083031, 0.0051359315402805805, 0.04114324599504471, 0.01967482455074787, 0.015481115318834782, 0.16958530247211456, 0.015004188753664494, 0.00944300927221775, 0.015227990224957466, 0.4988451600074768, 0.015266901813447475, 0.014191903173923492, 0.03077036328613758], [0.0010070387506857514, 0.004643062129616737, 0.0009855718817561865, 0.0005339141353033483, 0.0010902442736551166, 0.0024323961697518826, 0.0014675101265311241, 0.0026425740215927362, 0.0052519552409648895, 0.0021630185656249523, 0.09054987132549286, 0.1407555490732193, 0.1420172154903412, 0.09979235380887985, 0.18763460218906403, 0.07166517525911331, 0.16563741862773895, 0.05546359717845917, 0.012397142127156258, 0.006510491482913494, 0.005359280854463577], [0.0001429742551408708, 0.0014366649556905031, 0.0011691800318658352, 0.0004317753773648292, 0.000937925826292485, 0.00038034265162423253, 0.0001923527306644246, 0.0004212621715851128, 0.0005388130666688085, 0.000817878870293498, 0.028506703674793243, 0.2626258432865143, 0.24964316189289093, 0.02095617540180683, 0.19898971915245056, 0.02333146519958973, 0.19147276878356934, 0.005363678093999624, 0.0057505108416080475, 0.003095385618507862, 0.003795483848080039], [0.009002589620649815, 0.015186086297035217, 0.0015250678407028317, 0.0009052503737621009, 0.0005028578452765942, 0.0006587007665075362, 0.00022493881988339126, 0.000820784131065011, 0.01934615708887577, 0.0009392114006914198, 0.13716915249824524, 0.05685156583786011, 0.01911037601530552, 0.20008479058742523, 0.00960945338010788, 0.010931534692645073, 0.019015463069081306, 0.40078121423721313, 0.01814274862408638, 0.046176642179489136, 0.033015429973602295]]], [[[0.02565564028918743, 0.013346957974135876, 0.039321765303611755, 0.11574408411979675, 0.006621863692998886, 0.005207580514252186, 0.04701530188322067, 0.010319016873836517, 0.016962984576821327, 0.10946056246757507, 0.02275870367884636, 0.03216196224093437, 0.01086447387933731, 0.023392323404550552, 0.14594975113868713, 0.0679902583360672, 0.06058369576931, 0.026690330356359482, 0.1287398785352707, 0.04362368583679199, 0.04758920148015022], [0.026447143405675888, 0.10647187381982803, 0.03351116552948952, 0.07318364828824997, 0.043751057237386703, 0.022327499464154243, 0.026325708255171776, 0.020176047459244728, 0.11568976938724518, 0.03700055181980133, 0.043154556304216385, 0.020315662026405334, 0.020357869565486908, 0.13149511814117432, 0.04377664253115654, 0.01672852411866188, 0.02310844697058201, 0.13360993564128876, 0.015713293105363846, 0.016975613310933113, 0.029879925772547722], [0.025709880515933037, 0.1478203982114792, 0.04716358706355095, 0.054765306413173676, 0.10541372746229172, 0.0026256695855408907, 0.002711470238864422, 0.0045913695357739925, 0.13744430243968964, 0.008503870107233524, 0.026365606114268303, 0.014662628062069416, 0.008752432651817799, 0.15304164588451385, 0.019314343109726906, 0.003085534321144223, 0.009444931522011757, 0.17089535295963287, 0.003812370589002967, 0.00545209925621748, 0.04842348024249077], [0.04114622250199318, 0.21887166798114777, 0.0857066959142685, 0.0745498314499855, 0.0257682166993618, 0.002410846296697855, 0.002615268575027585, 0.00482907984405756, 0.11263198405504227, 0.003668568329885602, 0.030495205894112587, 0.008291994221508503, 0.0096210315823555, 0.12200561165809631, 0.003960123751312494, 0.0015348338056355715, 0.0031643921975046396, 0.13280485570430756, 0.003303946228697896, 0.009982602670788765, 0.10263697803020477], [0.02846444770693779, 0.1730916053056717, 0.052232369780540466, 0.20739474892616272, 0.06038259342312813, 0.0049429358914494514, 0.007178901229053736, 0.005329170264303684, 0.10027924180030823, 0.004799435380846262, 0.014773583970963955, 0.0046266778372228146, 0.009586537256836891, 0.12200125306844711, 0.002404593862593174, 0.0007005645893514156, 0.0015244415262714028, 0.14369408786296844, 0.0019644766580313444, 0.005672836676239967, 0.04895560070872307], [0.02881573885679245, 0.21466492116451263, 0.042917948216199875, 0.01211023610085249, 0.004796686582267284, 0.011464022099971771, 0.011706214398145676, 0.018918221816420555, 0.16007713973522186, 0.032423246651887894, 0.027378078550100327, 0.004459638614207506, 0.012053708545863628, 0.1719113141298294, 0.01561286672949791, 0.008046215400099754, 0.010633648373186588, 0.16539064049720764, 0.009498877450823784, 0.02075183019042015, 0.01636870764195919], [0.010537191294133663, 0.19218836724758148, 0.03871031478047371, 0.0637795478105545, 0.005922827869653702, 0.01103708054870367, 0.038711875677108765, 0.02575838565826416, 0.1731596291065216, 0.044368911534547806, 0.008933289907872677, 0.003689441829919815, 0.0034394292160868645, 0.158624529838562, 0.011000405997037888, 0.002451470820233226, 0.002201741561293602, 0.16869285702705383, 0.0030694117303937674, 0.00799219124019146, 0.025731032714247704], [0.010114936158061028, 0.1516106277704239, 0.06198178604245186, 0.05914944037795067, 0.02097305841743946, 0.02380594052374363, 0.04952368885278702, 0.03399919718503952, 0.13966982066631317, 0.04340603947639465, 0.0073828683234751225, 0.004392742644995451, 0.004393775016069412, 0.1494074910879135, 0.003758310806006193, 0.001592242275364697, 0.00932441744953394, 0.15746040642261505, 0.009366173297166824, 0.04674146696925163, 0.01194554939866066], [0.051052678376436234, 0.09595746546983719, 0.03703930601477623, 0.04271542280912399, 0.035157088190317154, 0.02791532501578331, 0.026183487847447395, 0.036590319126844406, 0.08816718310117722, 0.04728935658931732, 0.07210888713598251, 0.02746453508734703, 0.032636042684316635, 0.0896586924791336, 0.04200449213385582, 0.035656820982694626, 0.0428973026573658, 0.08851580321788788, 0.01999947801232338, 0.028370831161737442, 0.03261948004364967], [0.011301598511636257, 0.11805129796266556, 0.056914426386356354, 0.02214617282152176, 0.014915373176336288, 0.007325311191380024, 0.03285093978047371, 0.017707789316773415, 0.10143353044986725, 0.36212122440338135, 0.013488676398992538, 0.002802713308483362, 0.0024785781279206276, 0.07588397711515427, 0.008150319568812847, 0.0006980524631217122, 0.004958234261721373, 0.07999743521213531, 0.007077860180288553, 0.01223080325871706, 0.04746564105153084], [0.006601161323487759, 0.06409797817468643, 0.05699778348207474, 0.3726440668106079, 0.07859432697296143, 0.017362548038363457, 0.037329476326704025, 0.015190151520073414, 0.04343421012163162, 0.03891405463218689, 0.022112777456641197, 0.019701676443219185, 0.03125353157520294, 0.05616379156708717, 0.02072218991816044, 0.006267393007874489, 0.012526032514870167, 0.056493695825338364, 0.0068590096198022366, 0.01214988436549902, 0.024584291502833366], [0.011566146276891232, 0.11194204539060593, 0.04330645129084587, 0.04677077755331993, 0.0746515542268753, 0.0021269407588988543, 0.0014113113284111023, 0.00456382567062974, 0.12466386705636978, 0.005592872388660908, 0.0598922073841095, 0.057835254818201065, 0.03634047880768776, 0.1530299186706543, 0.0318903848528862, 0.005702505819499493, 0.00985688529908657, 0.16441446542739868, 0.004809761419892311, 0.011386614292860031, 0.038245730102062225], [0.009807951748371124, 0.0745360255241394, 0.026553455740213394, 0.09952102601528168, 0.023431390523910522, 0.0007768359500914812, 0.002684386447072029, 0.001341465045697987, 0.06711537390947342, 0.004409524612128735, 0.1621692180633545, 0.11881926655769348, 0.16509833931922913, 0.09467649459838867, 0.010613798163831234, 0.0017731816042214632, 0.0027313714381307364, 0.09503376483917236, 0.0036357571370899677, 0.01261092722415924, 0.02266053296625614], [0.052428267896175385, 0.08125300705432892, 0.03514653071761131, 0.03377138078212738, 0.03163701668381691, 0.022052694112062454, 0.02036016806960106, 0.03301232308149338, 0.07625313848257065, 0.03976142406463623, 0.0955786183476448, 0.042990464717149734, 0.047374431043863297, 0.07853022962808609, 0.049439020454883575, 0.04421231523156166, 0.04910693317651749, 0.0765383318066597, 0.022372355684638023, 0.033101215958595276, 0.035080090165138245], [0.004837615881115198, 0.07059800624847412, 0.07322053611278534, 0.005872571375221014, 0.013099086470901966, 0.0032105199061334133, 0.0013381671160459518, 0.0031914575956761837, 0.04444398358464241, 0.009241585619747639, 0.05422239378094673, 0.06362222880125046, 0.11053620278835297, 0.060470595955848694, 0.21281102299690247, 0.022423155605793, 0.023740343749523163, 0.05204301327466965, 0.06996022164821625, 0.08422495424747467, 0.01689232885837555], [0.013771094381809235, 0.07915151864290237, 0.0297650508582592, 0.008874839171767235, 0.009792966768145561, 0.001322679570876062, 0.0005932596977800131, 0.004500381648540497, 0.056672535836696625, 0.003575502196326852, 0.15388432145118713, 0.08135524392127991, 0.19188301265239716, 0.07717534154653549, 0.0882105827331543, 0.011393987573683262, 0.018431363627314568, 0.06786584109067917, 0.022367823868989944, 0.05901515111327171, 0.02039754018187523], [0.01774079166352749, 0.10574991255998611, 0.023734984919428825, 0.022490277886390686, 0.01107909344136715, 0.005703992675989866, 0.002621679101139307, 0.010606968775391579, 0.08463487029075623, 0.006627192255109549, 0.12037087976932526, 0.04418686032295227, 0.08641493320465088, 0.11142495274543762, 0.050486356019973755, 0.00904342532157898, 0.01978101022541523, 0.1010352224111557, 0.019707608968019485, 0.09873553365468979, 0.04782344400882721], [0.05635460838675499, 0.07849091291427612, 0.03524955362081528, 0.03432305529713631, 0.035729363560676575, 0.025361191481351852, 0.02203136496245861, 0.03774242848157883, 0.07387875020503998, 0.04068603366613388, 0.08409475535154343, 0.038467586040496826, 0.045393675565719604, 0.07503022998571396, 0.0495443195104599, 0.04949718713760376, 0.05308273062109947, 0.07336470484733582, 0.02234135940670967, 0.03341400623321533, 0.035922154784202576], [0.01845627650618553, 0.07653652131557465, 0.009348700754344463, 0.002217036671936512, 0.0018591765547171235, 0.00983744952827692, 0.0037233554758131504, 0.009105004370212555, 0.07287213206291199, 0.01681159809231758, 0.03923565894365311, 0.006872867234051228, 0.02399054914712906, 0.0949738398194313, 0.16667665541172028, 0.018161870539188385, 0.043380387127399445, 0.08641691505908966, 0.1583697348833084, 0.07172173261642456, 0.0694325789809227], [0.006236301269382238, 0.037875767797231674, 0.05496412143111229, 0.015281769447028637, 0.013594551011919975, 0.005119489971548319, 0.006604508031159639, 0.005013472866266966, 0.029112545773386955, 0.01738634891808033, 0.04200736805796623, 0.07148686051368713, 0.09969495236873627, 0.045394714921712875, 0.1318061798810959, 0.013002315536141396, 0.032529011368751526, 0.039665378630161285, 0.08515573292970657, 0.21848751604557037, 0.029581021517515182], [0.0024100411683321, 0.03712395578622818, 0.03444521874189377, 0.10121428966522217, 0.041564639657735825, 0.01687181368470192, 0.04914743825793266, 0.015832433477044106, 0.04600842297077179, 0.17886504530906677, 0.022044017910957336, 0.023307830095291138, 0.038932379335165024, 0.06808160990476608, 0.05496814474463463, 0.009295637719333172, 0.021534305065870285, 0.06685459613800049, 0.12037859112024307, 0.0376991406083107, 0.01342040952295065]], [[0.3809414803981781, 0.038792990148067474, 0.005109637975692749, 0.03360603377223015, 0.01161621417850256, 0.009872340597212315, 0.02665642648935318, 0.01628192700445652, 0.04349344223737717, 0.03135857358574867, 0.10543300211429596, 0.0042305923998355865, 0.007554442156106234, 0.042739663273096085, 0.017990313470363617, 0.025544000789523125, 0.017185945063829422, 0.04404257982969284, 0.02616468258202076, 0.03009520098567009, 0.08129054307937622], [0.060059383511543274, 0.06873191148042679, 0.04384626820683479, 0.05658377334475517, 0.03724560886621475, 0.022027265280485153, 0.03316238522529602, 0.033137474209070206, 0.07968582957983017, 0.029033465310931206, 0.09336026012897491, 0.028930097818374634, 0.03049510158598423, 0.09110274165868759, 0.030910896137356758, 0.019840596243739128, 0.03049417771399021, 0.09244979172945023, 0.026397651061415672, 0.025944063439965248, 0.06656134128570557], [0.028775999322533607, 0.09138599038124084, 0.02830343320965767, 0.07135628163814545, 0.13243022561073303, 0.007952996529638767, 0.05102773383259773, 0.033515576273202896, 0.0867241844534874, 0.009066598489880562, 0.0677911788225174, 0.016780072823166847, 0.04463789984583855, 0.10455749183893204, 0.03176083788275719, 0.015853889286518097, 0.008463961072266102, 0.10381955653429031, 0.01664911024272442, 0.01916222646832466, 0.029984675347805023], [0.06931328773498535, 0.07408487051725388, 0.09250793606042862, 0.06970308721065521, 0.09328678250312805, 0.0017324003856629133, 0.010922834277153015, 0.008890941739082336, 0.06748436391353607, 0.004794856999069452, 0.13349586725234985, 0.055796243250370026, 0.08681738376617432, 0.08611370623111725, 0.010504528880119324, 0.0037048470694571733, 0.0063080741092562675, 0.0884891077876091, 0.008073135279119015, 0.011350476182997227, 0.016625288873910904], [0.012683367356657982, 0.0507059320807457, 0.06969522684812546, 0.08976519107818604, 0.09649014472961426, 0.005613657180219889, 0.0063359434716403484, 0.006186157464981079, 0.06133497133851051, 0.007963721640408039, 0.12938030064105988, 0.09507780522108078, 0.11525523662567139, 0.08199404180049896, 0.022607607766985893, 0.00835415255278349, 0.011927878484129906, 0.08411861956119537, 0.016881655901670456, 0.01889132149517536, 0.008737022988498211], [0.02226867899298668, 0.07035403698682785, 0.018564466387033463, 0.019601380452513695, 0.024600930511951447, 0.007567978464066982, 0.018787970766425133, 0.005864356178790331, 0.11406934261322021, 0.008494161069393158, 0.14308719336986542, 0.07245244085788727, 0.04026612639427185, 0.15768367052078247, 0.02820131927728653, 0.006478512194007635, 0.01115050632506609, 0.16345520317554474, 0.026500077918171883, 0.016972707584500313, 0.023578865453600883], [0.018959863111376762, 0.05002623796463013, 0.02471371553838253, 0.010287581942975521, 0.016009101644158363, 0.013150853104889393, 0.04475797712802887, 0.013537777587771416, 0.09765861928462982, 0.026555165648460388, 0.17773114144802094, 0.15077762305736542, 0.018690597265958786, 0.13158372044563293, 0.017600664868950844, 0.005454989615827799, 0.007994450628757477, 0.1450369954109192, 0.012916235253214836, 0.00704085873439908, 0.009515832178294659], [0.04271741211414337, 0.07253739982843399, 0.02116497792303562, 0.015200587920844555, 0.013683415949344635, 0.03232787176966667, 0.08439996838569641, 0.06298033148050308, 0.10036826878786087, 0.03643395006656647, 0.12038826197385788, 0.02330627478659153, 0.013903823681175709, 0.11103922128677368, 0.012437351047992706, 0.006087265443056822, 0.015586048364639282, 0.11602332442998886, 0.01923408918082714, 0.05458640307188034, 0.025593746453523636], [0.06365536898374557, 0.06005152687430382, 0.03352245315909386, 0.039327796548604965, 0.024217216297984123, 0.03728177770972252, 0.02409789152443409, 0.032984573394060135, 0.0846787542104721, 0.05224248766899109, 0.07679691910743713, 0.04555631801486015, 0.026891523972153664, 0.09150246530771255, 0.026201827451586723, 0.0261126309633255, 0.03628525510430336, 0.09447366744279861, 0.035470571368932724, 0.024853339418768883, 0.06379558145999908], [0.07278097420930862, 0.06888092309236526, 0.01890297792851925, 0.0049734520725905895, 0.008590386249125004, 0.007624783553183079, 0.1009291335940361, 0.0274769626557827, 0.10614324361085892, 0.07696183770895004, 0.14975561201572418, 0.038939934223890305, 0.011778498999774456, 0.12120595574378967, 0.009573852643370628, 0.004145173821598291, 0.005509550217539072, 0.126809760928154, 0.013037449680268764, 0.013570494018495083, 0.01240905374288559], [0.037277135998010635, 0.05798490718007088, 0.07371244579553604, 0.08656851202249527, 0.026125431060791016, 0.012445618398487568, 0.02645934373140335, 0.01003105565905571, 0.06335976719856262, 0.008504229597747326, 0.028389761224389076, 0.03636952489614487, 0.09131322801113129, 0.0925477147102356, 0.08178091049194336, 0.023131851106882095, 0.04269898310303688, 0.08912636339664459, 0.0353836864233017, 0.04823729395866394, 0.028552262112498283], [0.054461248219013214, 0.07523398101329803, 0.023148737847805023, 0.037431493401527405, 0.02191326953470707, 0.00163584656547755, 0.029792681336402893, 0.006701549515128136, 0.09696850180625916, 0.004469350446015596, 0.013664685189723969, 0.017856622114777565, 0.08006151020526886, 0.16507205367088318, 0.06481926143169403, 0.029476789757609367, 0.020798904821276665, 0.1603168547153473, 0.027435967698693275, 0.040190719068050385, 0.02855008654296398], [0.02243797294795513, 0.04751228168606758, 0.030697235837578773, 0.057802505791187286, 0.03160347044467926, 0.001230462919920683, 0.004090120084583759, 0.0019949551206082106, 0.048428282141685486, 0.002653907286003232, 0.03983055055141449, 0.05620002746582031, 0.2464282214641571, 0.08506526052951813, 0.06704899668693542, 0.024140294641256332, 0.03868769854307175, 0.07999864220619202, 0.04440343752503395, 0.05174209177494049, 0.018003566190600395], [0.06004314869642258, 0.05946221947669983, 0.03504626080393791, 0.04165748134255409, 0.02740524150431156, 0.03451737016439438, 0.021039756014943123, 0.027630919590592384, 0.07929352670907974, 0.042971089482307434, 0.06891568750143051, 0.04753275215625763, 0.03363114595413208, 0.08689505606889725, 0.031859733164310455, 0.030348844826221466, 0.04004004970192909, 0.08936778455972672, 0.04285870119929314, 0.030674492940306664, 0.06880880147218704], [0.06040223687887192, 0.06614012271165848, 0.024967093020677567, 0.007898314855992794, 0.013734114356338978, 0.004110955633223057, 0.022072039544582367, 0.0034525287337601185, 0.1050754263997078, 0.0053696702234447, 0.04994555935263634, 0.04402611404657364, 0.03770807385444641, 0.1441769003868103, 0.05019961670041084, 0.015898676589131355, 0.013239196501672268, 0.1570248156785965, 0.08226878941059113, 0.07034018635749817, 0.021949604153633118], [0.057167600840330124, 0.06858710944652557, 0.031058378517627716, 0.013768577948212624, 0.017578670755028725, 0.0032551928889006376, 0.00841315183788538, 0.009422420524060726, 0.11200593411922455, 0.004601645283401012, 0.04028501361608505, 0.04071357846260071, 0.037742745131254196, 0.14904436469078064, 0.05181914195418358, 0.024278445169329643, 0.0313156433403492, 0.16210374236106873, 0.03738420084118843, 0.07781761884689331, 0.02163688652217388], [0.06025177985429764, 0.06900319457054138, 0.02955537661910057, 0.017226295545697212, 0.01541315857321024, 0.007134618237614632, 0.012364045716822147, 0.013759191147983074, 0.10586917400360107, 0.013514106161892414, 0.02918841689825058, 0.015511215664446354, 0.025982268154621124, 0.13207706809043884, 0.04283447936177254, 0.02400350198149681, 0.020910676568746567, 0.13709314167499542, 0.05944620817899704, 0.14063769578933716, 0.0282244011759758], [0.06151001155376434, 0.05956648290157318, 0.03558336943387985, 0.042663753032684326, 0.028786510229110718, 0.037918705493211746, 0.021740423515439034, 0.03049834445118904, 0.07761172205209732, 0.04878849536180496, 0.0689234808087349, 0.04730283468961716, 0.03179799020290375, 0.08291249722242355, 0.03025452047586441, 0.030044062063097954, 0.03797154128551483, 0.08529298007488251, 0.041495539247989655, 0.029104840010404587, 0.07023195177316666], [0.06243688985705376, 0.05787520110607147, 0.008544079028069973, 0.010818391107022762, 0.005129653960466385, 0.007090775296092033, 0.040722206234931946, 0.009445940144360065, 0.12283090502023697, 0.03952901437878609, 0.01597003825008869, 0.010586939752101898, 0.007206976879388094, 0.16152134537696838, 0.06339505314826965, 0.026184622198343277, 0.03788623586297035, 0.17494668066501617, 0.08579102158546448, 0.0350336916744709, 0.017054330557584763], [0.06956566870212555, 0.04585355147719383, 0.008246950805187225, 0.013541624881327152, 0.008991544134914875, 0.004739750642329454, 0.02496846206486225, 0.02583315595984459, 0.08676495403051376, 0.01837332174181938, 0.030562466010451317, 0.016700780019164085, 0.016245849430561066, 0.11281338334083557, 0.06680653244256973, 0.0596601739525795, 0.12554270029067993, 0.11810770630836487, 0.056804198771715164, 0.06318313628435135, 0.026694009080529213], [0.07600653171539307, 0.05352374166250229, 0.019253171980381012, 0.021384039893746376, 0.015859510749578476, 0.011732485145330429, 0.17858487367630005, 0.04045344889163971, 0.051014602184295654, 0.09755822271108627, 0.057594701647758484, 0.006588072050362825, 0.00859338603913784, 0.05870923772454262, 0.03399786353111267, 0.007934626191854477, 0.03130028024315834, 0.06256981939077377, 0.04783264547586441, 0.06721176952123642, 0.052297092974185944]], [[0.016956768929958344, 0.01728978008031845, 0.0866297259926796, 0.07251410186290741, 0.012946811504662037, 0.008632441982626915, 0.03236901015043259, 0.010155787691473961, 0.0128620071336627, 0.11576476693153381, 0.009934486821293831, 0.05092753469944, 0.010685829445719719, 0.01457978319376707, 0.17085403203964233, 0.06270473450422287, 0.029923783615231514, 0.014821825549006462, 0.17229989171028137, 0.05406956002116203, 0.023077331483364105], [0.0592241995036602, 0.12455525249242783, 0.007334803696721792, 0.0385427288711071, 0.0067280735820531845, 0.006792048458009958, 0.0050664437003433704, 0.00793974194675684, 0.135592520236969, 0.010196843184530735, 0.060358479619026184, 0.021767474710941315, 0.010797180235385895, 0.1530151665210724, 0.0138260992243886, 0.004746866878122091, 0.01060244906693697, 0.16723798215389252, 0.01568109355866909, 0.006070866249501705, 0.1339236944913864], [0.06141079217195511, 0.10064420849084854, 0.030074743553996086, 0.0454724095761776, 0.019384250044822693, 0.004019748419523239, 0.004170308355242014, 0.003227550070732832, 0.14190280437469482, 0.00565683376044035, 0.04541618749499321, 0.09283606708049774, 0.03262526914477348, 0.16529840230941772, 0.010735844261944294, 0.014944059774279594, 0.008409115485846996, 0.19142362475395203, 0.0032291696406900883, 0.0029457185883075, 0.016172975301742554], [0.060280293226242065, 0.0940147265791893, 0.017205191776156425, 0.18473009765148163, 0.044914159923791885, 0.002820930676534772, 0.004557513166218996, 0.0261982511729002, 0.06154142692685127, 0.0029327792581170797, 0.08508039265871048, 0.08521995693445206, 0.06560882180929184, 0.0697995200753212, 0.008532408624887466, 0.03100445307791233, 0.03230791911482811, 0.07348962128162384, 0.0007990087033249438, 0.00390210235491395, 0.04506031051278114], [0.03439175337553024, 0.13200002908706665, 0.017638055607676506, 0.1063259169459343, 0.033725954592227936, 0.004164358600974083, 0.006914373021572828, 0.01866116002202034, 0.10797541588544846, 0.0020970685873180628, 0.05676412582397461, 0.08581853657960892, 0.055980999022722244, 0.11983880400657654, 0.009758220054209232, 0.027006709948182106, 0.019723394885659218, 0.134922593832016, 0.001056542037986219, 0.004063213709741831, 0.021172836422920227], [0.05864200368523598, 0.12392149865627289, 0.045705318450927734, 0.03051467426121235, 0.00673770671710372, 0.015989575535058975, 0.056195396929979324, 0.061714839190244675, 0.08859152346849442, 0.02992890402674675, 0.023062365129590034, 0.035559531301259995, 0.00799754448235035, 0.09505140036344528, 0.05803735926747322, 0.03705764561891556, 0.017026258632540703, 0.09696924686431885, 0.03775410354137421, 0.022648358717560768, 0.05089472606778145], [0.05795368552207947, 0.1065363809466362, 0.013194840401411057, 0.004953852389007807, 0.0009356404189020395, 0.012519508600234985, 0.2060249298810959, 0.0513240247964859, 0.14917849004268646, 0.026452332735061646, 0.008973551914095879, 0.015154954046010971, 0.0014171949587762356, 0.1412387490272522, 0.0073704794049263, 0.005927968770265579, 0.0010692275827750564, 0.16211530566215515, 0.00895825494080782, 0.014072200283408165, 0.004628402646631002], [0.0561528354883194, 0.10274800658226013, 0.013531561009585857, 0.026605548337101936, 0.003637425135821104, 0.007259730715304613, 0.023168154060840607, 0.34780704975128174, 0.05118497833609581, 0.016919216141104698, 0.034588590264320374, 0.027684463188052177, 0.004028365481644869, 0.0498107373714447, 0.02590148150920868, 0.016784271225333214, 0.0694127306342125, 0.050097912549972534, 0.00785838533192873, 0.008071168325841427, 0.056747399270534515], [0.048944029957056046, 0.10865237563848495, 0.010629653930664062, 0.023540480062365532, 0.008592830039560795, 0.019974222406744957, 0.015077083371579647, 0.011233467608690262, 0.15895405411720276, 0.018536198884248734, 0.033855754882097244, 0.01541841309517622, 0.012330548837780952, 0.17207324504852295, 0.018930206075310707, 0.006481054238975048, 0.010016501881182194, 0.18642880022525787, 0.028684835880994797, 0.010964732617139816, 0.08068138360977173], [0.12899962067604065, 0.06477738171815872, 0.014683390036225319, 0.015196274034678936, 0.0031524065416306257, 0.007627241779118776, 0.03545650839805603, 0.009163197129964828, 0.1407334804534912, 0.05926088988780975, 0.019685938954353333, 0.035661254078149796, 0.006026285234838724, 0.15928584337234497, 0.02041587419807911, 0.010906042531132698, 0.004256510175764561, 0.18600255250930786, 0.021216081455349922, 0.02076699025928974, 0.03672623261809349], [0.08459386974573135, 0.10993555188179016, 0.014367122203111649, 0.08738791197538376, 0.008048278279602528, 0.0025428200606256723, 0.0034106075763702393, 0.021350804716348648, 0.06731801480054855, 0.009388062171638012, 0.09043552726507187, 0.06060003861784935, 0.013470137491822243, 0.07623303681612015, 0.02087763138115406, 0.017018413171172142, 0.033031340688467026, 0.0790872722864151, 0.008111757226288319, 0.00795651599764824, 0.18483521044254303], [0.037418704479932785, 0.09548862278461456, 0.014242513105273247, 0.02197706326842308, 0.009919763542711735, 0.002020255196839571, 0.002002790803089738, 0.0029251491650938988, 0.19433768093585968, 0.001312093809247017, 0.019450917840003967, 0.04923957586288452, 0.018614185974001884, 0.22544284164905548, 0.0054831127636134624, 0.013249575160443783, 0.007390313781797886, 0.2682712972164154, 0.001224770792759955, 0.0018770445603877306, 0.008111713454127312], [0.025231393054127693, 0.11248927563428879, 0.00885181874036789, 0.06902534514665604, 0.017136218026280403, 0.003980450332164764, 0.004599501378834248, 0.005896928254514933, 0.15730172395706177, 0.0015704130055382848, 0.04620470851659775, 0.054003115743398666, 0.04256740212440491, 0.18122746050357819, 0.009640670381486416, 0.02342223934829235, 0.012584553100168705, 0.20762692391872406, 0.0012912346282973886, 0.005531445145606995, 0.009817153215408325], [0.04672977328300476, 0.1083475723862648, 0.011791062541306019, 0.024974724277853966, 0.010508725419640541, 0.02278664894402027, 0.013750871643424034, 0.010998055338859558, 0.15993162989616394, 0.016405221074819565, 0.03484301269054413, 0.01624394953250885, 0.014387342147529125, 0.17282694578170776, 0.01965782418847084, 0.00814697053283453, 0.011322625912725925, 0.18651962280273438, 0.027102718129754066, 0.01105071883648634, 0.07167407870292664], [0.07385008037090302, 0.1090167835354805, 0.01718119904398918, 0.021734485402703285, 0.002341628074645996, 0.004025880713015795, 0.005918886512517929, 0.012104210443794727, 0.16563884913921356, 0.026670970022678375, 0.014066234230995178, 0.02219189889729023, 0.004838380962610245, 0.17164677381515503, 0.04135395959019661, 0.04117099940776825, 0.0300747137516737, 0.1932811737060547, 0.017659075558185577, 0.016121478751301765, 0.009112359024584293], [0.0740576907992363, 0.12450524419546127, 0.040192861109972, 0.02855600416660309, 0.0028054139111191034, 0.0016736456891521811, 0.0034769431222230196, 0.01524922251701355, 0.06628011167049408, 0.022706901654601097, 0.03241705149412155, 0.053700972348451614, 0.006680577527731657, 0.07010043412446976, 0.08159341663122177, 0.18864013254642487, 0.05888623744249344, 0.07254905998706818, 0.017353525385260582, 0.014092556200921535, 0.02448197640478611], [0.05537812411785126, 0.16103437542915344, 0.017738979309797287, 0.03175760805606842, 0.005463202018290758, 0.003785621840506792, 0.0024823553394526243, 0.0588991753757, 0.07384084165096283, 0.005281883757561445, 0.044555116444826126, 0.02576364390552044, 0.005136751104146242, 0.07844440639019012, 0.052008263766765594, 0.04929633438587189, 0.21208113431930542, 0.07461679726839066, 0.009145529940724373, 0.006179902236908674, 0.027109995484352112], [0.04578157141804695, 0.1048470139503479, 0.012576840817928314, 0.026177536696195602, 0.013006333261728287, 0.02658151648938656, 0.015477742999792099, 0.012275408953428268, 0.15654633939266205, 0.017050232738256454, 0.035810377448797226, 0.016721324995160103, 0.016864750534296036, 0.16826851665973663, 0.019745685160160065, 0.008576763793826103, 0.011849614791572094, 0.18115021288394928, 0.02721536159515381, 0.01150540355592966, 0.07197137922048569], [0.13519549369812012, 0.05969064682722092, 0.007459512911736965, 0.0099762212485075, 0.0032536182552576065, 0.004309059586375952, 0.003947522025555372, 0.0024090076331049204, 0.13739602267742157, 0.02596285380423069, 0.016526231542229652, 0.016376635059714317, 0.009148158133029938, 0.15838950872421265, 0.03658036142587662, 0.017578694969415665, 0.009435496293008327, 0.1772729456424713, 0.1015707403421402, 0.03489971160888672, 0.032621633261442184], [0.06406347453594208, 0.05607611685991287, 0.038343071937561035, 0.015338542871177197, 0.0045785801485180855, 0.005457836203277111, 0.004342021886259317, 0.002297076163813472, 0.07726312428712845, 0.023982318118214607, 0.01784414052963257, 0.07072671502828598, 0.011553255841135979, 0.09786482155323029, 0.18523883819580078, 0.04889819025993347, 0.007150885183364153, 0.10507302731275558, 0.05584118515253067, 0.07427139580249786, 0.033795446157455444], [0.050595276057720184, 0.06334611773490906, 0.02262980304658413, 0.08186879009008408, 0.018744494765996933, 0.02005663327872753, 0.013954670168459415, 0.025555608794093132, 0.0493038147687912, 0.039459437131881714, 0.07743380963802338, 0.0603085495531559, 0.031396105885505676, 0.055203188210725784, 0.08919797837734222, 0.03932248055934906, 0.04270097240805626, 0.053945142775774, 0.029354553669691086, 0.019245175644755363, 0.11637742817401886]], [[0.010822062380611897, 0.004476502072066069, 0.0006925990455783904, 0.005650034174323082, 0.001246964791789651, 0.00017207744531333447, 0.02222689613699913, 0.006497182883322239, 0.013678724877536297, 0.08434079587459564, 0.009396256878972054, 0.0019473172724246979, 0.002227775752544403, 0.013878882862627506, 0.03593292832374573, 0.0038008939009159803, 0.008112975396215916, 0.016098691150546074, 0.13418753445148468, 0.0468321219086647, 0.5777807831764221], [0.03023083508014679, 0.1043064147233963, 0.012301059439778328, 0.008284443989396095, 0.005288528744131327, 0.0015215035527944565, 0.018241100013256073, 0.003865279257297516, 0.18093538284301758, 0.005193051416426897, 0.005015116650611162, 0.0024655035231262445, 0.0023414308670908213, 0.23247002065181732, 0.009035198949277401, 0.00292561249807477, 0.00724406260997057, 0.285398006439209, 0.009807981550693512, 0.005351656582206488, 0.06777774542570114], [0.005642274394631386, 0.39418700337409973, 0.01800733432173729, 0.009097202681005001, 0.0021279631182551384, 2.78275092568947e-05, 0.000638253171928227, 0.0010160404490306973, 0.16594839096069336, 0.0009990474209189415, 0.00726938946172595, 0.0007819195161573589, 0.0002610989904496819, 0.15950390696525574, 0.0006415424286387861, 0.0002733573201112449, 0.0023463896941393614, 0.19932086765766144, 0.0008805810939520597, 0.00044700285070575774, 0.030582506209611893], [0.007350664120167494, 0.17178282141685486, 0.34179404377937317, 0.017119696363806725, 0.008931784890592098, 0.0017255006823688745, 0.007270327303558588, 0.00092871900415048, 0.1004021093249321, 0.004131050780415535, 0.002262962982058525, 0.002859982429072261, 0.0002180768206017092, 0.13107506930828094, 0.0007064938545227051, 0.0003175140591338277, 0.0008815819746814668, 0.17102797329425812, 0.004329407121986151, 0.002439767587929964, 0.022444510832428932], [0.0015337126096710563, 0.048131346702575684, 0.36606186628341675, 0.4499838948249817, 0.025440838187932968, 0.0005185487098060548, 0.012968616560101509, 9.288160072173923e-05, 0.020544545724987984, 0.00040476518915966153, 0.0005766827962361276, 0.0030366857536137104, 9.498443978372961e-05, 0.026237960904836655, 0.0001820429170038551, 3.025719524885062e-05, 4.001536944997497e-05, 0.03630480542778969, 0.0009450875804759562, 0.00030171903199516237, 0.006568684708327055], [0.00300592090934515, 0.067644402384758, 0.029873725026845932, 0.03813280165195465, 0.22597070038318634, 0.0015654921298846602, 0.0408017635345459, 0.0032034318428486586, 0.1434660255908966, 0.007098971400409937, 0.0010543788084760308, 0.0021237770561128855, 0.005118921399116516, 0.1908806562423706, 0.0027077565900981426, 0.0005618951981887221, 0.0008282008930109441, 0.21878574788570404, 0.0011471760226413608, 0.0009856049437075853, 0.015042608603835106], [0.0027382690459489822, 0.14131608605384827, 0.023150194436311722, 0.08832287043333054, 0.04593224078416824, 0.005408133380115032, 0.03298337012529373, 0.005524338688701391, 0.19513623416423798, 0.003604946890845895, 0.004031731281429529, 0.0012008395278826356, 0.0003746810834854841, 0.19007954001426697, 0.0012190366396680474, 0.0007018912001512945, 0.0008895918144844472, 0.2464367151260376, 0.0007411405676975846, 0.0005547805922105908, 0.009653444401919842], [0.009027098305523396, 0.03664761036634445, 0.00788814015686512, 0.06890738010406494, 0.045788977295160294, 0.014636002480983734, 0.5463791489601135, 0.01318313553929329, 0.06996408104896545, 0.01781453751027584, 0.003486656118184328, 0.0004812234838027507, 0.0001597121445229277, 0.06136561930179596, 0.010150078684091568, 0.0019090338610112667, 0.0016942168585956097, 0.08037146180868149, 0.0027540456503629684, 0.0009756148210726678, 0.006416289135813713], [0.03137415647506714, 0.09349623322486877, 0.014951560646295547, 0.025844858959317207, 0.0326908677816391, 0.01682710088789463, 0.033237945288419724, 0.013722384348511696, 0.17517292499542236, 0.011730103753507137, 0.018643971532583237, 0.007872694171965122, 0.01106036826968193, 0.1952371746301651, 0.02580547146499157, 0.009055771864950657, 0.013027861714363098, 0.21813392639160156, 0.016519734635949135, 0.010321895591914654, 0.025273004546761513], [0.000771096209064126, 0.15780024230480194, 0.0021501840092241764, 0.006013185251504183, 0.043243538588285446, 0.00044238753616809845, 0.04201063513755798, 0.017518827691674232, 0.26356416940689087, 0.04682230204343796, 0.00591263547539711, 0.00013015624426770955, 0.0001935284526553005, 0.15817791223526, 0.001091936370357871, 0.0002444521232973784, 0.0006520678871311247, 0.20829489827156067, 0.0007596506038680673, 0.00018304069817531854, 0.04402308538556099], [0.01582987792789936, 0.031253427267074585, 0.045437417924404144, 0.027164217084646225, 0.018101966008543968, 0.0117035498842597, 0.21225745975971222, 0.04340497776865959, 0.07578504830598831, 0.28275108337402344, 0.015524640679359436, 0.011280683800578117, 0.0008127902983687818, 0.06249185651540756, 0.006216675043106079, 0.0029065588023513556, 0.005610192194581032, 0.08356060087680817, 0.013864508830010891, 0.011446971446275711, 0.022595474496483803], [0.004874545149505138, 0.11166055500507355, 0.0028897197917103767, 0.001674397150054574, 0.0003820355050265789, 7.058344635879621e-06, 0.00032183731673285365, 0.000904690707102418, 0.19869723916053772, 0.0033842031843960285, 0.18214809894561768, 0.03665005415678024, 0.0027829045429825783, 0.19985051453113556, 0.0009188026306219399, 0.0003892468230333179, 0.0034885555505752563, 0.24088223278522491, 0.001227053115144372, 0.0009421512368135154, 0.005924227647483349], [0.0011662573087960482, 0.010110809467732906, 0.005383587907999754, 0.005026825703680515, 0.0001987835275940597, 7.328762876568362e-05, 0.0009359708637930453, 3.228678906452842e-05, 0.020220672711730003, 0.0005238072481006384, 0.07581023126840591, 0.7755428552627563, 0.021044619381427765, 0.037100814282894135, 0.004927222616970539, 0.0008728168322704732, 0.0007291364599950612, 0.03686773404479027, 0.0016859908355399966, 0.000814329890999943, 0.0009320569224655628], [0.03557707741856575, 0.09419386088848114, 0.014487532898783684, 0.023890307173132896, 0.024290436878800392, 0.012593263760209084, 0.017985258251428604, 0.010173244401812553, 0.16249684989452362, 0.007418938912451267, 0.03430987522006035, 0.019819699227809906, 0.027819974347949028, 0.19378304481506348, 0.027454880997538567, 0.011547086760401726, 0.015141456387937069, 0.2072765976190567, 0.01845853216946125, 0.013292471878230572, 0.02798967994749546], [0.001109737902879715, 0.04806201159954071, 0.0005635992856696248, 0.0010429293615743518, 0.004196573048830032, 0.0006457724375650287, 0.0008525513112545013, 0.0008616052800789475, 0.17623291909694672, 0.0003623097436502576, 0.011748827062547207, 0.023423295468091965, 0.09444175660610199, 0.3133026659488678, 0.04654809087514877, 0.0147026302292943, 0.009375132620334625, 0.2435910403728485, 0.000986789702437818, 0.0013557759812101722, 0.006594034377485514], [0.002272841287776828, 0.03872928023338318, 0.0015794679056853056, 0.0027041826397180557, 0.0028017263393849134, 0.0006434863316826522, 0.010988077148795128, 0.001676816027611494, 0.1213376522064209, 0.001958402805030346, 0.009731286205351353, 0.04114293307065964, 0.07889560610055923, 0.21938876807689667, 0.1676422506570816, 0.024475354701280594, 0.050928995013237, 0.19454477727413177, 0.015964994207024574, 0.007751816418021917, 0.004841316491365433], [0.002010077005252242, 0.02246691659092903, 0.0006226325640454888, 0.0006001590518280864, 0.0009078813600353897, 0.0004621894040610641, 0.002486859681084752, 0.00026045928825624287, 0.056582044810056686, 0.001572690554894507, 0.007743361406028271, 0.008432288654148579, 0.019770674407482147, 0.08960329741239548, 0.4537457525730133, 0.17341169714927673, 0.06914997845888138, 0.07753685116767883, 0.007502750493586063, 0.00393314566463232, 0.0011983126169070601], [0.04005357623100281, 0.09275057166814804, 0.01658535934984684, 0.02624647691845894, 0.025980539619922638, 0.015428257174789906, 0.022802313789725304, 0.0134056955575943, 0.15902872383594513, 0.009664821438491344, 0.028906431049108505, 0.015823788940906525, 0.01977384462952614, 0.18316690623760223, 0.03042065165936947, 0.013360549695789814, 0.018261658027768135, 0.19907422363758087, 0.023505352437496185, 0.01575617492198944, 0.030004028230905533], [0.0009072548127733171, 0.03857399523258209, 0.00034733666689135134, 0.0001563674013596028, 0.00014572430518455803, 4.031691423733719e-05, 0.0007727781194262207, 0.0006498398724943399, 0.12496663630008698, 0.0024327258579432964, 0.0016280250856652856, 0.0009180674096569419, 0.0027866866439580917, 0.1901903599500656, 0.23447296023368835, 0.05106959864497185, 0.10662072896957397, 0.19862139225006104, 0.02773328311741352, 0.008180657401680946, 0.008785292506217957], [0.00108842714689672, 0.026098862290382385, 0.0002335937024326995, 9.831810893956572e-05, 9.972791303880513e-05, 1.111091023631161e-05, 0.0006018993444740772, 0.0002037551166722551, 0.09277713298797607, 0.003128738608211279, 0.0015038130804896355, 0.0013038150500506163, 0.0033275929745286703, 0.1573304533958435, 0.31491801142692566, 0.039536189287900925, 0.09974519163370132, 0.166488379240036, 0.0596633180975914, 0.0242779403924942, 0.007563684601336718], [0.08759750425815582, 0.027438515797257423, 0.0013750104699283838, 0.006686054170131683, 0.001550712389871478, 0.0025016432628035545, 0.03073069266974926, 0.007120825350284576, 0.08670932799577713, 0.005707016214728355, 0.013652753084897995, 0.0024019116535782814, 0.0038363283965736628, 0.14649765193462372, 0.025428378954529762, 0.010673336684703827, 0.04075728356838226, 0.16491954028606415, 0.09898398071527481, 0.138719379901886, 0.09671211987733841]], [[0.030850015580654144, 0.05340120568871498, 0.00888868048787117, 0.026969194412231445, 0.004207184072583914, 0.011603490449488163, 0.003953779116272926, 0.006348504219204187, 0.1556011140346527, 0.03963147848844528, 0.014443431049585342, 0.017517535015940666, 0.004262661561369896, 0.19821901619434357, 0.029538748785853386, 0.008375451900064945, 0.024765754118561745, 0.23772487044334412, 0.09243772178888321, 0.01751244068145752, 0.0137476846575737], [0.023570677265524864, 0.166139617562294, 0.023981058970093727, 0.024584386497735977, 0.006775667890906334, 0.0011137891560792923, 0.001992123434320092, 0.0031784868333488703, 0.170742005109787, 0.002668034518137574, 0.010167506523430347, 0.006599877495318651, 0.0022554025053977966, 0.23982395231723785, 0.0034926848020404577, 0.0028892012778669596, 0.004592027980834246, 0.27008289098739624, 0.0049382164143025875, 0.001725118956528604, 0.028687160462141037], [0.02073725499212742, 0.2579886317253113, 0.1675952672958374, 0.05272988975048065, 0.007241316605359316, 0.00015926247579045594, 0.000423261895775795, 0.0007082548690959811, 0.08789197355508804, 0.000794177467469126, 0.006378852296620607, 0.00880657508969307, 0.001993203070014715, 0.1410677284002304, 0.0015879165148362517, 0.001426509814336896, 0.0036883847787976265, 0.16685663163661957, 0.001014617388136685, 0.0012386706657707691, 0.06967159360647202], [0.006207895465195179, 0.3320947289466858, 0.17945586144924164, 0.06761467456817627, 0.006911169737577438, 0.0005062310956418514, 0.0003783376014325768, 0.00034364164457656443, 0.08775363117456436, 0.0002894560166168958, 0.001844568527303636, 0.0011646680068224669, 0.00019283886649645865, 0.12798666954040527, 0.000445997720817104, 0.00014846267004031688, 0.00019899086328223348, 0.1687241941690445, 0.0006136371521279216, 0.000314912322210148, 0.016809409484267235], [0.0002369331195950508, 0.03816057741641998, 0.16185086965560913, 0.7064183354377747, 0.010453466325998306, 6.231426232261583e-05, 0.00019397854339331388, 0.00010697954712668434, 0.01534662488847971, 2.2473950593848713e-05, 0.00015611041453666985, 0.0008821962401270866, 7.248932524817064e-05, 0.026721475645899773, 0.00016258213145192713, 0.00011373098095646128, 5.257290104054846e-05, 0.03512883186340332, 0.00011163689487148076, 0.0010514574823901057, 0.0026944626588374376], [0.001680770074017346, 0.025995170697569847, 0.009137487038969994, 0.059981752187013626, 0.6629260182380676, 0.0016725265886634588, 0.005895733367651701, 0.0013367662904784083, 0.05148165673017502, 0.0001999350351979956, 0.0013073652517050505, 0.0014587988844141364, 0.0027821650728583336, 0.07449471205472946, 0.001363925519399345, 0.0005738826002925634, 0.00019291536591481417, 0.09104941785335541, 0.0007224977598525584, 0.0005123683949932456, 0.005234202835708857], [0.0020735354628413916, 0.0726827010512352, 0.12623213231563568, 0.08771886676549911, 0.4157029986381531, 0.0267634280025959, 0.0026209456846117973, 0.0035121969413012266, 0.06144450604915619, 0.0011585729662328959, 0.003722101915627718, 0.005334538407623768, 0.0005827243439853191, 0.08178305625915527, 0.0017352727008983493, 0.00032221077708527446, 0.000258957123151049, 0.10071462392807007, 0.0014135949313640594, 0.0002874000638257712, 0.0039355880580842495], [0.0012535292189568281, 0.05017557367682457, 0.013259230181574821, 0.03277122601866722, 0.21680618822574615, 0.12935730814933777, 0.19618114829063416, 0.017410874366760254, 0.08656562119722366, 0.013057970441877842, 0.0009215290192514658, 0.0003305741702206433, 0.00029435750911943614, 0.10305695980787277, 0.0023659365251660347, 0.0006347537855617702, 0.00021517991262953728, 0.12834331393241882, 0.003788790199905634, 0.001275236252695322, 0.0019347519846633077], [0.04770423471927643, 0.11493519693613052, 0.025852959603071213, 0.03640232980251312, 0.04472741112112999, 0.023049388080835342, 0.017581138759851456, 0.03075958602130413, 0.14552783966064453, 0.02275196462869644, 0.043916426599025726, 0.011278651654720306, 0.009126353077590466, 0.15375997126102448, 0.01307801716029644, 0.01130667980760336, 0.019244281575083733, 0.15867474675178528, 0.0190349780023098, 0.012698313221335411, 0.03858966380357742], [0.001955496147274971, 0.012730185873806477, 0.0028847865760326385, 0.023365840315818787, 0.054026827216148376, 0.019157886505126953, 0.668239414691925, 0.04122946411371231, 0.04471607878804207, 0.018617402762174606, 0.0003211993316654116, 0.0004142812977079302, 0.0003032736130990088, 0.04349912330508232, 0.001534311450086534, 0.0005977250402793288, 0.0006959933671168983, 0.058600589632987976, 0.001434125704690814, 0.0002004246780415997, 0.005475539714097977], [0.005135588813573122, 0.07141309976577759, 0.017145123332738876, 0.046068571507930756, 0.01081113237887621, 0.000566649017855525, 0.016738278791308403, 0.005999492947012186, 0.21353420615196228, 0.017811035737395287, 0.005205693654716015, 0.001805052743293345, 0.000807248696219176, 0.24525581300258636, 0.0018561473116278648, 0.0012004250893369317, 0.003443047869950533, 0.3174169063568115, 0.0031405340414494276, 0.0005845814011991024, 0.014061440713703632], [0.007549743168056011, 0.10175487399101257, 0.011470643803477287, 0.009982302784919739, 0.0005468634772114456, 2.2175667254487053e-05, 0.00015668162086512893, 0.0002310275158379227, 0.15725985169410706, 0.0014518602984026074, 0.07116875052452087, 0.024654917418956757, 0.006560844834893942, 0.27648109197616577, 0.000976627808995545, 0.0014440453378483653, 0.004323353059589863, 0.3096560835838318, 0.0007193175260908902, 0.0004393159761093557, 0.013149619102478027], [0.0006472758832387626, 0.022210458293557167, 0.012153703719377518, 0.012026146985590458, 5.138110282132402e-05, 8.186559171008412e-06, 9.87190014711814e-06, 2.0830701032537036e-05, 0.037254903465509415, 3.310037209303118e-05, 0.042969003319740295, 0.6495800018310547, 0.014752723276615143, 0.10069828480482101, 0.003476687241345644, 0.0014381918590515852, 0.0009610566194169223, 0.09768793731927872, 0.00024802942061796784, 0.002157810376957059, 0.0016144461696967483], [0.056758008897304535, 0.11156806349754333, 0.02515110746026039, 0.03191101551055908, 0.03288554027676582, 0.012714406475424767, 0.0064925397746264935, 0.017284180968999863, 0.13099081814289093, 0.011982522904872894, 0.08520177006721497, 0.02477392368018627, 0.02081388793885708, 0.14952543377876282, 0.016496751457452774, 0.015546816401183605, 0.02350492775440216, 0.14709721505641937, 0.01886315830051899, 0.016924096271395683, 0.043513864278793335], [0.005314868874847889, 0.03185829520225525, 0.0072760069742798805, 0.003158262697979808, 0.002867578063160181, 0.0015993433771654963, 0.0014973672805354, 0.0007367633515968919, 0.05640823394060135, 0.0004360913299024105, 0.04049934819340706, 0.2761993408203125, 0.23657576739788055, 0.13808824121952057, 0.03391595557332039, 0.01399530190974474, 0.009782476350665092, 0.11834122985601425, 0.007106877397745848, 0.0073646302334964275, 0.0069780535995960236], [0.003367385594174266, 0.016962647438049316, 0.010599933564662933, 0.004961428232491016, 0.007040356285870075, 0.0022481943015009165, 0.003730917815119028, 0.001479785656556487, 0.03222506120800972, 0.000891595147550106, 0.0064482614398002625, 0.15784241259098053, 0.4709221124649048, 0.08983968943357468, 0.05022651329636574, 0.011521758511662483, 0.010397694073617458, 0.08143904060125351, 0.012167870998382568, 0.011072222143411636, 0.014615107327699661], [0.002958417870104313, 0.046402398496866226, 0.003077143570408225, 0.0026193850208073854, 0.007195658516138792, 0.007123549934476614, 0.019867338240146637, 0.0029019855428487062, 0.08305522054433823, 0.0012436810648068786, 0.01596178114414215, 0.039044324308633804, 0.18675968050956726, 0.18815630674362183, 0.14431849122047424, 0.037549491971731186, 0.012104032561182976, 0.1674298197031021, 0.013680022209882736, 0.012398524209856987, 0.006152731832116842], [0.06343746930360794, 0.11613092571496964, 0.02719932422041893, 0.032444849610328674, 0.038904376327991486, 0.01775265485048294, 0.008859077468514442, 0.023839376866817474, 0.1259298175573349, 0.016819331794977188, 0.07757792621850967, 0.018043868243694305, 0.015695005655288696, 0.13483935594558716, 0.016580477356910706, 0.01695130206644535, 0.026468465104699135, 0.13329550623893738, 0.022256214171648026, 0.019557368010282516, 0.047417230904102325], [0.003270722460001707, 0.02398030087351799, 0.0021637906320393085, 0.0008234056294895709, 0.0004921231302432716, 0.0010616076178848743, 0.0017260645981878042, 0.0009890776127576828, 0.07024186849594116, 0.0002239509194623679, 0.002404812490567565, 0.01272306777536869, 0.0202623400837183, 0.14519129693508148, 0.2712351977825165, 0.15029993653297424, 0.10280467569828033, 0.15034405887126923, 0.01735375076532364, 0.015507793985307217, 0.006900222040712833], [0.0035019649658352137, 0.010512949898838997, 0.001728647854179144, 0.0012480823788791895, 0.003316567512229085, 0.00016290819621644914, 0.00032720534363761544, 0.0009917431743815541, 0.03387197107076645, 4.175350477453321e-05, 0.0015761328395456076, 0.03528347238898277, 0.16809587180614471, 0.0966365709900856, 0.10842669755220413, 0.09420639276504517, 0.2932766079902649, 0.09272617846727371, 0.0071482788771390915, 0.023735487833619118, 0.02318449690937996], [0.023343412205576897, 0.0648403987288475, 0.0019593171309679747, 0.018608512356877327, 0.0006025502807460725, 0.00011615423863986507, 0.00010178679804084823, 8.466570579912513e-05, 0.1642170399427414, 0.0015420889249071479, 0.01677181012928486, 0.007582422345876694, 0.0014545280719175935, 0.2958301603794098, 0.01097562164068222, 0.0024643954820930958, 0.00989055447280407, 0.32447654008865356, 0.04522058367729187, 0.004920255392789841, 0.004997273441404104]], [[0.0038570533506572247, 0.015065696090459824, 0.025105740875005722, 0.07174159586429596, 0.029300186783075333, 0.001873518107458949, 0.01717486046254635, 0.008558781817555428, 0.02070779912173748, 0.05812385305762291, 0.02233591303229332, 0.1615253984928131, 0.15427975356578827, 0.030429130420088768, 0.063545823097229, 0.024669261649250984, 0.07529814541339874, 0.031229326501488686, 0.08992297947406769, 0.081186942756176, 0.014068204909563065], [0.02214798331260681, 0.13681933283805847, 0.019742023199796677, 0.018939897418022156, 0.012813812121748924, 0.0025864369235932827, 0.004409679211676121, 0.009372626431286335, 0.1814049631357193, 0.008580021560192108, 0.010128961876034737, 0.00959512498229742, 0.0070525603368878365, 0.2309841364622116, 0.006713496055454016, 0.003726423252373934, 0.01359529048204422, 0.2571150064468384, 0.003799036145210266, 0.0015491185477003455, 0.03892412409186363], [0.003920403309166431, 0.19452932476997375, 0.04156392067670822, 0.022402672097086906, 0.02438737452030182, 0.0006022803718224168, 0.004022759385406971, 0.003681013360619545, 0.15504227578639984, 0.002156284637749195, 0.0028929784893989563, 0.0078599127009511, 0.014912581071257591, 0.23000884056091309, 0.0035607991740107536, 0.003203400643542409, 0.005888086743652821, 0.2528213560581207, 0.000752582389395684, 0.0007645516307093203, 0.025026580318808556], [0.011162392795085907, 0.30479246377944946, 0.3193446695804596, 0.026134835556149483, 0.004688255023211241, 0.00019011995755136013, 0.000495665764901787, 0.0017890878953039646, 0.07371097803115845, 0.0019501022761687636, 0.019136080518364906, 0.01213818695396185, 0.0011731614358723164, 0.08941719681024551, 0.001167213311418891, 0.0015365300932899117, 0.004600611515343189, 0.09758280217647552, 0.0003900723240803927, 0.0002072025090456009, 0.028392594307661057], [0.0045172986574471, 0.1228243038058281, 0.7320530414581299, 0.017682991921901703, 0.0026212637312710285, 2.9997556339367293e-05, 8.094985241768882e-05, 0.00019718024122994393, 0.01760675571858883, 0.00030424565193243325, 0.007136023603379726, 0.02740420028567314, 0.00040099749458022416, 0.019367201253771782, 0.00017297799058724195, 0.00026901037199422717, 0.0009560139151290059, 0.021556859835982323, 0.0006932872347533703, 0.0001559706433909014, 0.023969478905200958], [0.014233548194169998, 0.21860629320144653, 0.0609547384083271, 0.02386115863919258, 0.014966879040002823, 0.013375354930758476, 0.021267792209982872, 0.014086151495575905, 0.1453128159046173, 0.02977822534739971, 0.012831548228859901, 0.012405640445649624, 0.003588135587051511, 0.1622752547264099, 0.005499204155057669, 0.00695794727653265, 0.006053643766790628, 0.18303444981575012, 0.0062559801153838634, 0.005172601900994778, 0.039482634514570236], [0.029528237879276276, 0.16769644618034363, 0.07959213107824326, 0.08339279145002365, 0.05543957278132439, 0.01702551729977131, 0.03978709504008293, 0.0253201425075531, 0.11298231780529022, 0.05299465358257294, 0.012983715161681175, 0.0040761507116258144, 0.0017446802230551839, 0.12086561322212219, 0.0023729177191853523, 0.003809355664998293, 0.005942089483141899, 0.13437995314598083, 0.003752544755116105, 0.001274288515560329, 0.04503980651497841], [0.05214293673634529, 0.16792944073677063, 0.05508565902709961, 0.08772706240415573, 0.06363002210855484, 0.02927495911717415, 0.029731301590800285, 0.019921066239476204, 0.1106787696480751, 0.03550887480378151, 0.00405766349285841, 0.0007868337561376393, 0.001314187073148787, 0.1289195418357849, 0.004956345073878765, 0.0023586773313581944, 0.007625263649970293, 0.1437544822692871, 0.005727451294660568, 0.0012586265802383423, 0.04761091247200966], [0.05721297115087509, 0.10638420283794403, 0.02123001404106617, 0.024977609515190125, 0.027580182999372482, 0.014643974602222443, 0.012255003675818443, 0.023804571479558945, 0.16137604415416718, 0.02238609455525875, 0.021765802055597305, 0.01358126848936081, 0.013356818817555904, 0.17821380496025085, 0.013610883615911007, 0.01054712850600481, 0.02071145549416542, 0.19072973728179932, 0.014125440269708633, 0.006456371862441301, 0.045050621032714844], [0.022084936499595642, 0.10220210999250412, 0.0837259590625763, 0.18773968517780304, 0.1723998785018921, 0.02070791833102703, 0.10412117838859558, 0.023528145626187325, 0.06802362203598022, 0.010875459760427475, 0.004369243048131466, 0.001772936200723052, 0.001696837367489934, 0.07241902500391006, 0.002672836882993579, 0.0025528734549880028, 0.0019867660012096167, 0.08350493758916855, 0.001332057174295187, 0.000525193172506988, 0.03175836428999901], [0.01863505318760872, 0.0622236430644989, 0.3665468990802765, 0.25087469816207886, 0.1257811188697815, 0.004567922558635473, 0.019942084327340126, 0.010743090882897377, 0.0160642359405756, 0.008413402363657951, 0.00824693962931633, 0.018847143277525902, 0.005278878845274448, 0.018507663160562515, 0.0055342018604278564, 0.0018788445740938187, 0.005378220696002245, 0.02052907831966877, 0.0012281412491574883, 0.0009322899277321994, 0.029846476390957832], [0.02975107915699482, 0.14930689334869385, 0.08035317063331604, 0.032709427177906036, 0.060658201575279236, 0.0009640738135203719, 0.004407193977385759, 0.004210016690194607, 0.09715237468481064, 0.0013397213770076632, 0.024157654494047165, 0.06774546205997467, 0.06908711791038513, 0.14621834456920624, 0.009034245274960995, 0.006936580408364534, 0.012125290930271149, 0.15245123207569122, 0.0008758775074966252, 0.0007636739173904061, 0.04975241422653198], [0.0032133080530911684, 0.02324051782488823, 0.06609242409467697, 0.0024784256238490343, 0.0008249932434409857, 7.251881470438093e-06, 2.5958868718589656e-05, 6.181742355693132e-05, 0.012581725604832172, 0.00025335923419333994, 0.0821414515376091, 0.7535053491592407, 0.01413910835981369, 0.017913363873958588, 0.00043954592547379434, 0.0002060767583316192, 0.0007895022281445563, 0.01843372732400894, 0.0003407573967706412, 7.109959551598877e-05, 0.0032402854412794113], [0.06139130890369415, 0.09615250676870346, 0.017780831083655357, 0.01863495446741581, 0.02059452421963215, 0.011062119156122208, 0.008753483183681965, 0.02101733349263668, 0.1570328176021576, 0.021623719483613968, 0.03569577634334564, 0.02347363904118538, 0.02258368209004402, 0.17605771124362946, 0.015682514756917953, 0.013762162066996098, 0.02583702653646469, 0.18419155478477478, 0.015879064798355103, 0.008679240010678768, 0.04411416873335838], [0.012934285216033459, 0.0890103355050087, 0.01330916490405798, 0.012483973056077957, 0.009907033294439316, 0.0011178342392668128, 0.0015418389812111855, 0.004761046729981899, 0.12419459223747253, 0.006480050273239613, 0.05987372621893883, 0.06866810470819473, 0.053708646446466446, 0.18523387610912323, 0.05186140537261963, 0.02783123590052128, 0.037848033010959625, 0.1819450855255127, 0.026007147505879402, 0.008257422596216202, 0.02302526868879795], [0.03440004214644432, 0.04979950189590454, 0.010586777701973915, 0.015436549670994282, 0.01694280281662941, 0.004483948927372694, 0.0030027194879949093, 0.003968096803873777, 0.08554037660360336, 0.005132587626576424, 0.1073826402425766, 0.1280139535665512, 0.11434314399957657, 0.1339128464460373, 0.05561106279492378, 0.017745818942785263, 0.02353963814675808, 0.13121847808361053, 0.02304142154753208, 0.005261879414319992, 0.030635811388492584], [0.04746263474225998, 0.07462531328201294, 0.010788420215249062, 0.012525828555226326, 0.007931760512292385, 0.0012173914583399892, 0.000752574997022748, 0.00339575600810349, 0.11968440562486649, 0.008984468877315521, 0.07494917511940002, 0.02846258319914341, 0.041450466960668564, 0.19120721518993378, 0.05117448791861534, 0.016182390972971916, 0.07092390209436417, 0.1760108470916748, 0.020360473543405533, 0.004373691976070404, 0.03753618150949478], [0.06505708396434784, 0.09155790507793427, 0.01907474733889103, 0.021304678171873093, 0.025405168533325195, 0.014958101324737072, 0.01133777480572462, 0.02591857686638832, 0.14708027243614197, 0.026856793090701103, 0.03238065168261528, 0.020975856110453606, 0.02394162304699421, 0.1613376885652542, 0.018040543422102928, 0.016848454251885414, 0.029994983226060867, 0.16789773106575012, 0.020478013902902603, 0.01155825611203909, 0.04799516126513481], [0.018802886828780174, 0.07312579452991486, 0.007850633934140205, 0.002032223390415311, 0.002564030699431896, 0.001047527533955872, 0.0005733174039050937, 0.0005202855682000518, 0.08879608660936356, 0.0006890061777085066, 0.035167720168828964, 0.04185883328318596, 0.06381376087665558, 0.15966948866844177, 0.13203683495521545, 0.05692880228161812, 0.05186595022678375, 0.14416570961475372, 0.06937173753976822, 0.028314484283328056, 0.020804837346076965], [0.034082844853401184, 0.036577437072992325, 0.008830069564282894, 0.002263565780594945, 0.0030197317246347666, 0.0012307926081120968, 0.0009512116084806621, 0.0009153494029305875, 0.03359357267618179, 0.0013527884148061275, 0.07007353007793427, 0.11152425408363342, 0.15728819370269775, 0.061383720487356186, 0.18708065152168274, 0.10104450583457947, 0.048988956958055496, 0.05139468237757683, 0.03670414164662361, 0.023093506693840027, 0.0286064725369215], [0.017169974744319916, 0.028049355372786522, 0.02159053087234497, 0.021521851420402527, 0.008005170151591301, 0.0004945459077134728, 0.0010927480179816484, 0.001005191938020289, 0.023593472316861153, 0.002077211393043399, 0.07455601543188095, 0.39154988527297974, 0.11417528986930847, 0.04120206460356712, 0.03185964375734329, 0.015025734901428223, 0.0604468435049057, 0.039803795516490936, 0.030735855922102928, 0.023916322737932205, 0.05212851241230965]], [[0.039092037826776505, 0.003945772536098957, 0.036155372858047485, 0.07357285171747208, 0.011712799780070782, 0.009001405909657478, 0.030296390876173973, 0.00495451083406806, 0.009139323607087135, 0.14618201553821564, 0.013281634077429771, 0.11361196637153625, 0.010979252867400646, 0.013822616077959538, 0.11662506312131882, 0.030642032623291016, 0.01768076978623867, 0.015553902834653854, 0.23126135766506195, 0.05078352615237236, 0.02170550264418125], [0.04413697123527527, 0.09468413144350052, 0.02483016811311245, 0.021857785061001778, 0.012514567002654076, 0.0022669711615890265, 0.007970266044139862, 0.015908338129520416, 0.13222768902778625, 0.03251328691840172, 0.10002526640892029, 0.05542692169547081, 0.01606842689216137, 0.14453430473804474, 0.023960154503583908, 0.008356806822121143, 0.01673520728945732, 0.146837055683136, 0.014782269485294819, 0.02226541005074978, 0.062097981572151184], [0.002598443301394582, 0.014063753187656403, 0.12510627508163452, 0.44003984332084656, 0.04462079703807831, 0.002743580611422658, 0.01987640932202339, 0.003583352779969573, 0.01693955808877945, 0.07841936498880386, 0.010037247091531754, 0.14731287956237793, 0.015811461955308914, 0.024135636165738106, 0.00480488408356905, 0.0009091575047932565, 0.002050231210887432, 0.029413187876343727, 0.006108141504228115, 0.006147758569568396, 0.0052781011909246445], [0.0026856877375394106, 0.010280502960085869, 0.28878024220466614, 0.3130492866039276, 0.011613474227488041, 0.00035118547384627163, 0.002966392319649458, 0.0012939873849973083, 0.008636141195893288, 0.015610592439770699, 0.004735170863568783, 0.2705114483833313, 0.016989324241876602, 0.013244991190731525, 0.001767642330378294, 0.00046988410758785903, 0.0018285244004800916, 0.016428111121058464, 0.0022900376934558153, 0.0015379954129457474, 0.014929338358342648], [0.001909799175336957, 0.024593207985162735, 0.201237291097641, 0.36971160769462585, 0.04084939509630203, 0.000444492616225034, 0.0021430370397865772, 0.0011420431546866894, 0.030414024367928505, 0.004197811707854271, 0.00635167071595788, 0.16157080233097076, 0.023989416658878326, 0.0492074079811573, 0.0008372167940251529, 0.0002416738134343177, 0.0019653462804853916, 0.06390108913183212, 0.0025797919370234013, 0.003503837389871478, 0.00920905452221632], [0.023071669042110443, 0.0635918378829956, 0.09127422422170639, 0.07612384855747223, 0.023847375065088272, 0.002101111225783825, 0.012867486104369164, 0.010571125894784927, 0.06666625291109085, 0.05914365500211716, 0.03925815969705582, 0.10072492808103561, 0.013306627981364727, 0.09457222372293472, 0.02553599514067173, 0.004407474305480719, 0.018238428980112076, 0.10654973983764648, 0.06697718054056168, 0.025095032528042793, 0.0760757252573967], [0.0038235881365835667, 0.060373157262802124, 0.07077069580554962, 0.0725521519780159, 0.03577694296836853, 0.00521604809910059, 0.04607514664530754, 0.0068553779274225235, 0.0856536477804184, 0.09137671440839767, 0.014243273064494133, 0.11717252433300018, 0.01934710703790188, 0.12661480903625488, 0.0413808599114418, 0.00247646844945848, 0.006429556757211685, 0.14800727367401123, 0.023165076971054077, 0.012619907967746258, 0.010069670155644417], [0.006216017995029688, 0.07116192579269409, 0.0804147869348526, 0.08616732805967331, 0.034428566694259644, 0.0041080922819674015, 0.049529097974300385, 0.01091290544718504, 0.09049234539270401, 0.09349659085273743, 0.01592607982456684, 0.05343511328101158, 0.008269826881587505, 0.11971762776374817, 0.01884973794221878, 0.0013900358462706208, 0.007155662402510643, 0.14529117941856384, 0.0537547804415226, 0.010474256239831448, 0.03880801051855087], [0.10532539337873459, 0.11870136857032776, 0.005569671280682087, 0.00501012708991766, 0.010921060107648373, 0.00418436573818326, 0.005479311104863882, 0.023557310923933983, 0.17344938218593597, 0.010389474220573902, 0.07115423679351807, 0.008745064958930016, 0.013235924765467644, 0.16530583798885345, 0.018276188522577286, 0.014824975281953812, 0.019935719668865204, 0.16142651438713074, 0.00694689154624939, 0.01346577052026987, 0.04409542679786682], [0.0024629945401102304, 0.04564626142382622, 0.08184584230184555, 0.06445691734552383, 0.02311667799949646, 0.004074204713106155, 0.12721501290798187, 0.006275137420743704, 0.06307472288608551, 0.23170991241931915, 0.006340335123240948, 0.04196967929601669, 0.0073578376322984695, 0.08113495260477066, 0.06723421066999435, 0.0031799764838069677, 0.006468954961746931, 0.09905914217233658, 0.02299695461988449, 0.0032701303716748953, 0.011110156774520874], [0.0036516552790999413, 0.020614339038729668, 0.13349120318889618, 0.5642961263656616, 0.027959521859884262, 0.0016746389446780086, 0.010853555053472519, 0.002912411466240883, 0.015094755217432976, 0.03893361985683441, 0.006708503235131502, 0.07860921323299408, 0.012021898292005062, 0.022338775917887688, 0.002336613368242979, 0.0005395766929723322, 0.0018103037727996707, 0.026475071907043457, 0.007535440381616354, 0.0067361630499362946, 0.015406673774123192], [0.0014636027626693249, 0.013278478756546974, 0.07673329859972, 0.6901192665100098, 0.05475369840860367, 0.0011285565560683608, 0.007811473682522774, 0.0009673574240878224, 0.010942519642412663, 0.011533791199326515, 0.0024603158235549927, 0.06378725916147232, 0.017414560541510582, 0.01767575554549694, 0.0006847590557299554, 0.00020625170145649463, 0.0006301646353676915, 0.022485407069325447, 0.0010745084146037698, 0.0018613069551065564, 0.002987674903124571], [0.00027177008450962603, 0.006493990775197744, 0.11839339882135391, 0.6352142095565796, 0.02761877328157425, 0.0003977101296186447, 0.002326791873201728, 0.00028280768310651183, 0.0072549376636743546, 0.004397195763885975, 0.0009663779637776315, 0.12563428282737732, 0.034980371594429016, 0.012499148026108742, 0.0009716047206893563, 0.00011977594840573147, 0.0006699275691062212, 0.015881460160017014, 0.0018607954261824489, 0.0023087046574801207, 0.001455994206480682], [0.11344723403453827, 0.12013982981443405, 0.006647684145718813, 0.006428251508623362, 0.013981404714286327, 0.004957512021064758, 0.005205152090638876, 0.02721996046602726, 0.15744881331920624, 0.010093491524457932, 0.08521555364131927, 0.010589202865958214, 0.01731785759329796, 0.14880433678627014, 0.016997719183564186, 0.017429107800126076, 0.023441100493073463, 0.1440611183643341, 0.006360351108014584, 0.015403364785015583, 0.04881100356578827], [0.0021100882440805435, 0.01574585773050785, 0.16681386530399323, 0.08793354779481888, 0.01588335447013378, 0.004133133217692375, 0.05577268451452255, 0.004345910623669624, 0.01942823827266693, 0.23450511693954468, 0.0029846113175153732, 0.11865966767072678, 0.021811271086335182, 0.028689609840512276, 0.09556709975004196, 0.006686070933938026, 0.01136625837534666, 0.03312799707055092, 0.04098915308713913, 0.028191931545734406, 0.005254654213786125], [0.0015438892878592014, 0.009563853964209557, 0.1430118829011917, 0.18510666489601135, 0.013368525542318821, 0.0019551946315914392, 0.03001396544277668, 0.003132123500108719, 0.012256971560418606, 0.1820051223039627, 0.002432995941489935, 0.1904527097940445, 0.014585493132472038, 0.019037308171391487, 0.08350073546171188, 0.00368585716933012, 0.006898116320371628, 0.022317800670862198, 0.050801023840904236, 0.020320534706115723, 0.004009178373962641], [0.0025203232653439045, 0.03787396475672722, 0.041106950491666794, 0.1757926344871521, 0.030213505029678345, 0.005828965455293655, 0.06443223357200623, 0.008170357905328274, 0.056135665625333786, 0.17165641486644745, 0.004301698412746191, 0.028620844706892967, 0.013109157793223858, 0.07647350430488586, 0.0467577762901783, 0.0032178161200135946, 0.011227618902921677, 0.08916833251714706, 0.09009601920843124, 0.027673112228512764, 0.015623112209141254], [0.13225552439689636, 0.11522497236728668, 0.005825891625136137, 0.005417793057858944, 0.01379802729934454, 0.005666226614266634, 0.0051748366095125675, 0.03042018972337246, 0.15071599185466766, 0.009888666681945324, 0.09029190987348557, 0.009255588054656982, 0.01705685630440712, 0.13928410410881042, 0.017548812553286552, 0.019964320585131645, 0.025267556309700012, 0.13363662362098694, 0.006397224497050047, 0.01569516211748123, 0.05121373012661934], [0.007879489101469517, 0.027024654671549797, 0.0380963534116745, 0.059985868632793427, 0.006033279933035374, 0.00655248062685132, 0.056260887533426285, 0.004894925747066736, 0.03932778537273407, 0.33290860056877136, 0.005398365203291178, 0.020795797929167747, 0.0035333556588739157, 0.048463769257068634, 0.14728166162967682, 0.006109347101300955, 0.011842784471809864, 0.05517686530947685, 0.08046628534793854, 0.01190213393419981, 0.030065439641475677], [0.002439029049128294, 0.007682235445827246, 0.1640169471502304, 0.1262177675962448, 0.0122646763920784, 0.0008888888405635953, 0.03285573795437813, 0.001229403424076736, 0.0070190937258303165, 0.30420631170272827, 0.0019196015782654285, 0.12011289596557617, 0.0124219860881567, 0.010402215644717216, 0.07920460402965546, 0.001515314681455493, 0.004777965601533651, 0.012345652095973492, 0.0766955316066742, 0.008858287706971169, 0.012925893999636173], [0.0016643099952489138, 0.0022747498005628586, 0.04013744369149208, 0.12976136803627014, 0.004994711373001337, 0.0003536631411407143, 0.008114926517009735, 0.0015234890161082149, 0.001091504585929215, 0.3518125116825104, 0.015097005292773247, 0.18419694900512695, 0.0036441339179873466, 0.0013275041710585356, 0.024505337700247765, 0.001022437820211053, 0.004056601785123348, 0.001405811868607998, 0.18612754344940186, 0.012249037623405457, 0.02463892102241516]], [[0.007846632041037083, 0.07970956712961197, 0.32792651653289795, 0.06502249091863632, 0.03019167296588421, 0.004027192015200853, 0.011154930107295513, 0.008212832733988762, 0.06255654245615005, 0.01924183964729309, 0.00517305638641119, 0.09221385419368744, 0.019554967060685158, 0.08250885456800461, 0.02140791155397892, 0.007844600826501846, 0.022228000685572624, 0.0919158086180687, 0.025068381801247597, 0.013050391338765621, 0.003143902635201812], [0.005529241170734167, 0.12350500375032425, 0.03110181912779808, 0.06716480851173401, 0.03630755841732025, 0.0016729106428101659, 0.005750496406108141, 0.025836823508143425, 0.18819928169250488, 0.008685076609253883, 0.009465275332331657, 0.005071565508842468, 0.005945395678281784, 0.2039184868335724, 0.0018138174200430512, 0.0015187195967882872, 0.008034352213144302, 0.24875690042972565, 0.0033697334583848715, 0.0029657501727342606, 0.015387056395411491], [0.001205529784783721, 0.04355188086628914, 0.0767141804099083, 0.3245605230331421, 0.2608335018157959, 0.0028003277257084846, 0.013926051557064056, 0.0031861895695328712, 0.06162508949637413, 0.0023331090342253447, 0.001859461423009634, 0.0032440361101180315, 0.005439382046461105, 0.08627905696630478, 0.0006469992804341018, 0.00022955752501729876, 0.0003929126251023263, 0.10724589973688126, 0.001182259526103735, 0.0009117176523432136, 0.0018323562107980251], [0.002031192649155855, 0.03772750124335289, 0.018859857693314552, 0.025250721722841263, 0.5389999151229858, 0.012811590917408466, 0.026491442695260048, 0.01116745825856924, 0.0976116806268692, 0.004844683688133955, 0.0012707090936601162, 0.001116233179345727, 0.0017547386232763529, 0.10074605792760849, 0.0018460736609995365, 0.0002766101388260722, 0.00017709365056362003, 0.11248685419559479, 0.0003439343417994678, 0.00014509398897644132, 0.004040527623146772], [0.0016246442683041096, 0.013120366260409355, 0.005995974875986576, 0.008993278257548809, 0.07349412888288498, 0.12256672233343124, 0.38867631554603577, 0.09353144466876984, 0.0767998918890953, 0.06289409846067429, 0.00045256601879373193, 0.00016768100613262504, 0.0001779286831151694, 0.06120295077562332, 0.007859703153371811, 0.0006754458299838006, 0.0012739695375785232, 0.0731736421585083, 0.001805169740691781, 0.001267954707145691, 0.004246209282428026], [0.0019286605529487133, 0.027241352945566177, 0.008798673748970032, 0.004627851769328117, 0.03750744089484215, 0.008766071870923042, 0.1411171853542328, 0.18138611316680908, 0.17009299993515015, 0.06497680395841599, 0.0029493551701307297, 0.0009253363823518157, 0.0015870637726038694, 0.1324295997619629, 0.0036595172714442015, 0.0014126599999144673, 0.00861018430441618, 0.17902448773384094, 0.010683231987059116, 0.002646653214469552, 0.009628746658563614], [0.004487631376832724, 0.028169702738523483, 0.010331112891435623, 0.009516604244709015, 0.05130273476243019, 0.010915852151811123, 0.01599729061126709, 0.03165709227323532, 0.1391046643257141, 0.40174156427383423, 0.009948265738785267, 0.0038266871124505997, 0.0023204274475574493, 0.10993587225675583, 0.0025334476958960295, 0.0008287745295092463, 0.0008534512016922235, 0.14232082664966583, 0.01215713657438755, 0.003197804791852832, 0.008853093720972538], [0.0018664035014808178, 0.03610286861658096, 0.018607771024107933, 0.006525085773319006, 0.00907838437706232, 0.004447727929800749, 0.0062262569554150105, 0.012811511754989624, 0.22437870502471924, 0.18719817698001862, 0.01452156063169241, 0.005669751204550266, 0.0006631261203438044, 0.18799525499343872, 0.0008106000022962689, 0.0004890587879344821, 0.0015104193007573485, 0.2647584080696106, 0.009262521751224995, 0.002456923481076956, 0.004619503393769264], [0.026860158890485764, 0.08861044049263, 0.013430519960820675, 0.026482518762350082, 0.020851045846939087, 0.009001106023788452, 0.007990102283656597, 0.029687652364373207, 0.1811320036649704, 0.01883746311068535, 0.0386185497045517, 0.015074954368174076, 0.017246343195438385, 0.18502254784107208, 0.009319735690951347, 0.009140804409980774, 0.021669290959835052, 0.2067260593175888, 0.01576155796647072, 0.012835723347961903, 0.045701321214437485], [0.0024389182217419147, 0.045130956918001175, 0.0036365361884236336, 0.006916574202477932, 0.0008744728402234614, 0.0003256791387684643, 0.0015289172297343612, 0.0021523963660001755, 0.2559996247291565, 0.008372037671506405, 0.022801242768764496, 0.00638447143137455, 0.00038745702477172017, 0.26089292764663696, 7.224108412628993e-05, 0.00018811627523973584, 0.00022405499476008117, 0.3770943284034729, 0.0009915422415360808, 0.002003747969865799, 0.0015837163664400578], [0.002310378011316061, 0.008853244595229626, 0.009221270680427551, 0.003809527261182666, 0.003425618400797248, 0.00030986423371359706, 0.0012526680948212743, 0.0034249667078256607, 0.02773280069231987, 0.004859421867877245, 0.010006711818277836, 0.2922062575817108, 0.4804416298866272, 0.052868492901325226, 0.007365805096924305, 0.0030412226915359497, 0.027407808229327202, 0.049991026520729065, 0.004563343711197376, 0.0026105751749128103, 0.004297413397580385], [0.0007680705166421831, 0.007994214072823524, 0.001468752627260983, 0.0004655944649130106, 0.0015724794939160347, 0.0002970299974549562, 0.0002382784296059981, 3.883343015331775e-05, 0.02966369315981865, 8.301246998598799e-05, 0.000312016491079703, 0.02327321656048298, 0.7202475070953369, 0.10324950516223907, 0.015162249095737934, 0.003251529997214675, 0.002255704952403903, 0.08289120346307755, 0.0033480755519121885, 0.0018605983350425959, 0.0015585359651595354], [0.002244753995910287, 0.005686587654054165, 0.003587989369407296, 0.00013948313426226377, 0.0003218801284674555, 0.002324692439287901, 0.0022542900405824184, 0.00023326193331740797, 0.02563493140041828, 0.0003354407090228051, 4.875546073890291e-05, 0.010510746389627457, 0.052614014595746994, 0.07932787388563156, 0.5249057412147522, 0.04467826709151268, 0.06164480373263359, 0.060393307358026505, 0.03631844371557236, 0.08264386653900146, 0.004150880966335535], [0.03338911756873131, 0.08549287170171738, 0.014358934946358204, 0.024187928065657616, 0.021219739690423012, 0.009554248303174973, 0.007815134711563587, 0.02436557412147522, 0.15876361727714539, 0.0112979831174016, 0.030028939247131348, 0.017670784145593643, 0.026486558839678764, 0.17609506845474243, 0.01798339933156967, 0.01761399582028389, 0.03386210650205612, 0.1883634775876999, 0.021187178790569305, 0.021338729187846184, 0.058924589306116104], [0.003582709701731801, 0.00663729477673769, 0.0009483028552494943, 0.00023298156156670302, 0.0002896807563956827, 0.00010590848251013085, 0.00024184859648812562, 0.0020482805557549, 0.024459801614284515, 0.0006535141728818417, 0.0004013680445495993, 0.0015412246575579047, 0.004068748094141483, 0.037578072398900986, 0.025085212662816048, 0.019966229796409607, 0.266664057970047, 0.0442105308175087, 0.3119955062866211, 0.23327282071113586, 0.016015861183404922], [0.002677802462130785, 0.006441083736717701, 0.0021611819975078106, 0.00021443379228003323, 0.0007149889715947211, 0.00048155439435504377, 0.00012184103979961947, 0.00024483806919306517, 0.016095565631985664, 0.0009709698497317731, 0.00023500979295931756, 0.002014664001762867, 0.003746031317859888, 0.028538841754198074, 0.026151694357395172, 0.006239983718842268, 0.041732314974069595, 0.031815335154533386, 0.5210592746734619, 0.3001672029495239, 0.008175346069037914], [0.0024975119158625603, 0.010408145375549793, 0.007141560316085815, 0.0009116788860410452, 0.00037299064570106566, 0.00010725041647674516, 4.383539271657355e-05, 0.00015080887533258647, 0.025106804445385933, 0.0011221244931221008, 0.0011347471736371517, 0.009272541850805283, 0.002168531296774745, 0.03893393650650978, 0.005223073530942202, 0.002920864848420024, 0.028275420889258385, 0.04793311655521393, 0.38203078508377075, 0.4234829545021057, 0.01076135691255331], [0.03480049595236778, 0.09488862007856369, 0.01594582386314869, 0.029967350885272026, 0.026210548356175423, 0.01160899642854929, 0.008571210317313671, 0.02282998338341713, 0.1616314947605133, 0.012664606794714928, 0.039175450801849365, 0.01824154704809189, 0.024852460250258446, 0.17199407517910004, 0.014662581495940685, 0.014520210213959217, 0.0224677212536335, 0.1843867301940918, 0.018235772848129272, 0.018877336755394936, 0.05346709489822388], [0.009660252369940281, 0.057992272078990936, 0.002639407990500331, 0.0073742433451116085, 0.0025136913172900677, 0.0003368460456840694, 0.00023587484611198306, 0.0006216759793460369, 0.153316929936409, 0.0005395273910835385, 0.001669098506681621, 0.0012437261175364256, 0.0022014740388840437, 0.2347181737422943, 0.0013827537186443806, 0.0015645732637494802, 0.004076453857123852, 0.29424557089805603, 0.08047262579202652, 0.10077569633722305, 0.042419083416461945], [0.021680746227502823, 0.04933203384280205, 0.002673451090231538, 0.009224563837051392, 0.002854678314179182, 0.00028326819301582873, 0.0002493340289220214, 0.00037302233977243304, 0.14560717344284058, 0.00043110011029057205, 0.0023399912752211094, 0.002165488200262189, 0.0015217700274661183, 0.26852136850357056, 0.002104284707456827, 0.0024861921556293964, 0.002747276332229376, 0.33259347081184387, 0.05500907450914383, 0.036538541316986084, 0.06126320734620094], [0.0026730133686214685, 0.16631659865379333, 0.16160057485103607, 0.02552598901093006, 0.013663898222148418, 0.0011060582473874092, 0.00811461079865694, 0.00491842208430171, 0.14525873959064484, 0.009985264390707016, 0.0020699994638562202, 0.005678651388734579, 0.0008484123391099274, 0.1873442679643631, 0.003755113109946251, 0.0009860907448455691, 0.0034893101546913385, 0.2413395345211029, 0.005889349617063999, 0.007117690052837133, 0.002318397630006075]], [[0.014914234168827534, 0.03164742514491081, 0.007622595876455307, 0.009880509227514267, 0.003567699808627367, 0.0017228634096682072, 0.00494341691955924, 0.007890390232205391, 0.026582203805446625, 0.010032190009951591, 0.04041227698326111, 0.01088383886963129, 0.0030690699350088835, 0.02964332327246666, 0.014940797351300716, 0.0029952945187687874, 0.006534090731292963, 0.03253666311502457, 0.025091325864195824, 0.005128236021846533, 0.7099615335464478], [0.01964760757982731, 0.06511586159467697, 0.02195831574499607, 0.09638038277626038, 0.07416242361068726, 0.013088840059936047, 0.010591473430395126, 0.014064108021557331, 0.11784280091524124, 0.018204018473625183, 0.06564801931381226, 0.03802315890789032, 0.017924128100275993, 0.13460858166217804, 0.02002185769379139, 0.005380540620535612, 0.0200768131762743, 0.15322209894657135, 0.02042972855269909, 0.013561613857746124, 0.060047585517168045], [0.0010353692341595888, 0.016474314033985138, 0.016832059249281883, 0.30515241622924805, 0.450116366147995, 0.0027089796494692564, 0.007136795204132795, 0.004703710786998272, 0.020300202071666718, 0.0054307132959365845, 0.03982897475361824, 0.03829153627157211, 0.02704484947025776, 0.022310612723231316, 0.0032467166893184185, 0.0011498942039906979, 0.005642798263579607, 0.024761199951171875, 0.002313460921868682, 0.0009181544883176684, 0.004600951913744211], [0.007489639334380627, 0.0722726508975029, 0.03075004182755947, 0.027849847450852394, 0.039694588631391525, 0.016747809946537018, 0.014037583954632282, 0.03708116337656975, 0.12194280326366425, 0.049300942569971085, 0.2352009117603302, 0.0586022324860096, 0.003100090892985463, 0.11399123817682266, 0.018643666058778763, 0.0038441915530711412, 0.005261662416160107, 0.12968209385871887, 0.002255738712847233, 0.0015594311989843845, 0.010691645555198193], [0.007690703496336937, 0.06382165849208832, 0.059062011539936066, 0.016089171171188354, 0.008674994111061096, 0.006827239878475666, 0.015620577149093151, 0.014352208003401756, 0.1306082308292389, 0.03342313691973686, 0.2171197235584259, 0.12841930985450745, 0.0011877978686243296, 0.12209363281726837, 0.006997177843004465, 0.002730658743530512, 0.003431349527090788, 0.14441004395484924, 0.0018830741755664349, 0.0020408486016094685, 0.013516463339328766], [0.004991073161363602, 0.07532127946615219, 0.02360905334353447, 0.0031110544223338366, 0.002353370189666748, 0.0063798450864851475, 0.03737872838973999, 0.01634788140654564, 0.18575778603553772, 0.07542254030704498, 0.12578830122947693, 0.04173676669597626, 0.0011713049607351422, 0.17744408547878265, 0.005119771230965853, 0.0021484626922756433, 0.001775976619683206, 0.2009313702583313, 0.005127592943608761, 0.005493739154189825, 0.0025900457985699177], [0.006829479243606329, 0.051211874932050705, 0.009363116696476936, 0.0010934649035334587, 0.0009410178754478693, 0.013635342940688133, 0.12679588794708252, 0.028959006071090698, 0.1300121396780014, 0.2618994116783142, 0.08751962333917618, 0.01157352514564991, 0.00040097019518725574, 0.11934898048639297, 0.00446321489289403, 0.0022211072500795126, 0.0009531360119581223, 0.1389661729335785, 0.0006718570948578417, 0.0025230266619473696, 0.0006177013274282217], [0.007159166969358921, 0.08943281322717667, 0.00445580156520009, 0.004339500330388546, 0.0030791303142905235, 0.006324124522507191, 0.027734024450182915, 0.013999493792653084, 0.216928169131279, 0.08254515379667282, 0.0601298063993454, 0.006143954582512379, 0.0006167691317386925, 0.2120792716741562, 0.003380115609616041, 0.0016524000093340874, 0.002579237101599574, 0.2468847632408142, 0.003750164993107319, 0.003734329715371132, 0.003051787381991744], [0.036674629896879196, 0.07110775262117386, 0.014193873852491379, 0.02288738824427128, 0.035607289522886276, 0.020959822461009026, 0.01688840053975582, 0.014115575700998306, 0.13730667531490326, 0.03323270380496979, 0.036573801189661026, 0.02624231018126011, 0.027620894834399223, 0.15654072165489197, 0.023889975622296333, 0.013656344264745712, 0.028848307207226753, 0.17369791865348816, 0.03114965558052063, 0.030792852863669395, 0.04801314324140549], [0.022909360006451607, 0.07658156007528305, 0.002428805222734809, 0.003395535284653306, 0.001126895542256534, 0.006002578418701887, 0.016707248985767365, 0.014459365978837013, 0.22656622529029846, 0.03094276413321495, 0.04936257377266884, 0.0064752912148833275, 0.001834274735301733, 0.2457103133201599, 0.005552278365939856, 0.002876326674595475, 0.006006683222949505, 0.2718304693698883, 0.002327680354937911, 0.003067003795877099, 0.003836790332570672], [0.009893849492073059, 0.022957205772399902, 0.004104436840862036, 0.014314942061901093, 0.006895189173519611, 0.0010812152177095413, 0.0004796909634023905, 0.0005596798728220165, 0.0391731895506382, 0.0011704779462888837, 0.015545685775578022, 0.05884125828742981, 0.4015239179134369, 0.07272829115390778, 0.0739603042602539, 0.010182356461882591, 0.05017545074224472, 0.06340359896421432, 0.03847062215209007, 0.02629963867366314, 0.08823902904987335], [0.004223455674946308, 0.026920316740870476, 0.003362944582477212, 0.011656444519758224, 0.019411539658904076, 0.0004968000575900078, 0.0003915396227966994, 0.00012557361333165318, 0.056602850556373596, 0.0001760530867613852, 0.005129039753228426, 0.058201905339956284, 0.40321311354637146, 0.13453830778598785, 0.032015249133110046, 0.016070690006017685, 0.02607272006571293, 0.1265249252319336, 0.022120434790849686, 0.02093689702451229, 0.031809184700250626], [0.027498917654156685, 0.04039962589740753, 0.012230446562170982, 0.002443677745759487, 0.0006740698590874672, 0.0005674288840964437, 0.00042354638571850955, 0.0003803235595114529, 0.08644513040781021, 0.00040037574945017695, 0.00917081255465746, 0.09586691856384277, 0.017198197543621063, 0.17497587203979492, 0.047319695353507996, 0.028958942741155624, 0.02710827812552452, 0.17220333218574524, 0.04050108790397644, 0.07848218828439713, 0.13675114512443542], [0.039318766444921494, 0.06681276857852936, 0.016006147488951683, 0.027133218944072723, 0.03653639927506447, 0.020454779267311096, 0.01579362154006958, 0.014051411300897598, 0.11636774986982346, 0.0252616535872221, 0.030927307903766632, 0.027975674718618393, 0.03266303986310959, 0.13760848343372345, 0.031702395528554916, 0.02027588151395321, 0.038050081580877304, 0.150264710187912, 0.042399920523166656, 0.044867370277643204, 0.06552863121032715], [0.014242068864405155, 0.05739181861281395, 0.003818458877503872, 0.003647639648988843, 0.0015825324226170778, 0.000517109059728682, 0.00020849663997069, 0.0010426416993141174, 0.09978535771369934, 0.0028793190140277147, 0.010902968235313892, 0.007603489328175783, 0.004325079265981913, 0.15460726618766785, 0.052323468029499054, 0.023367658257484436, 0.028094610199332237, 0.1639515608549118, 0.13890603184700012, 0.18558476865291595, 0.045217692852020264], [0.022051852196455002, 0.04828416556119919, 0.00890275277197361, 0.008750091306865215, 0.003359205089509487, 0.00080799066927284, 0.00047302950406447053, 0.0012820622650906444, 0.09825821965932846, 0.003388896817341447, 0.011659703217446804, 0.017518606036901474, 0.004812585189938545, 0.1484193354845047, 0.030070511624217033, 0.01990583911538124, 0.025888914242386818, 0.1654297113418579, 0.16565878689289093, 0.18004922568798065, 0.03502853214740753], [0.009506397880613804, 0.08221911638975143, 0.004393572453409433, 0.006897532381117344, 0.002607319038361311, 0.0007686791941523552, 0.0006279885419644415, 0.0015115045243874192, 0.12549221515655518, 0.0022008626256138086, 0.01807415671646595, 0.014075680635869503, 0.002549414988607168, 0.188459113240242, 0.02086600847542286, 0.015137013979256153, 0.02300170622766018, 0.2144244760274887, 0.12822645902633667, 0.09887918829917908, 0.040081560611724854], [0.041728246957063675, 0.06753067672252655, 0.01813626103103161, 0.03153705224394798, 0.044654008001089096, 0.02561594732105732, 0.019964376464486122, 0.017292728647589684, 0.11105531454086304, 0.03056572936475277, 0.03444746881723404, 0.029822248965501785, 0.034949302673339844, 0.1264534294605255, 0.030244596302509308, 0.02053442969918251, 0.03634273260831833, 0.13813093304634094, 0.03886350989341736, 0.03906844183802605, 0.06306256353855133], [0.02615933306515217, 0.05709164962172508, 0.0018621777417138219, 0.0006325178546831012, 0.00043114396976307034, 0.0008683293126523495, 0.0012394036166369915, 0.000997085589915514, 0.18476223945617676, 0.0014188321074470878, 0.0035467559937387705, 0.0017144260928034782, 0.0003089740639552474, 0.2625947892665863, 0.014208094216883183, 0.005442480556666851, 0.002278700238093734, 0.31940048933029175, 0.03407904878258705, 0.0394376665353775, 0.04152585193514824], [0.08429954200983047, 0.052913784980773926, 0.002891186624765396, 0.0017044327687472105, 0.0009638479677960277, 0.0010684923036023974, 0.0005754940793849528, 0.0011945361038669944, 0.1375759094953537, 0.0006831502541899681, 0.008415319956839085, 0.006014698650687933, 0.0007301202858798206, 0.22529608011245728, 0.030910566449165344, 0.008969640359282494, 0.0047387657687067986, 0.25881150364875793, 0.02311839908361435, 0.03587741404771805, 0.11324718594551086], [0.019222121685743332, 0.09966377913951874, 0.027280867099761963, 0.10867433249950409, 0.01850980892777443, 0.012343518435955048, 0.020318295806646347, 0.020163631066679955, 0.10887285321950912, 0.03283114358782768, 0.08241572231054306, 0.04939582571387291, 0.003367340425029397, 0.12494196742773056, 0.021871715784072876, 0.008494768291711807, 0.012736986391246319, 0.14441746473312378, 0.0222341138869524, 0.011144236661493778, 0.05109957233071327]], [[0.006722983438521624, 0.0056745209731161594, 0.11903440952301025, 0.320346862077713, 0.01896405592560768, 0.008808591403067112, 0.029035750776529312, 0.03936474397778511, 0.0033733267337083817, 0.05849991738796234, 0.03593458607792854, 0.13092032074928284, 0.022721225395798683, 0.0043147848919034, 0.04959695041179657, 0.02602323330938816, 0.022468190640211105, 0.004331912379711866, 0.04077492654323578, 0.02598821558058262, 0.027100542560219765], [0.03381534293293953, 0.12215472757816315, 0.04317442327737808, 0.045833028852939606, 0.026226412504911423, 0.0077796028926968575, 0.02559872902929783, 0.025238242000341415, 0.13949310779571533, 0.030587246641516685, 0.028630848973989487, 0.025914844125509262, 0.01042638998478651, 0.15779653191566467, 0.037816036492586136, 0.007579846307635307, 0.013014271855354309, 0.17294874787330627, 0.011822156608104706, 0.009666482917964458, 0.02448279783129692], [0.0014800515491515398, 0.05483882874250412, 0.1522326022386551, 0.11108147352933884, 0.05122583359479904, 0.00949532724916935, 0.11526911705732346, 0.011058053933084011, 0.07409295439720154, 0.09573538601398468, 0.003230905393138528, 0.017687631770968437, 0.007233889773488045, 0.09184548258781433, 0.06944095343351364, 0.0024844666477292776, 0.0023007523268461227, 0.11056391149759293, 0.009117955341935158, 0.006437706295400858, 0.003146678674966097], [0.0018229251727461815, 0.020081179216504097, 0.10628130286931992, 0.06470426172018051, 0.2239840030670166, 0.013783457688987255, 0.3084701597690582, 0.055998895317316055, 0.018442189320921898, 0.06322882324457169, 0.008385667577385902, 0.022830933332443237, 0.009823987260460854, 0.019711682572960854, 0.01941966451704502, 0.002672814065590501, 0.0035642804577946663, 0.022744789719581604, 0.00309679820202291, 0.0052083637565374374, 0.005743800196796656], [0.002287687733769417, 0.011403411626815796, 0.040561579167842865, 0.04609990864992142, 0.03353287652134895, 0.04168228060007095, 0.3175714612007141, 0.0687050148844719, 0.01934138685464859, 0.2940825819969177, 0.005116560030728579, 0.013320249505341053, 0.0014518024399876595, 0.0221511572599411, 0.030716698616743088, 0.0024587807711213827, 0.004949192050844431, 0.025679683312773705, 0.0045529501512646675, 0.00966667290776968, 0.004668073728680611], [0.0058748554438352585, 0.02153126895427704, 0.07736942917108536, 0.07383067905902863, 0.03335736319422722, 0.008828673511743546, 0.17450930178165436, 0.025372331961989403, 0.039097968488931656, 0.29414603114128113, 0.0051667820662260056, 0.025966137647628784, 0.008469710126519203, 0.044970907270908356, 0.0395231693983078, 0.0020644720643758774, 0.005839935038238764, 0.05502517521381378, 0.03430049866437912, 0.0057372963055968285, 0.019018109887838364], [0.0050742835737764835, 0.030235713347792625, 0.0822172611951828, 0.08443479984998703, 0.010623607784509659, 0.008546138182282448, 0.014688549563288689, 0.015944113954901695, 0.04226372763514519, 0.5100040435791016, 0.006915842182934284, 0.014436455443501472, 0.003227452514693141, 0.04484712332487106, 0.03064967878162861, 0.0018097178544849157, 0.00948374718427658, 0.05113352835178375, 0.02160653844475746, 0.006829129531979561, 0.005028547719120979], [0.0038272759411484003, 0.037171561270952225, 0.06156967207789421, 0.1057230606675148, 0.012717493809759617, 0.01270807720720768, 0.10313878208398819, 0.006025339011102915, 0.05912920832633972, 0.24607759714126587, 0.009917504154145718, 0.032975614070892334, 0.004193834029138088, 0.07256292551755905, 0.10654403269290924, 0.0027268570847809315, 0.004877524450421333, 0.08813131600618362, 0.02114095352590084, 0.004444184713065624, 0.0043971906416118145], [0.10011981427669525, 0.11450742185115814, 0.012747176922857761, 0.006107998546212912, 0.01183528732508421, 0.011012818664312363, 0.010944467969238758, 0.016504298895597458, 0.175424724817276, 0.013530495576560497, 0.030243637040257454, 0.012071548961102962, 0.008908845484256744, 0.18355025351047516, 0.017799437046051025, 0.012273289263248444, 0.01950143836438656, 0.19435088336467743, 0.012060888111591339, 0.010169447399675846, 0.026335762813687325], [0.004074643831700087, 0.07965592294931412, 0.09665819257497787, 0.12603989243507385, 0.007845940068364143, 0.013460942544043064, 0.018780061975121498, 0.013009422458708286, 0.09599527716636658, 0.055503930896520615, 0.010722009465098381, 0.0432296022772789, 0.004976990167051554, 0.12481002509593964, 0.10636181384325027, 0.007047080434858799, 0.016652440652251244, 0.13847841322422028, 0.026902347803115845, 0.004238208755850792, 0.005556762684136629], [0.00479974877089262, 0.015726521611213684, 0.019506195560097694, 0.06081392243504524, 0.004738963674753904, 0.0023678638972342014, 0.014292189851403236, 0.0038071118760854006, 0.025806909427046776, 0.020413052290678024, 0.006969572976231575, 0.24119365215301514, 0.14002536237239838, 0.04946526885032654, 0.21380355954170227, 0.012013413943350315, 0.02052386850118637, 0.04918912053108215, 0.04010732099413872, 0.04240792989730835, 0.012028388679027557], [0.002252249512821436, 0.020209521055221558, 0.010130011476576328, 0.004046516492962837, 0.002350651891902089, 0.0018749102018773556, 0.008289293386042118, 0.0008356255129911005, 0.048814814537763596, 0.004710614215582609, 0.0012658553896471858, 0.045267097651958466, 0.16561642289161682, 0.10940416902303696, 0.33028820157051086, 0.015962805598974228, 0.014753014780580997, 0.10666017979383469, 0.034796468913555145, 0.06775567680597305, 0.004715904593467712], [0.0019378217402845621, 0.005278918892145157, 0.008326811715960503, 0.004182107746601105, 0.0006189254345372319, 0.00182104273699224, 0.004958546254783869, 0.0015820988919585943, 0.010366366244852543, 0.005663091316819191, 0.0013791194651275873, 0.10543849319219589, 0.03657972812652588, 0.02443493716418743, 0.43616196513175964, 0.022453855723142624, 0.05653540417551994, 0.0228476170450449, 0.08206541836261749, 0.16347317397594452, 0.0038944727275520563], [0.11758246272802353, 0.10918077826499939, 0.013460719957947731, 0.0050484901294112206, 0.011073754169046879, 0.010598517023026943, 0.009920293465256691, 0.014332788065075874, 0.1621730923652649, 0.010608305223286152, 0.03008425049483776, 0.014374851249158382, 0.01235762145370245, 0.174291729927063, 0.021367374807596207, 0.016300581395626068, 0.023424338549375534, 0.18159405887126923, 0.01647908054292202, 0.015217206440865993, 0.03052973374724388], [0.002296939492225647, 0.044093742966651917, 0.020292839035391808, 0.00331167527474463, 0.002582546789199114, 0.0021048313938081264, 0.006016517989337444, 0.0025181935634464025, 0.09848178923130035, 0.011917688883841038, 0.0018075143452733755, 0.037186332046985626, 0.016598574817180634, 0.17215903103351593, 0.14624030888080597, 0.015498925000429153, 0.02188284881412983, 0.19054760038852692, 0.13844335079193115, 0.058533549308776855, 0.007485213223844767], [0.004789032507687807, 0.022623611614108086, 0.04610319063067436, 0.0077992998994886875, 0.0020721734035760164, 0.004073415417224169, 0.019169388338923454, 0.0017781370552256703, 0.04147473722696304, 0.0164096150547266, 0.001447290531359613, 0.10530555993318558, 0.016541369259357452, 0.0753873735666275, 0.2485697865486145, 0.008685821667313576, 0.011699538677930832, 0.08569185435771942, 0.2261713594198227, 0.04763545095920563, 0.006572083104401827], [0.0027305674739181995, 0.03707324340939522, 0.02974226325750351, 0.004788048565387726, 0.004354268312454224, 0.0013775733532384038, 0.01252998597919941, 0.0007392597617581487, 0.06987857818603516, 0.005015229806303978, 0.0015297329518944025, 0.10485461354255676, 0.02402593567967415, 0.12626582384109497, 0.27589330077171326, 0.006816036533564329, 0.0058870818465948105, 0.15038692951202393, 0.09692247956991196, 0.03502293676137924, 0.004166039172559977], [0.13086964190006256, 0.11246469616889954, 0.014188216999173164, 0.005396304652094841, 0.012695567682385445, 0.012590423226356506, 0.010568978264927864, 0.016243524849414825, 0.16039922833442688, 0.01128622516989708, 0.03403758630156517, 0.013008772395551205, 0.011478840373456478, 0.16551558673381805, 0.018527137115597725, 0.016087738797068596, 0.021803639829158783, 0.1720377653837204, 0.015000993385910988, 0.013312133029103279, 0.03248702362179756], [0.0177213903516531, 0.07129234820604324, 0.027515804395079613, 0.00466528907418251, 0.0015418765833601356, 0.0049835629761219025, 0.012307959608733654, 0.006000043824315071, 0.1293969303369522, 0.010033134371042252, 0.0024783520493656397, 0.022036142647266388, 0.0037936868611723185, 0.19997332990169525, 0.12750673294067383, 0.0158259104937315, 0.029741542413830757, 0.22996395826339722, 0.05302676558494568, 0.015501058660447598, 0.014694186858832836], [0.0019462681375443935, 0.01252971775829792, 0.026260167360305786, 0.02341409958899021, 0.0014686553040519357, 0.006465892773121595, 0.05305815115571022, 0.002559568267315626, 0.022752510383725166, 0.014687172137200832, 0.0016893127467483282, 0.03709087520837784, 0.003425497328862548, 0.03787459433078766, 0.5032795667648315, 0.013958469033241272, 0.01288138423115015, 0.042856477200984955, 0.16849251091480255, 0.008951535448431969, 0.004357563331723213], [0.0006966502405703068, 0.007907168939709663, 0.10290927439928055, 0.44444459676742554, 0.008487984538078308, 0.0025717669632285833, 0.04134516045451164, 0.014940987341105938, 0.0041693528182804585, 0.040906354784965515, 0.01007130742073059, 0.12087981402873993, 0.008589951321482658, 0.006010152865201235, 0.13327425718307495, 0.00526202330365777, 0.009724228642880917, 0.006630783434957266, 0.017190273851156235, 0.008020960725843906, 0.0059669967740774155]], [[0.02304644137620926, 0.09078828990459442, 0.0015195300802588463, 0.00405464880168438, 0.0009163296199403703, 0.007948468439280987, 0.004399873781949282, 0.022672202438116074, 0.21668997406959534, 0.020554281771183014, 0.005347803700715303, 0.0012041990412399173, 0.000611867115367204, 0.2394142895936966, 0.003332724329084158, 0.004021867644041777, 0.014630043879151344, 0.2660292088985443, 0.02401658147573471, 0.014226716943085194, 0.03457454964518547], [0.016618026420474052, 0.22367466986179352, 0.008451968431472778, 0.0015762957045808434, 0.0022292393259704113, 0.001288013649173081, 0.0006875835824757814, 0.001414326368831098, 0.1938929557800293, 0.002940085483714938, 0.04815123230218887, 0.012871219776570797, 0.0018494698451831937, 0.2339271754026413, 0.0018459879793226719, 0.001542248297482729, 0.001972093479707837, 0.23040832579135895, 0.001905708690173924, 0.0015383893623948097, 0.01121495570987463], [0.00035486705019138753, 0.04079035297036171, 0.11380590498447418, 0.0004875061858911067, 6.909285002620891e-05, 1.5354668221334578e-06, 2.5452100089751184e-06, 1.8079535948345438e-05, 0.06576650589704514, 0.00012329366290941834, 0.002811395563185215, 0.5711482167243958, 0.00011455368803581223, 0.09750482439994812, 0.00010815688438015059, 8.911773329600692e-05, 0.0011253891279920936, 0.10518702864646912, 0.0002949492773041129, 0.00013565951667260379, 6.114356074249372e-05], [0.0007697276887483895, 0.08678750693798065, 0.004233141429722309, 0.13300476968288422, 0.0008167425403371453, 8.103143045445904e-06, 6.775948691029043e-07, 5.216059435042553e-06, 0.14771685004234314, 5.112493909109617e-06, 0.057231128215789795, 0.021413389593362808, 0.004198790993541479, 0.2711392045021057, 7.130620360840112e-05, 0.0013838597806170583, 0.007894734852015972, 0.2612913250923157, 0.00015446187171619385, 0.000276097358437255, 0.0015977239236235619], [0.00021236670727375895, 0.061726164072752, 0.0020286496728658676, 0.0022882819175720215, 0.5333669781684875, 4.2974817915819585e-05, 6.646745873695181e-07, 2.55237227975158e-06, 0.06497714668512344, 2.51256415140233e-06, 0.0018568567465990782, 0.004005789756774902, 0.1328192949295044, 0.1084815114736557, 0.0003129520046059042, 7.109778380254284e-05, 6.800865958211944e-05, 0.08647213876247406, 2.286684866703581e-05, 5.519244587048888e-05, 0.001186004956252873], [0.008051455952227116, 0.0860639289021492, 3.116113293799572e-05, 4.32674860348925e-05, 0.00015344667190220207, 0.034866511821746826, 0.0007608039886690676, 0.0001781762548489496, 0.25414708256721497, 0.0002480788098182529, 0.00020849081920459867, 2.273216705361847e-05, 2.49923668889096e-05, 0.32728517055511475, 0.00043236775672994554, 2.2129428543848917e-05, 8.377125050174072e-05, 0.2846471071243286, 0.0002501072594895959, 8.670410170452669e-05, 0.002392500638961792], [0.004554595798254013, 0.027926050126552582, 9.751563993631862e-06, 4.3536269913602155e-06, 2.5106586690526456e-05, 0.005515062715858221, 0.09481247514486313, 0.0006708889850415289, 0.25483667850494385, 0.00042205656063742936, 0.0002277898311149329, 2.461544136167504e-05, 2.466445766913239e-05, 0.32107532024383545, 0.000360777135938406, 0.0002743815421126783, 3.841078796540387e-05, 0.2882726490497589, 8.775672176852822e-05, 9.458560089115053e-05, 0.0007421366171911359], [0.0034198674838989973, 0.021674931049346924, 3.789238689932972e-05, 0.0001266908657271415, 0.00011380521027604118, 0.001036134664900601, 0.03499876707792282, 0.19131942093372345, 0.19585539400577545, 0.0030860251281410456, 0.0006683812825940549, 0.00017940590623766184, 0.00042693098657764494, 0.24835914373397827, 0.00014699032180942595, 0.0009901515441015363, 0.05537204071879387, 0.2351827472448349, 0.00019025099754799157, 0.0004975934862159193, 0.00631736172363162], [0.03675348311662674, 0.1058262288570404, 0.008721691556274891, 0.008446930907666683, 0.015052401460707188, 0.02278018370270729, 0.02524241991341114, 0.03308376669883728, 0.18102917075157166, 0.040474094450473785, 0.021094802767038345, 0.007061343640089035, 0.006655690725892782, 0.18794839084148407, 0.015045839361846447, 0.01259007677435875, 0.015049610286951065, 0.19532552361488342, 0.01702670380473137, 0.013045571744441986, 0.031746070832014084], [0.004325465299189091, 0.02472090907394886, 2.7515101464814506e-05, 1.4321881280920934e-05, 2.0667021090048365e-05, 0.00024000013945624232, 0.0001171422190964222, 0.0007620183750987053, 0.2721003293991089, 0.19828596711158752, 0.0008220609743148088, 2.817703534674365e-05, 3.171968273818493e-05, 0.2571427524089813, 0.0002767457044683397, 1.773794792825356e-05, 0.0004547443240880966, 0.2364404797554016, 0.0008268741075880826, 0.0007745446055196226, 0.002569810254499316], [0.009790265932679176, 0.44304150342941284, 0.11372298747301102, 0.12535922229290009, 0.003075722139328718, 0.00011987689504167065, 6.503003532998264e-05, 0.00016128229617606848, 0.06093459203839302, 0.0004735334950964898, 0.01102569792419672, 0.016900749877095222, 0.00031242347904480994, 0.0719676986336708, 6.992857379373163e-05, 4.561922833090648e-05, 7.951105362735689e-05, 0.09370338916778564, 0.0002747240650933236, 0.0003251330927014351, 0.04855109751224518], [0.0002648845547810197, 0.038599107414484024, 0.8170282244682312, 0.011233655735850334, 0.00034361906000413, 1.4573618045687908e-06, 1.1968146509389044e-06, 3.1347587992058834e-06, 0.01681087724864483, 8.339959094882943e-06, 0.0002524768060538918, 0.051422059535980225, 2.745005622273311e-05, 0.028939228504896164, 1.0734701390902046e-05, 1.1336233910697047e-05, 3.1220417440636083e-05, 0.034797389060258865, 2.06830954994075e-05, 8.25933602754958e-06, 0.00018457793339621276], [0.00020247942302376032, 0.040174003690481186, 0.0011931558838114142, 0.008765984326601028, 0.5442197322845459, 1.341512779617915e-05, 2.239343530163751e-06, 2.591491829662118e-05, 0.03225865215063095, 7.141066362237325e-06, 0.0004156720533501357, 0.00021414172078948468, 0.2852557301521301, 0.044120196253061295, 0.00013370711531024426, 3.869568899972364e-05, 0.00017599202692508698, 0.039290428161621094, 1.9972303562099114e-05, 3.8731537642888725e-05, 0.003434093901887536], [0.04001887887716293, 0.10784613341093063, 0.014238270930945873, 0.01565662957727909, 0.024207541719079018, 0.027101317420601845, 0.03023700974881649, 0.03887435048818588, 0.15814624726772308, 0.033427413552999496, 0.020402077585458755, 0.009607634507119656, 0.009406352415680885, 0.1711139678955078, 0.023639176040887833, 0.016717469319701195, 0.01762254536151886, 0.17514754831790924, 0.017703518271446228, 0.014510244131088257, 0.03437570482492447], [0.0027806370053440332, 0.06975173950195312, 0.0017835374455899, 0.00015145327779464424, 0.002652981085702777, 0.0010608751326799393, 0.0005527929752133787, 0.0004049531708005816, 0.11808902770280838, 0.001866910606622696, 0.0001816307776607573, 0.0001996882347157225, 0.0003249341098126024, 0.1646777093410492, 0.47799816727638245, 0.003727187868207693, 0.002542235190048814, 0.13885793089866638, 0.007189188152551651, 0.0033925315365195274, 0.001813916489481926], [0.006511703599244356, 0.057961199432611465, 0.004390409681946039, 0.0029128582682460546, 0.0032615605741739273, 0.00017429036961402744, 0.005913791246712208, 0.005273664835840464, 0.16996996104717255, 0.00014679660671390593, 0.0003354627115186304, 0.002444978803396225, 0.0020720474421977997, 0.2243041843175888, 0.0664273053407669, 0.17722375690937042, 0.01354240719228983, 0.23346365988254547, 0.0077661629766225815, 0.007313271053135395, 0.00859057530760765], [0.0011448913719505072, 0.017876844853162766, 0.0017712438711896539, 0.009469453245401382, 0.0008677535224705935, 6.862430018372834e-05, 0.00011092910426668823, 0.02046138420701027, 0.05355050042271614, 0.0006975647993385792, 0.0001999914093175903, 0.000989363412372768, 0.0018673633458092809, 0.06843262165784836, 0.0010154852643609047, 0.00022394345432985574, 0.7412291169166565, 0.06819544732570648, 0.0032912991009652615, 0.0020948799792677164, 0.006441337987780571], [0.04337821528315544, 0.10239815711975098, 0.013719053007662296, 0.016640150919556618, 0.021589990705251694, 0.024167338386178017, 0.02896139957010746, 0.039690449833869934, 0.15648137032985687, 0.03410927951335907, 0.02606261521577835, 0.01057475060224533, 0.009384620934724808, 0.16574999690055847, 0.020249923691153526, 0.020483219996094704, 0.02132928930222988, 0.17237041890621185, 0.019465411081910133, 0.016180120408535004, 0.03701416775584221], [0.0026124778669327497, 0.03547635301947594, 3.9406550058629364e-05, 5.876729846931994e-05, 2.2071748389862478e-05, 5.922025229665451e-05, 1.5492447346332483e-05, 1.7857497368822806e-05, 0.2516407370567322, 0.0002940557315014303, 0.00015776082000229508, 2.5915785954566672e-05, 3.666999191409559e-06, 0.2346925586462021, 0.00027156740543432534, 5.164607136975974e-05, 0.00013946328544989228, 0.2529568672180176, 0.20965462923049927, 0.010025549679994583, 0.0017840085783973336], [0.0018645080272108316, 0.04457925632596016, 9.590994159225374e-05, 0.0003436242986936122, 7.556029595434666e-05, 0.0001525905099697411, 4.6276385546661913e-05, 0.0003249312285333872, 0.2553797662258148, 0.0018011134816333652, 0.0003470778465270996, 4.544047260424122e-05, 2.8065609512850642e-05, 0.24354299902915955, 0.0016715055098757148, 0.00011475846986286342, 0.001546099316328764, 0.2487405240535736, 0.13612021505832672, 0.0600600503385067, 0.003119625151157379], [0.0100090391933918, 0.0691022202372551, 0.00017341546481475234, 0.0034699984826147556, 0.0011968977050855756, 0.0030614719726145267, 0.0023595651146024466, 0.02564494125545025, 0.23605933785438538, 0.015190024860203266, 0.009612729772925377, 0.0021864112932235003, 0.003711686935275793, 0.2661312520503998, 0.002475150628015399, 0.002447133418172598, 0.02199682779610157, 0.27351656556129456, 0.006535834167152643, 0.007068374194204807, 0.03805107623338699]], [[0.011015073396265507, 0.0004217612149659544, 0.013717242516577244, 0.013421064242720604, 0.0055756885558366776, 0.00251285289414227, 0.10032650828361511, 0.04887915402650833, 9.74681752268225e-05, 0.4012293219566345, 0.008219640702009201, 0.02009098418056965, 0.004912805277854204, 8.610367513028905e-05, 0.027065705507993698, 0.019337201490998268, 0.015009339898824692, 8.001762034837157e-05, 0.1353461593389511, 0.0234499741345644, 0.14920583367347717], [0.001927947043441236, 0.03498125076293945, 0.0006470982334576547, 0.004800733644515276, 0.00048313336446881294, 0.0007011438719928265, 0.0011006483109667897, 0.000970572407823056, 0.21945565938949585, 0.0026194024831056595, 0.0004143502446822822, 0.0010128957219421864, 0.0003966804360970855, 0.3155680298805237, 0.007594495080411434, 0.000980852055363357, 0.0020110218320041895, 0.40068507194519043, 0.001855390495620668, 0.00034603208769112825, 0.0014476340729743242], [0.010100362822413445, 0.03810664638876915, 0.013160382397472858, 0.05079333484172821, 0.0018866811878979206, 0.0012226994149386883, 0.004137342795729637, 0.0017871455056592822, 0.1378779411315918, 0.05663659796118736, 0.0010837342124432325, 0.008343049325048923, 0.001752201234921813, 0.2188563048839569, 0.10995734483003616, 0.0025732095818966627, 0.0047507076524198055, 0.2797447443008423, 0.042106736451387405, 0.0017279188614338636, 0.013394908048212528], [0.004974196664988995, 0.05331995710730553, 0.025020409375429153, 0.09820663183927536, 0.0069971573539078236, 0.0014406731352210045, 0.0038515827618539333, 0.005056124646216631, 0.16413453221321106, 0.01096037682145834, 0.0014319518813863397, 0.011518155224621296, 0.004126629792153835, 0.24532464146614075, 0.024510972201824188, 0.0018222100334241986, 0.007153145968914032, 0.3093957304954529, 0.009326334111392498, 0.004345525987446308, 0.007082989439368248], [0.0032466724514961243, 0.049513090401887894, 0.00677952915430069, 0.08029551804065704, 0.002927405061200261, 0.0004283925809431821, 0.0014564007287845016, 0.0029562923591583967, 0.16677811741828918, 0.005081309471279383, 0.0007510358118452132, 0.004064979963004589, 0.0011240564053878188, 0.27472108602523804, 0.01568813994526863, 0.0005993329687044024, 0.00403076596558094, 0.371107816696167, 0.0039706043899059296, 0.0009695347398519516, 0.00350986048579216], [0.033367592841386795, 0.04885576665401459, 0.0019383770413696766, 0.01674078032374382, 0.0024769699666649103, 0.009454721584916115, 0.009828436188399792, 0.015789387747645378, 0.19035255908966064, 0.026851410046219826, 0.004699602257460356, 0.0022823552135378122, 0.0011356952600181103, 0.2490280717611313, 0.032940782606601715, 0.0029379883781075478, 0.015135425142943859, 0.29301130771636963, 0.025318693369627, 0.0038790248800069094, 0.013975047506392002], [0.010768741369247437, 0.03612301126122475, 0.00402878550812602, 0.004684383049607277, 0.0015055547701194882, 0.007182001136243343, 0.03116566874086857, 0.005755708087235689, 0.17647963762283325, 0.07651162147521973, 0.0007207263843156397, 0.002017887309193611, 0.0008888188749551773, 0.24799524247646332, 0.025699077174067497, 0.0008870151941664517, 0.0028987163677811623, 0.3154200315475464, 0.03773355484008789, 0.006518466863781214, 0.005015410948544741], [0.11165359616279602, 0.022808749228715897, 0.003819047473371029, 0.03066961094737053, 0.0018186785746365786, 0.0160845834761858, 0.0659174844622612, 0.1002088263630867, 0.05827954784035683, 0.16645263135433197, 0.0028641177341341972, 0.002290932461619377, 0.000533171056304127, 0.07164953649044037, 0.06598261743783951, 0.0032681399025022984, 0.04767997935414314, 0.08519139885902405, 0.042050763964653015, 0.01305660605430603, 0.08772005885839462], [0.0018027866026386619, 0.030879966914653778, 0.00038767923251725733, 0.0016334831016138196, 0.0005402328097261488, 0.0013445945223793387, 0.0012820346746593714, 0.0010461282217875123, 0.23730994760990143, 0.0017043455736711621, 0.00038841512287035584, 0.0007196838851086795, 0.0005129691562615335, 0.3169378340244293, 0.0032394779846072197, 0.0008726578089408576, 0.0011653866386041045, 0.3957395553588867, 0.0011727097444236279, 0.0003697157371789217, 0.0009502876200713217], [0.01622876711189747, 0.018249228596687317, 0.00539067666977644, 0.009718737564980984, 0.0015123594785109162, 0.00483206519857049, 0.05351279675960541, 0.01610906980931759, 0.060561928898096085, 0.3562595248222351, 0.0013891822891309857, 0.0040497067384421825, 0.0016060094349086285, 0.07804936915636063, 0.06460541486740112, 0.0044721378944814205, 0.01269801240414381, 0.0928686261177063, 0.16720768809318542, 0.01434206124395132, 0.016336632892489433], [0.042077433317899704, 0.061786673963069916, 0.04184470698237419, 0.16661280393600464, 0.014118469320237637, 0.00452383840456605, 0.018660129979252815, 0.02826559916138649, 0.0727246105670929, 0.042060308158397675, 0.0214710533618927, 0.03800974041223526, 0.010621828958392143, 0.08878107368946075, 0.0561145544052124, 0.02051224187016487, 0.05286172777414322, 0.09926271438598633, 0.025399327278137207, 0.02407728135585785, 0.0702139139175415], [0.00910522136837244, 0.03928563371300697, 0.00664604501798749, 0.03232751786708832, 0.001581275719217956, 0.0010545054683461785, 0.001914800493977964, 0.0011226304341107607, 0.16573727130889893, 0.022366376593708992, 0.0011732325656339526, 0.009029083885252476, 0.0027425987645983696, 0.2680398225784302, 0.06127316877245903, 0.0029682558961212635, 0.004019910469651222, 0.33931636810302734, 0.021364912390708923, 0.0024244075175374746, 0.006506927311420441], [0.004217846319079399, 0.053839750587940216, 0.01249327976256609, 0.055812232196331024, 0.004267172422260046, 0.0011049940949305892, 0.0028809814248234034, 0.0040580215863883495, 0.15015412867069244, 0.020866243168711662, 0.0017823303351178765, 0.01923387683928013, 0.006766997743397951, 0.24332527816295624, 0.07637064158916473, 0.004417578689754009, 0.011943853460252285, 0.29676640033721924, 0.015464858151972294, 0.004634242970496416, 0.009599307551980019], [0.0017564744921401143, 0.03277851268649101, 0.0004186124715488404, 0.0017392141744494438, 0.0006411566282622516, 0.001473623444326222, 0.001210253918543458, 0.0010954126482829452, 0.23826450109481812, 0.0015277070924639702, 0.00045745493844151497, 0.0008481362601742148, 0.000654315110296011, 0.3168046176433563, 0.0033020242117345333, 0.000972873589489609, 0.001260010409168899, 0.3923355042934418, 0.001084982417523861, 0.000395966722862795, 0.0009786317823454738], [0.011709033511579037, 0.03174924477934837, 0.0025843505281955004, 0.011631854809820652, 0.0013636454241350293, 0.0029994703363627195, 0.009409025311470032, 0.012583988718688488, 0.12717217206954956, 0.06074659898877144, 0.002444690326228738, 0.0033571915701031685, 0.0019499220652505755, 0.1682775318622589, 0.24289527535438538, 0.020902428776025772, 0.03274024277925491, 0.19125911593437195, 0.04699350520968437, 0.008926580660045147, 0.008304058574140072], [0.021877482533454895, 0.04809175431728363, 0.00394195131957531, 0.04300414025783539, 0.002822424052283168, 0.004994256421923637, 0.007112307008355856, 0.023753978312015533, 0.11824403703212738, 0.04509411007165909, 0.004125522915273905, 0.003983200527727604, 0.0019929264672100544, 0.1476123183965683, 0.25302085280418396, 0.005914283450692892, 0.04968326911330223, 0.16036292910575867, 0.03799770027399063, 0.008072718977928162, 0.008297854103147984], [0.0204406026750803, 0.04023231565952301, 0.004672637674957514, 0.05160720273852348, 0.002979123266413808, 0.004475926980376244, 0.009196964092552662, 0.03855865076184273, 0.09492133557796478, 0.08341550827026367, 0.006638481747359037, 0.00552745396271348, 0.0019508233526721597, 0.11441804468631744, 0.22699515521526337, 0.012727273628115654, 0.07982422411441803, 0.12331806123256683, 0.04093126952648163, 0.014318564906716347, 0.022850414738059044], [0.0019100543577224016, 0.034999776631593704, 0.0005164071335457265, 0.0019452718552201986, 0.000802680675406009, 0.0017949751345440745, 0.001439146464690566, 0.0012698000064119697, 0.2405296117067337, 0.0016634514322504401, 0.0005528889014385641, 0.0010091176955029368, 0.00080008216900751, 0.31484702229499817, 0.003372760023921728, 0.001111492863856256, 0.0013744346797466278, 0.3873247802257538, 0.001205260050483048, 0.0004581145185511559, 0.0010729392524808645], [0.027337217703461647, 0.016262413933873177, 0.0029312625993043184, 0.008607746101915836, 0.0005572633817791939, 0.0027434120420366526, 0.030889257788658142, 0.016936080530285835, 0.05127356946468353, 0.2449379563331604, 0.0036612246185541153, 0.003106205491349101, 0.0006919485749676824, 0.059723593294620514, 0.16100992262363434, 0.005972699727863073, 0.018711891025304794, 0.06562414020299911, 0.2479085922241211, 0.008848034776747227, 0.022265497595071793], [0.043016400188207626, 0.01004116702824831, 0.002465397585183382, 0.02609945833683014, 0.0008053398341871798, 0.0018792720511555672, 0.03383488953113556, 0.018536776304244995, 0.023304754868149757, 0.3330543041229248, 0.0013680022675544024, 0.0026602158322930336, 0.0009249879512935877, 0.029942430555820465, 0.1579427272081375, 0.0021311365999281406, 0.024899354204535484, 0.03385418280959129, 0.2078859657049179, 0.009733660146594048, 0.03561970964074135], [0.026706675067543983, 0.0014248194638639688, 0.003683537943288684, 0.03056512214243412, 0.0019740171264857054, 0.002513257088139653, 0.06830637156963348, 0.04729080572724342, 0.0006430858629755676, 0.2917664349079132, 0.005098279099911451, 0.005512166768312454, 0.0011501730186864734, 0.0006500931922346354, 0.08833754062652588, 0.005843506660312414, 0.030605800449848175, 0.0006351343472488225, 0.25799545645713806, 0.009941445663571358, 0.11935625970363617]]], [[[0.034451600164175034, 0.002278644824400544, 0.11685401201248169, 0.04948962479829788, 0.01089990884065628, 0.004161246586591005, 0.004951313138008118, 0.015441227704286575, 0.001852637273259461, 0.026585714891552925, 0.022976839914917946, 0.10647489875555038, 0.03794535622000694, 0.0019157209899276495, 0.191459521651268, 0.09737221151590347, 0.021359071135520935, 0.0019267437746748328, 0.07176068425178528, 0.13580657541751862, 0.044036444276571274], [0.0020571427885442972, 0.24290162324905396, 0.002561557572335005, 0.0019904174841940403, 0.0004519835638348013, 0.00077218929072842, 0.0015090614324435592, 0.0007228205795399845, 0.24003465473651886, 0.004063821397721767, 0.0008536192472092807, 0.0026199945714324713, 0.0007212286000140011, 0.2422792911529541, 0.005129787139594555, 0.0006895512342453003, 0.001691167359240353, 0.24311310052871704, 0.0033141050953418016, 0.0006963131600059569, 0.0018266462720930576], [0.014485908672213554, 0.029836364090442657, 0.10859275609254837, 0.016471264883875847, 0.0020571148488670588, 0.0032771872356534004, 0.04941758140921593, 0.005954577121883631, 0.026043079793453217, 0.24945013225078583, 0.006683557294309139, 0.02123766951262951, 0.004351580515503883, 0.02636563964188099, 0.13930581510066986, 0.005644338671118021, 0.015287300571799278, 0.02640971727669239, 0.12947353720664978, 0.03998249024152756, 0.07967250049114227], [0.018073061481118202, 0.14527744054794312, 0.13895905017852783, 0.060140352696180344, 0.02344443090260029, 0.0024456907995045185, 0.011920523829758167, 0.008516952395439148, 0.12214333564043045, 0.019047413021326065, 0.03869883716106415, 0.0674562156200409, 0.02573087438941002, 0.12159595638513565, 0.01594250462949276, 0.002933633280918002, 0.00937559548765421, 0.12285512685775757, 0.007470820564776659, 0.007400875445455313, 0.030571348965168], [0.0007225546287372708, 0.2511022388935089, 0.01223827339708805, 0.00821318943053484, 0.004183546639978886, 0.0005905203870497644, 0.00537685165181756, 0.00044302016613073647, 0.230712428689003, 0.004336634650826454, 0.002493959618732333, 0.0063972435891628265, 0.001914044376462698, 0.23104985058307648, 0.002369360765442252, 0.0002634181291796267, 0.0008424100233241916, 0.23431098461151123, 0.00150400644633919, 0.0003580524062272161, 0.0005775238387286663], [0.010833569802343845, 0.11897299438714981, 0.025600548833608627, 0.013058162294328213, 0.01379062607884407, 0.024958863854408264, 0.03991292789578438, 0.016576318070292473, 0.11825866997241974, 0.1932692974805832, 0.008731969632208347, 0.019622182473540306, 0.014881083741784096, 0.11916273832321167, 0.06703837960958481, 0.007104991003870964, 0.01303841918706894, 0.1200489029288292, 0.02950880490243435, 0.008766240440309048, 0.01686437800526619], [0.016404099762439728, 0.06839122623205185, 0.022019272670149803, 0.0031174386385828257, 0.0019407595973461866, 0.0028275868389755487, 0.01752919889986515, 0.005637788213789463, 0.06618591398000717, 0.4210624098777771, 0.00382608431391418, 0.007232869975268841, 0.003402754431590438, 0.06633014231920242, 0.06515563279390335, 0.003210762282833457, 0.013087010011076927, 0.06653673201799393, 0.08037912100553513, 0.012525402009487152, 0.053197842091321945], [0.016996828839182854, 0.03241008147597313, 0.05968687683343887, 0.010908985510468483, 0.0045967018231749535, 0.004077962599694729, 0.024613406509160995, 0.03374893590807915, 0.027998048812150955, 0.32930803298950195, 0.006194089539349079, 0.027468204498291016, 0.00709098344668746, 0.028361180797219276, 0.058562979102134705, 0.00418442627415061, 0.026005294173955917, 0.028366807848215103, 0.13312913477420807, 0.046287551522254944, 0.09000346809625626], [0.0018238441552966833, 0.24229805171489716, 0.0019328242633491755, 0.0016470743576064706, 0.0004064556851517409, 0.0007216284866444767, 0.0012370587792247534, 0.000641126767732203, 0.24195054173469543, 0.0035020294599235058, 0.0007507381960749626, 0.002155719557777047, 0.000652070390060544, 0.2439921796321869, 0.004252915270626545, 0.0006245305412448943, 0.0015346858417615294, 0.24478588998317719, 0.0029202220030128956, 0.0006125228828750551, 0.0015578630845993757], [0.03856731206178665, 0.03220120817422867, 0.023493163287639618, 0.00995495356619358, 0.002338652266189456, 0.007495074067264795, 0.04079046845436096, 0.021338004618883133, 0.028608031570911407, 0.24507956206798553, 0.0032653426751494408, 0.005853767041116953, 0.003329475875943899, 0.028863826766610146, 0.07923436164855957, 0.005804726388305426, 0.019116690382361412, 0.0286861602216959, 0.13021937012672424, 0.024371081963181496, 0.22138866782188416], [0.02249462716281414, 0.08540023118257523, 0.18022820353507996, 0.04333767667412758, 0.013032769784331322, 0.002197006018832326, 0.004933019634336233, 0.007881738245487213, 0.06914694607257843, 0.024054810404777527, 0.02862119860947132, 0.15746411681175232, 0.03678017482161522, 0.06997086852788925, 0.03540945425629616, 0.0053297383710742, 0.011835705488920212, 0.07001751661300659, 0.019837498664855957, 0.03247160091996193, 0.07955507189035416], [0.014295280911028385, 0.06917267292737961, 0.05190419778227806, 0.009082205593585968, 0.0011747092939913273, 0.002015929203480482, 0.013706366531550884, 0.0020040867384523153, 0.0626930296421051, 0.05332532152533531, 0.009381428360939026, 0.10357580333948135, 0.024695372208952904, 0.06442693620920181, 0.23591168224811554, 0.012260074727237225, 0.017514729872345924, 0.06428360939025879, 0.10737136751413345, 0.04921373352408409, 0.031991489231586456], [0.002485731616616249, 0.16192474961280823, 0.018517326563596725, 0.004456337541341782, 0.000693237001542002, 0.0008690041722729802, 0.007929776795208454, 0.0006315827486105263, 0.1529686003923416, 0.02079014666378498, 0.003304224694147706, 0.07237571477890015, 0.01560524757951498, 0.15798871219158173, 0.11866562813520432, 0.010106263682246208, 0.01249074749648571, 0.15829803049564362, 0.059505362063646317, 0.017313605174422264, 0.003079972229897976], [0.0018181559862568974, 0.24209192395210266, 0.0018947336357086897, 0.0016485508531332016, 0.0003986038500443101, 0.0007209706236608326, 0.0012349047465249896, 0.0006338556995615363, 0.24207034707069397, 0.0034771570935845375, 0.0007460935739800334, 0.002140351803973317, 0.0006490889354608953, 0.24407131969928741, 0.004321366548538208, 0.0006225266261026263, 0.0015193942235782743, 0.24486926198005676, 0.002911423798650503, 0.0006139868055470288, 0.001545950653962791], [0.013083918951451778, 0.014980011619627476, 0.0050931391306221485, 0.0017274043057113886, 0.00016584977856837213, 0.0012954049743711948, 0.0021757599897682667, 0.0015299086226150393, 0.01441963855177164, 0.02581067569553852, 0.0014686129288747907, 0.007603011094033718, 0.0016676405211910605, 0.014749684371054173, 0.7279524207115173, 0.03575306013226509, 0.012772947549819946, 0.014682403765618801, 0.05912020057439804, 0.021415291354060173, 0.022532887756824493], [0.014843947254121304, 0.03830835968255997, 0.010279620997607708, 0.003059172537177801, 0.0002007572038564831, 0.0005334617453627288, 0.0011514013167470694, 0.0008099864353425801, 0.03607184439897537, 0.020149121060967445, 0.0023264612536877394, 0.02491607517004013, 0.0033640279434621334, 0.03670153021812439, 0.5907747745513916, 0.024781908839941025, 0.012941677123308182, 0.03669526427984238, 0.09779936075210571, 0.03006930835545063, 0.014221915043890476], [0.010722932405769825, 0.06491411477327347, 0.04700231924653053, 0.008943654596805573, 0.0013195760548114777, 0.0006655191536992788, 0.0016183434054255486, 0.0018544393824413419, 0.055627889931201935, 0.019738640636205673, 0.007425340823829174, 0.11115633696317673, 0.012434720993041992, 0.05653674528002739, 0.2956048548221588, 0.025617191568017006, 0.03380739688873291, 0.05611525848507881, 0.1117863655090332, 0.05107422173023224, 0.026034172624349594], [0.0018360071117058396, 0.24194812774658203, 0.0019192430190742016, 0.0016726115718483925, 0.00040569627890363336, 0.0007293971721082926, 0.0012483608443289995, 0.0006410094210878015, 0.24205856025218964, 0.0035536454524844885, 0.0007500458741560578, 0.0021469304338097572, 0.0006548402016051114, 0.24401451647281647, 0.0043372539803385735, 0.0006264387629926205, 0.001531050307676196, 0.2448129802942276, 0.0029340654145926237, 0.0006195693858899176, 0.0015596343437209725], [0.06729268282651901, 0.03289896249771118, 0.026515478268265724, 0.011818443424999714, 0.001301814103499055, 0.005472138058394194, 0.0162679310888052, 0.015127227641642094, 0.030563589185476303, 0.04755416885018349, 0.008597579784691334, 0.02904665283858776, 0.004080640152096748, 0.031272370368242264, 0.3063194453716278, 0.03620116785168648, 0.05799831077456474, 0.031032610684633255, 0.1093735322356224, 0.03272707015275955, 0.09853822737932205], [0.011620914563536644, 0.002535328734666109, 0.007552800700068474, 0.0029409851413220167, 0.00011039138189516962, 0.0006913896067999303, 0.007470729760825634, 0.00156192306894809, 0.002370363799855113, 0.04276401177048683, 0.0009424170712009072, 0.009264057502150536, 0.0012236336478963494, 0.002466268604621291, 0.6158990263938904, 0.014052284881472588, 0.013147542253136635, 0.0024490917567163706, 0.1934344321489334, 0.024204254150390625, 0.04329819604754448], [0.011414255015552044, 0.0013742913724854589, 0.06063082814216614, 0.038914866745471954, 0.0012284723343327641, 0.0032300271559506655, 0.03172961622476578, 0.009869146160781384, 0.0011249531526118517, 0.20895154774188995, 0.0034978333860635757, 0.01906552165746689, 0.003705155337229371, 0.0011603564489632845, 0.2716905474662781, 0.013578160665929317, 0.01099413726478815, 0.0011533217038959265, 0.15392383933067322, 0.06196872144937515, 0.09079445153474808]], [[0.12025777995586395, 0.008141451515257359, 0.02031220868229866, 0.07863988727331161, 0.027594417333602905, 0.012152501381933689, 0.013905797153711319, 0.015387450344860554, 0.008961587212979794, 0.08394517004489899, 0.08088068664073944, 0.034672483801841736, 0.02011030539870262, 0.009110156446695328, 0.03835513815283775, 0.023700572550296783, 0.013121552765369415, 0.009103035554289818, 0.11837255954742432, 0.0845458060503006, 0.17872945964336395], [0.012492302805185318, 0.22246958315372467, 0.003996469546109438, 0.010420070961117744, 0.002537743654102087, 0.0028370781801640987, 0.005538334604352713, 0.0037886048667132854, 0.2190573364496231, 0.0051908898167312145, 0.005360178649425507, 0.004019042477011681, 0.003953477833420038, 0.22265580296516418, 0.006769982632249594, 0.002642880892381072, 0.006509275175631046, 0.2236723005771637, 0.011729130521416664, 0.007334028370678425, 0.017025433480739594], [0.0016013971762731671, 0.03534114733338356, 0.0792839303612709, 0.2430700808763504, 0.11791263520717621, 0.004462416283786297, 0.033146053552627563, 0.01244648639112711, 0.033858876675367355, 0.027414284646511078, 0.015772288665175438, 0.05870770290493965, 0.12430190294981003, 0.034343939274549484, 0.035432957112789154, 0.008537118323147297, 0.020450299605727196, 0.03415444493293762, 0.033562447875738144, 0.03548341989517212, 0.010716182179749012], [0.026457803323864937, 0.06909630447626114, 0.0523538812994957, 0.0765276625752449, 0.018251067027449608, 0.011764217168092728, 0.03176157549023628, 0.019716637209057808, 0.06413915753364563, 0.04884681850671768, 0.17069301009178162, 0.06641288846731186, 0.031464315950870514, 0.06425900012254715, 0.0187698807567358, 0.004539701621979475, 0.010223675519227982, 0.06342259794473648, 0.01736142486333847, 0.028295010328292847, 0.1056433618068695], [0.0111936554312706, 0.12645216286182404, 0.022395823150873184, 0.16092026233673096, 0.06559381633996964, 0.01262231357395649, 0.031446993350982666, 0.016216250136494637, 0.10703027248382568, 0.015042277984321117, 0.044781412929296494, 0.027936292812228203, 0.07218411564826965, 0.10742614418268204, 0.009117205627262592, 0.002644435502588749, 0.01164455246180296, 0.10602326691150665, 0.00851468462496996, 0.00853244960308075, 0.03228146210312843], [0.016234591603279114, 0.05277545750141144, 0.017601588740944862, 0.038802698254585266, 0.017376599833369255, 0.03592946007847786, 0.07956460863351822, 0.15093950927257538, 0.048036277294158936, 0.09336604177951813, 0.012743135914206505, 0.02293359860777855, 0.01907537877559662, 0.04886685311794281, 0.08030577003955841, 0.01966272108256817, 0.06660141050815582, 0.04853469878435135, 0.05029185861349106, 0.03853755444288254, 0.04182017967104912], [0.010067803785204887, 0.06139986217021942, 0.037895239889621735, 0.01509771030396223, 0.0034902954939752817, 0.05406709760427475, 0.06682588160037994, 0.04795079305768013, 0.05000745505094528, 0.2898959517478943, 0.021906757727265358, 0.015480170026421547, 0.0065592192113399506, 0.05014722794294357, 0.05798685923218727, 0.01219238806515932, 0.014620191417634487, 0.04980756714940071, 0.06733782589435577, 0.02806340716779232, 0.0392003171145916], [0.011333519592881203, 0.05506237968802452, 0.04700559750199318, 0.035911258310079575, 0.005082568619400263, 0.0657513290643692, 0.08302945643663406, 0.048665713518857956, 0.045652590692043304, 0.14408916234970093, 0.02289687842130661, 0.033093590289354324, 0.013244794681668282, 0.04636136814951897, 0.09829933196306229, 0.010910922661423683, 0.02366054244339466, 0.045916713774204254, 0.09851580113172531, 0.031915899366140366, 0.0336005873978138], [0.0123218959197402, 0.22488847374916077, 0.003649819642305374, 0.008529269136488438, 0.0021803651470690966, 0.002830448793247342, 0.005191350355744362, 0.0035758481826633215, 0.22137191891670227, 0.004704881925135851, 0.0045198858715593815, 0.003469830611720681, 0.0035564748104661703, 0.22514432668685913, 0.006127947010099888, 0.002715714043006301, 0.006396968849003315, 0.22630110383033752, 0.010627536103129387, 0.00675450824201107, 0.015141415409743786], [0.017601659521460533, 0.09612464159727097, 0.03715497627854347, 0.03207418695092201, 0.004884206224232912, 0.01948663964867592, 0.03514697775244713, 0.02169637568295002, 0.08103065937757492, 0.0824294239282608, 0.03984156623482704, 0.02689528465270996, 0.017109187319874763, 0.08118439465761185, 0.04982149228453636, 0.00901048630475998, 0.020957212895154953, 0.08052980154752731, 0.08302141726016998, 0.0401163250207901, 0.1238832101225853], [0.03840400651097298, 0.06249505281448364, 0.025358542799949646, 0.09742305427789688, 0.00884861871600151, 0.00409897044301033, 0.004808668512851, 0.005286935716867447, 0.0562727227807045, 0.010026953183114529, 0.04320800304412842, 0.06061827018857002, 0.09122957289218903, 0.05649396777153015, 0.023914355784654617, 0.004028979688882828, 0.013743746094405651, 0.05579420551657677, 0.05544710159301758, 0.08155755698680878, 0.20094062387943268], [0.005658769514411688, 0.05590531602501869, 0.06049250438809395, 0.2051432579755783, 0.02004523202776909, 0.003432311350479722, 0.01310817152261734, 0.006105431821197271, 0.05021856725215912, 0.009008136577904224, 0.006949625909328461, 0.06999142467975616, 0.16588792204856873, 0.05154028534889221, 0.03954282030463219, 0.00835468526929617, 0.023964334279298782, 0.050963304936885834, 0.054920393973588943, 0.07154884189367294, 0.02721874602138996], [0.006577372085303068, 0.06796210259199142, 0.03482966125011444, 0.19220130145549774, 0.013910416513681412, 0.004116474650800228, 0.011775257997214794, 0.0036542846355587244, 0.05937550961971283, 0.008330202661454678, 0.008094945922493935, 0.05735664814710617, 0.2651393413543701, 0.06027178466320038, 0.02409355342388153, 0.006877485662698746, 0.014408462680876255, 0.05950648710131645, 0.026590241119265556, 0.03154430538415909, 0.04338414967060089], [0.012294268235564232, 0.2247232347726822, 0.0036689310800284147, 0.008466971106827259, 0.0021859852131456137, 0.002831933321431279, 0.0052363998256623745, 0.0035760675091296434, 0.22128644585609436, 0.004714575130492449, 0.004506716039031744, 0.003471206873655319, 0.003557484596967697, 0.22509033977985382, 0.0061769913882017136, 0.0027630385011434555, 0.006442737299948931, 0.22625131905078888, 0.010789605788886547, 0.006837844382971525, 0.015127848833799362], [0.01436731405556202, 0.03647646680474281, 0.04224611818790436, 0.0116885332390666, 0.005423753522336483, 0.01978965848684311, 0.03128594905138016, 0.020539863035082817, 0.03121943399310112, 0.04765404388308525, 0.007372167892754078, 0.03444995358586311, 0.034668710082769394, 0.03155600652098656, 0.13548272848129272, 0.05837661772966385, 0.06721576303243637, 0.03142465651035309, 0.16413746774196625, 0.12303191423416138, 0.05159289762377739], [0.015068319626152515, 0.04987533390522003, 0.04475023224949837, 0.027164943516254425, 0.007829713635146618, 0.034613776952028275, 0.04342610761523247, 0.010338403284549713, 0.04431762918829918, 0.05051232874393463, 0.013440830633044243, 0.024655502289533615, 0.02682299166917801, 0.045229434967041016, 0.22702550888061523, 0.03732578828930855, 0.03918727487325668, 0.045063044875860214, 0.08369289338588715, 0.08605066686868668, 0.04360925406217575], [0.011278326623141766, 0.09398023039102554, 0.0521908737719059, 0.033226292580366135, 0.010928468778729439, 0.029452314600348473, 0.052126333117485046, 0.012585167773067951, 0.08253207057714462, 0.0512852817773819, 0.01341891847550869, 0.02831781469285488, 0.043442316353321075, 0.08404809981584549, 0.11317689716815948, 0.014315648935735226, 0.02391919307410717, 0.08354300260543823, 0.07015333324670792, 0.04933967813849449, 0.046739742159843445], [0.012283563613891602, 0.22461757063865662, 0.003670338075608015, 0.008443220518529415, 0.0021913694217801094, 0.0028475665021687746, 0.00526860635727644, 0.0035996136721223593, 0.22128018736839294, 0.0047636437229812145, 0.004503920674324036, 0.0034680108074098825, 0.003543407656252384, 0.22507312893867493, 0.006207950413227081, 0.002783505478873849, 0.006476968992501497, 0.22624550759792328, 0.010783007368445396, 0.006846771575510502, 0.01510215550661087], [0.022838983684778214, 0.11461664736270905, 0.046909648925065994, 0.04042748361825943, 0.005492087919265032, 0.015225724317133427, 0.03446077182888985, 0.012864571996033192, 0.10162975639104843, 0.028393279761075974, 0.01757591962814331, 0.028868161141872406, 0.02007332816720009, 0.10309978574514389, 0.06029605120420456, 0.01909826137125492, 0.02532130666077137, 0.10308646410703659, 0.08394987881183624, 0.055326204746961594, 0.06044568493962288], [0.01943145878612995, 0.05793031305074692, 0.06418745219707489, 0.0679519921541214, 0.0018204923253506422, 0.012814631685614586, 0.043148472905159, 0.004468617960810661, 0.052333053201436996, 0.04700819030404091, 0.0318838469684124, 0.052643872797489166, 0.011270154267549515, 0.053105078637599945, 0.11513613164424896, 0.011939815245568752, 0.011607376858592033, 0.05311154946684837, 0.13127799332141876, 0.050151076167821884, 0.10677842050790787], [0.014421229250729084, 0.005235536955296993, 0.10691845417022705, 0.10953269153833389, 0.010980188846588135, 0.007908941246569157, 0.02689560316503048, 0.01301959902048111, 0.0045892284251749516, 0.09508803486824036, 0.043358899652957916, 0.12057262659072876, 0.013779149390757084, 0.004638392012566328, 0.049024056643247604, 0.006098459009081125, 0.012705913744866848, 0.004600123967975378, 0.2541153132915497, 0.04386146739125252, 0.05265617370605469]], [[0.0736200362443924, 0.006193128880113363, 0.007684276904910803, 0.012362578883767128, 0.007930503226816654, 0.004740952514111996, 0.0033852860797196627, 0.020477676764130592, 0.0056836167350411415, 0.014994263648986816, 0.07967901974916458, 0.01399093959480524, 0.009488922543823719, 0.005830331239849329, 0.06604914367198944, 0.07852256298065186, 0.07460788637399673, 0.0058249845169484615, 0.03462442010641098, 0.04502309113740921, 0.42928633093833923], [0.027022913098335266, 0.12738755345344543, 0.023538075387477875, 0.016889143735170364, 0.02592802606523037, 0.019251907244324684, 0.026249781250953674, 0.03868535906076431, 0.1317114531993866, 0.04291541501879692, 0.012917948886752129, 0.01769378036260605, 0.014772414229810238, 0.13210882246494293, 0.030213573947548866, 0.030578315258026123, 0.05011488124728203, 0.13251015543937683, 0.048095040023326874, 0.029322871938347816, 0.022092575207352638], [0.019400956109166145, 0.17981888353824615, 0.05208663269877434, 0.018864745274186134, 0.014140214771032333, 0.0037779174745082855, 0.003539122873917222, 0.03352054953575134, 0.15017922222614288, 0.03058924525976181, 0.013342209160327911, 0.012974930927157402, 0.011852815747261047, 0.15134580433368683, 0.022436678409576416, 0.017845049500465393, 0.046473510563373566, 0.1517012119293213, 0.011862490326166153, 0.0054999166168272495, 0.04874782636761665], [0.027751188725233078, 0.11117733269929886, 0.11847379058599472, 0.0769309401512146, 0.04991666227579117, 0.006064699497073889, 0.001858926028944552, 0.030462538823485374, 0.08226417005062103, 0.03002779372036457, 0.013152056373655796, 0.011029848828911781, 0.05979267507791519, 0.0832667425274849, 0.011824698187410831, 0.01432973612099886, 0.04407025873661041, 0.08317240327596664, 0.011738133616745472, 0.005561553407460451, 0.12713392078876495], [0.01592332497239113, 0.2184724658727646, 0.07453492283821106, 0.03250376135110855, 0.03216360881924629, 0.005290313623845577, 0.0027327737770974636, 0.019754460081458092, 0.15303194522857666, 0.00835417490452528, 0.007491306867450476, 0.005517335142940283, 0.00905285868793726, 0.15540975332260132, 0.002416046103462577, 0.0025609226431697607, 0.01798366755247116, 0.15539945662021637, 0.012349731288850307, 0.0030620547477155924, 0.0659952163696289], [0.09217700362205505, 0.09968721121549606, 0.009745662100613117, 0.014989404007792473, 0.01907738298177719, 0.039137206971645355, 0.09447978436946869, 0.0752725824713707, 0.08139092475175858, 0.08216140419244766, 0.011247946880757809, 0.0022305676247924566, 0.006676828023046255, 0.08323357254266739, 0.006517609115689993, 0.003574969945475459, 0.0063998885452747345, 0.08339770138263702, 0.021153032779693604, 0.0041117435321211815, 0.1633375585079193], [0.04193350300192833, 0.10589732974767685, 0.011742627248167992, 0.015898747369647026, 0.01802021823823452, 0.0288168266415596, 0.2472543716430664, 0.06328468024730682, 0.09394746273756027, 0.08591695874929428, 0.004348422400653362, 0.0011607924243435264, 0.004355099517852068, 0.0951877236366272, 0.009088789112865925, 0.006249153986573219, 0.009016023948788643, 0.09564726054668427, 0.008553826250135899, 0.002547011012211442, 0.05113312229514122], [0.029226630926132202, 0.12042723596096039, 0.012780222110450268, 0.01490680780261755, 0.013592311181128025, 0.04535065218806267, 0.04185786098241806, 0.1422133445739746, 0.09077577292919159, 0.07040832936763763, 0.014431800693273544, 0.0016222852282226086, 0.0032191015779972076, 0.09145896136760712, 0.012254880741238594, 0.008725755847990513, 0.03314419463276863, 0.09172578901052475, 0.01738686114549637, 0.0071854121051728725, 0.13730566203594208], [0.029129603877663612, 0.12654829025268555, 0.023863302543759346, 0.0175898727029562, 0.027904532849788666, 0.020139386877417564, 0.02735169418156147, 0.03682573512196541, 0.13204313814640045, 0.04212762787938118, 0.012932288460433483, 0.01790086179971695, 0.01567724160850048, 0.13241152465343475, 0.029550617560744286, 0.031076889485120773, 0.04615651071071625, 0.13279104232788086, 0.04562988504767418, 0.030241314321756363, 0.022108620032668114], [0.017183205112814903, 0.09673871845006943, 0.02895916812121868, 0.05510628968477249, 0.02278939262032509, 0.012773089110851288, 0.04571544751524925, 0.05546943470835686, 0.08031243830919266, 0.27803850173950195, 0.004643481690436602, 0.002010940108448267, 0.0027795920614153147, 0.08096672594547272, 0.007332819048315287, 0.005225500091910362, 0.013758181594312191, 0.0817047655582428, 0.014486257918179035, 0.0029463679529726505, 0.09105965495109558], [0.009470563381910324, 0.0118955597281456, 0.11399349570274353, 0.4249650239944458, 0.10963494330644608, 0.010136980563402176, 0.00553874671459198, 0.02440500818192959, 0.008900368586182594, 0.019723962992429733, 0.03537916764616966, 0.02657553367316723, 0.02432371862232685, 0.008881757967174053, 0.018544107675552368, 0.007919498719274998, 0.024917054921388626, 0.008882196620106697, 0.008227691054344177, 0.009421657770872116, 0.0882631316781044], [0.008889704942703247, 0.07334061712026596, 0.0900806412100792, 0.06553611159324646, 0.08925475180149078, 0.013925764709711075, 0.007189364638179541, 0.05532914027571678, 0.06220017001032829, 0.0972520038485527, 0.04044836014509201, 0.027381770312786102, 0.060388341546058655, 0.061890117824077606, 0.03441215306520462, 0.01746765896677971, 0.06039850041270256, 0.061886016279459, 0.015122294425964355, 0.012039149180054665, 0.045567188411951065], [0.005324273370206356, 0.09791726619005203, 0.07552401721477509, 0.09199914336204529, 0.05589953437447548, 0.007917008362710476, 0.0034690117463469505, 0.03314513713121414, 0.07943534851074219, 0.033744364976882935, 0.08554345369338989, 0.07250065356492996, 0.08659844100475311, 0.0803784728050232, 0.011427459307014942, 0.007246945984661579, 0.03430093824863434, 0.08009962737560272, 0.019372260197997093, 0.004926799330860376, 0.03322984650731087], [0.02952886000275612, 0.1262345314025879, 0.02341303788125515, 0.0171408262103796, 0.027368703857064247, 0.019957149401307106, 0.02682635933160782, 0.03672415018081665, 0.13198761641979218, 0.042396366596221924, 0.013096737675368786, 0.018045315518975258, 0.01573178544640541, 0.13236631453037262, 0.02982664294540882, 0.0316036157310009, 0.04629700630903244, 0.13274672627449036, 0.04587659239768982, 0.030543172731995583, 0.022288523614406586], [0.023382319137454033, 0.052896808832883835, 0.02477666735649109, 0.022637473419308662, 0.01466077659279108, 0.010908601805567741, 0.001533861504867673, 0.026545468717813492, 0.045712944120168686, 0.03462420031428337, 0.047506317496299744, 0.030880775302648544, 0.04714120551943779, 0.046712879091501236, 0.17702065408229828, 0.09696009755134583, 0.08342070132493973, 0.046577733010053635, 0.05310944840312004, 0.01977504976093769, 0.09321600943803787], [0.052589286118745804, 0.058925990015268326, 0.01131340954452753, 0.012057972140610218, 0.006894277408719063, 0.0035943251568824053, 0.0008670424576848745, 0.014313298277556896, 0.050340279936790466, 0.020291058346629143, 0.08075055480003357, 0.01976875774562359, 0.04093058407306671, 0.05203818157315254, 0.1286976933479309, 0.11219727993011475, 0.09166006743907928, 0.051900312304496765, 0.04672200605273247, 0.02307281084358692, 0.12107492238283157], [0.01975746639072895, 0.0431230366230011, 0.019402876496315002, 0.02877950295805931, 0.011059369891881943, 0.007271930575370789, 0.0014983146684244275, 0.04760909080505371, 0.035138193517923355, 0.04743773862719536, 0.06863482296466827, 0.024069858714938164, 0.03961021825671196, 0.0356258749961853, 0.07347439229488373, 0.10555712878704071, 0.16933000087738037, 0.03551526740193367, 0.036936622112989426, 0.019617311656475067, 0.13055099546909332], [0.02967548929154873, 0.12617774307727814, 0.023466462269425392, 0.017096156254410744, 0.027212664484977722, 0.0198836512863636, 0.02675550803542137, 0.03654014691710472, 0.13203883171081543, 0.04208558052778244, 0.012966164387762547, 0.01809891313314438, 0.015674922615289688, 0.13242469727993011, 0.02987438626587391, 0.03190499171614647, 0.046378687024116516, 0.13281194865703583, 0.04598529636859894, 0.03069189190864563, 0.022255804389715195], [0.023528939113020897, 0.04994775727391243, 0.013723041862249374, 0.010802431963384151, 0.011591191403567791, 0.006243962794542313, 0.0026573447976261377, 0.01667824387550354, 0.043745383620262146, 0.0424840971827507, 0.02769690565764904, 0.021123792976140976, 0.0710592195391655, 0.04526813328266144, 0.1439342498779297, 0.0808454155921936, 0.07624667137861252, 0.04507148638367653, 0.12163621932268143, 0.02334413304924965, 0.1223713830113411], [0.015536479651927948, 0.013869484886527061, 0.015003306791186333, 0.028170201927423477, 0.01165848784148693, 0.003683538408949971, 0.0008447695872746408, 0.012286936864256859, 0.01172676496207714, 0.027362797409296036, 0.0790431946516037, 0.05489949509501457, 0.0993395671248436, 0.012066865339875221, 0.19273176789283752, 0.08932971209287643, 0.10037553310394287, 0.01190323568880558, 0.08117116242647171, 0.03420061245560646, 0.10479603707790375], [0.00955957267433405, 0.014275995083153248, 0.008572005666792393, 0.027722934260964394, 0.008776719681918621, 0.006090284790843725, 0.003277511801570654, 0.03228661045432091, 0.012629855424165726, 0.036626044660806656, 0.0739547461271286, 0.05156714469194412, 0.027274401858448982, 0.012956757098436356, 0.1275750994682312, 0.06881621479988098, 0.22125506401062012, 0.012838881462812424, 0.10683012008666992, 0.042478784918785095, 0.0946352556347847]], [[0.020679382607340813, 0.13742603361606598, 0.018834475427865982, 0.04253023862838745, 0.012109450064599514, 0.0019823305774480104, 0.005412694066762924, 0.04626576974987984, 0.13397274911403656, 0.007244542706757784, 0.023772981017827988, 0.018206175416707993, 0.016005761921405792, 0.13449232280254364, 0.0511506050825119, 0.01273426879197359, 0.047938451170921326, 0.1379644125699997, 0.025692550465464592, 0.028031015768647194, 0.07755378633737564], [0.05165043845772743, 0.12147103250026703, 0.04820511117577553, 0.04533298313617706, 0.017423205077648163, 0.014531902968883514, 0.01977584697306156, 0.0384044274687767, 0.11125663667917252, 0.026254210621118546, 0.02325221337378025, 0.0195930078625679, 0.014019375666975975, 0.11312432587146759, 0.0279445368796587, 0.013706156983971596, 0.025166625156998634, 0.11362772434949875, 0.0400434173643589, 0.04602611064910889, 0.06919065117835999], [0.06846632808446884, 0.11101029813289642, 0.08631300181150436, 0.18324466049671173, 0.009363037534058094, 0.0011939926771447062, 0.0010785605991259217, 0.008844940923154354, 0.07626233994960785, 0.007299305405467749, 0.006798714864999056, 0.0053927237167954445, 0.007633475586771965, 0.07773680239915848, 0.00213374150916934, 0.00208842009305954, 0.004963275510817766, 0.07775960117578506, 0.016878817230463028, 0.04616217687726021, 0.19937577843666077], [0.06460342556238174, 0.10487547516822815, 0.34551864862442017, 0.10401038825511932, 0.019002800807356834, 0.0029740792233496904, 0.002310309326276183, 0.02309739962220192, 0.06976792216300964, 0.00827003549784422, 0.014365306124091148, 0.007144135423004627, 0.0009591557900421321, 0.06897205114364624, 0.0009129567770287395, 0.000547334086149931, 0.002017638413235545, 0.06978573650121689, 0.010320542380213737, 0.008258958347141743, 0.07228570431470871], [0.00368434377014637, 0.017860539257526398, 0.03538758307695389, 0.7984303832054138, 0.09593489021062851, 0.0011747307144105434, 0.00046870869118720293, 0.0014075483195483685, 0.013276844285428524, 0.00018491614900995046, 0.0013353159883990884, 0.000521526497323066, 0.00029810843989253044, 0.013286369852721691, 0.0002477060479577631, 7.144861592678353e-05, 0.0003132323909085244, 0.013517464511096478, 0.00026739740860648453, 0.00017142984142992646, 0.0021595777943730354], [0.009724413976073265, 0.01978129707276821, 0.03759355843067169, 0.2632163166999817, 0.567038893699646, 0.01567365787923336, 0.0011375054018571973, 0.003988947253674269, 0.014108522795140743, 0.0005771706346422434, 0.004856316838413477, 0.009088443592190742, 0.013163005001842976, 0.014516757801175117, 0.00045296770986169577, 0.0002824072143994272, 0.0005202061729505658, 0.01449684239923954, 0.0012170997215434909, 0.0022312114015221596, 0.0063345287926495075], [0.00922825001180172, 0.00834495946764946, 0.03372597321867943, 0.17981572449207306, 0.6632675528526306, 0.047739118337631226, 0.0021648171823471785, 0.0024810084141790867, 0.006254048086702824, 0.0013044342631474137, 0.0010601142421364784, 0.00602014921605587, 0.007730983197689056, 0.006472612731158733, 0.0013362597674131393, 0.0005268212407827377, 0.0005157713312655687, 0.00637755636125803, 0.0014174239477142692, 0.003041627584025264, 0.0111748231574893], [0.025253796949982643, 0.07750552892684937, 0.02080732025206089, 0.06182848662137985, 0.3007020354270935, 0.2412184327840805, 0.052099935710430145, 0.012472432106733322, 0.05904150754213333, 0.004132825415581465, 0.002688320819288492, 0.0007147218566387892, 0.0015829660696908832, 0.05764615163207054, 0.01017636340111494, 0.0016132793389260769, 0.0011882977560162544, 0.0573493055999279, 0.0026236125268042088, 0.0009443375165574253, 0.008410339243710041], [0.05169469118118286, 0.12146887928247452, 0.0440855398774147, 0.039870791137218475, 0.0172317735850811, 0.017091605812311172, 0.0215449258685112, 0.038492195308208466, 0.11250708997249603, 0.025930186733603477, 0.026728563010692596, 0.020242005586624146, 0.014381065964698792, 0.11419893801212311, 0.030874809250235558, 0.01541073713451624, 0.025995224714279175, 0.11462347954511642, 0.03843250125646591, 0.04429686442017555, 0.06489808112382889], [0.018686048686504364, 0.036398205906152725, 0.019795367494225502, 0.053173262625932693, 0.18554623425006866, 0.0508146695792675, 0.22208040952682495, 0.1866099089384079, 0.03030843287706375, 0.0557142049074173, 0.0022850381210446358, 0.002119227312505245, 0.007736174389719963, 0.029879992827773094, 0.010079198516905308, 0.00309573533013463, 0.009605580009520054, 0.030094999819993973, 0.007734173908829689, 0.0045882342383265495, 0.03365492448210716], [0.017112256959080696, 0.22545136511325836, 0.01836787909269333, 0.01787574775516987, 0.0009928903309628367, 0.0001580411335453391, 0.0020575039088726044, 0.03620930761098862, 0.2045695185661316, 0.02135581336915493, 0.006828786339610815, 0.0038595127407461405, 0.0008950310875661671, 0.2001717984676361, 0.001437930972315371, 0.00036973381065763533, 0.0030861070845276117, 0.20602603256702423, 0.004290193319320679, 0.0048109861090779305, 0.024073591455817223], [0.032647814601659775, 0.17024025321006775, 0.0332067646086216, 0.05029991269111633, 0.00043535802979022264, 6.887724157422781e-05, 0.000357128243194893, 0.014130139723420143, 0.14535029232501984, 0.013775804080069065, 0.029910769313573837, 0.05053858831524849, 0.013113973662257195, 0.14697861671447754, 0.006207701750099659, 0.003212464042007923, 0.017235873267054558, 0.14789342880249023, 0.018372485414147377, 0.029010573402047157, 0.07701307535171509], [0.011835932731628418, 0.12170617282390594, 0.016330035403370857, 0.11185408383607864, 0.002234166953712702, 0.0002442522381898016, 0.0001445360539946705, 0.0024354758206754923, 0.0994390994310379, 0.0019148298306390643, 0.11869898438453674, 0.21869266033172607, 0.043961361050605774, 0.10368192940950394, 0.007311834953725338, 0.00256318598985672, 0.00847755465656519, 0.10285414755344391, 0.011138437315821648, 0.004059162922203541, 0.010422167368233204], [0.05229940637946129, 0.12107356637716293, 0.04405251517891884, 0.038593024015426636, 0.01654396578669548, 0.01623278483748436, 0.02022497169673443, 0.0373588465154171, 0.11213675141334534, 0.02573421411216259, 0.02748497575521469, 0.02125628851354122, 0.015026913955807686, 0.11388760060071945, 0.0312039777636528, 0.015628505498170853, 0.02638915926218033, 0.11427856981754303, 0.0394713431596756, 0.04557797685265541, 0.06554475426673889], [0.017679627984762192, 0.04063306376338005, 0.008965910412371159, 0.009087923914194107, 0.007580275647342205, 0.0015726120909675956, 0.000659746176097542, 0.007529771886765957, 0.0341525562107563, 0.005029772408306599, 0.008683989755809307, 0.07449139654636383, 0.5158462524414062, 0.03595656156539917, 0.034697677940130234, 0.013027640990912914, 0.024609798565506935, 0.03514895215630531, 0.028351109474897385, 0.04381166025996208, 0.0524836927652359], [0.04527721181511879, 0.04534871131181717, 0.004020041320472956, 0.006831962149590254, 0.009957353584468365, 0.010922598652541637, 0.00028790856595151126, 0.002629626542329788, 0.04126415401697159, 0.0012820891570299864, 0.00554579496383667, 0.038446083664894104, 0.4215666353702545, 0.04424506425857544, 0.12171698361635208, 0.029613742604851723, 0.031304601579904556, 0.042865950614213943, 0.03195251524448395, 0.030035043135285378, 0.03488589823246002], [0.015560478903353214, 0.0357719287276268, 0.0019481504568830132, 0.0033965783659368753, 0.006113739218562841, 0.03401058167219162, 0.0037299846298992634, 0.0019531843718141317, 0.0324508473277092, 0.0005332233849912882, 0.005287769250571728, 0.009371472522616386, 0.06650952994823456, 0.03321802243590355, 0.557640790939331, 0.10250945389270782, 0.03255445510149002, 0.03239361569285393, 0.013906440697610378, 0.003835327224805951, 0.00730440067127347], [0.05246035382151604, 0.1206156313419342, 0.044271320104599, 0.038798484951257706, 0.016606153920292854, 0.016576841473579407, 0.020551802590489388, 0.03732655942440033, 0.11171506345272064, 0.025884751230478287, 0.027573170140385628, 0.021034924313426018, 0.014678655192255974, 0.11342619359493256, 0.03163925185799599, 0.01582983136177063, 0.02647729218006134, 0.11381975561380386, 0.03949671983718872, 0.045654889196157455, 0.06556235253810883], [0.02052011527121067, 0.028776906430721283, 0.005686899181455374, 0.0015026263426989317, 0.001596270827576518, 0.0016867411322891712, 0.0012874031672254205, 0.007526829373091459, 0.02665521390736103, 0.0016849628882482648, 0.001966536045074463, 0.010930750519037247, 0.0410832017660141, 0.027371790260076523, 0.32073840498924255, 0.139646515250206, 0.2523946166038513, 0.0271548293530941, 0.044927407056093216, 0.021726610139012337, 0.015135279856622219], [0.04538048058748245, 0.033201687037944794, 0.005513181444257498, 0.007212414871901274, 0.007576521951705217, 0.0004008512769360095, 0.0005670619430020452, 0.010650960728526115, 0.02797146514058113, 0.002970183501020074, 0.005142513662576675, 0.013975168578326702, 0.26860833168029785, 0.029083508998155594, 0.15035781264305115, 0.05742551013827324, 0.1715453863143921, 0.028687233105301857, 0.0718507394194603, 0.030133694410324097, 0.031745318323373795], [0.054773442447185516, 0.13057322800159454, 0.022799326106905937, 0.01829702779650688, 0.0011307017412036657, 0.0003120184410363436, 0.0007578575168736279, 0.007891591638326645, 0.1116943284869194, 0.01646175980567932, 0.005449298769235611, 0.010987448506057262, 0.004068346228450537, 0.11521710455417633, 0.022761303931474686, 0.007347768172621727, 0.016551954671740532, 0.11672665923833847, 0.11092675477266312, 0.08638624101877213, 0.13888578116893768]], [[0.08358123898506165, 0.024647261947393417, 0.013113552704453468, 0.10399751365184784, 0.012828475795686245, 0.03885742649435997, 0.0008146354812197387, 0.028773795813322067, 0.022750703617930412, 0.023841066285967827, 0.04130490869283676, 0.017973143607378006, 0.03172752633690834, 0.023069627583026886, 0.0485854372382164, 0.00488303741440177, 0.05236387252807617, 0.02317136898636818, 0.1746804565191269, 0.17085596919059753, 0.05817899852991104], [0.02730182558298111, 0.16511966288089752, 0.021348195150494576, 0.030508287250995636, 0.033594660460948944, 0.009710101410746574, 0.009454682469367981, 0.014103633351624012, 0.14985963702201843, 0.017727850005030632, 0.040735598653554916, 0.019200854003429413, 0.027813438326120377, 0.14827865362167358, 0.030175330117344856, 0.022557711228728294, 0.026648230850696564, 0.1478322446346283, 0.017284192144870758, 0.016879010945558548, 0.02386624366044998], [0.014087404124438763, 0.20573827624320984, 0.0721810981631279, 0.06949768215417862, 0.026041416451334953, 0.011955088935792446, 0.0010434509022161365, 0.0022986021358519793, 0.13855476677417755, 0.0062452321872115135, 0.0757598951458931, 0.009672567248344421, 0.013653192669153214, 0.13796596229076385, 0.032779399305582047, 0.003661542199552059, 0.002754958812147379, 0.13835416734218597, 0.007868410088121891, 0.007268269080668688, 0.0226186104118824], [0.013592047616839409, 0.08980870246887207, 0.3674185872077942, 0.06773185729980469, 0.019973590970039368, 0.012159761041402817, 0.0042105549946427345, 0.009187286719679832, 0.07147040963172913, 0.05733169615268707, 0.0033734829630702734, 0.007268036250025034, 0.0033340502995997667, 0.07252568751573563, 0.0019987081177532673, 0.000383177975891158, 0.0013152024475857615, 0.07388772815465927, 0.01996426098048687, 0.04904481768608093, 0.05402037501335144], [0.0007466923561878502, 0.037749048322439194, 0.049093302339315414, 0.7272709012031555, 0.07089272141456604, 0.0019300341373309493, 0.0010935441823676229, 0.0008688965463079512, 0.03260001912713051, 0.000381746853236109, 0.0006048978539183736, 0.0030489186756312847, 0.0010091359727084637, 0.03336530923843384, 0.0010666379239410162, 0.0002877948572859168, 0.0003684633120428771, 0.03418590500950813, 0.001467146328650415, 0.0009787240996956825, 0.0009902099845930934], [0.0012690129224210978, 0.21746869385242462, 0.0006658334168605506, 0.02568078599870205, 0.16469566524028778, 0.038071006536483765, 0.006594969425350428, 0.0003690837766043842, 0.17217592895030975, 0.00037919849273748696, 0.0031120528001338243, 0.0006203616503626108, 0.012794029898941517, 0.17561255395412445, 0.005603270139545202, 0.0003160026390105486, 0.00032972884946502745, 0.17071714997291565, 0.00048752917791716754, 0.00047734822146594524, 0.0025597328785806894], [3.836625546682626e-05, 0.0034636277705430984, 0.00011163328599650413, 0.00029641055152751505, 0.007321383338421583, 0.974230945110321, 0.003950754180550575, 0.00022510513372253627, 0.0029128810856491327, 4.31190273957327e-05, 0.00016021014016587287, 1.3952370863989927e-05, 8.01506539573893e-05, 0.0029064349364489317, 0.0010842340998351574, 0.00022024757345207036, 5.470667474583024e-06, 0.0028423883486539125, 1.2148590030847117e-05, 1.654052539379336e-05, 6.389874761225656e-05], [0.00038494053296744823, 0.01620018109679222, 0.00011471741163404658, 0.000940206868108362, 0.0004754051915369928, 0.0009506050264462829, 0.8732519745826721, 0.02223585918545723, 0.015856923535466194, 0.0010639360407367349, 3.155977537971921e-05, 1.0544518772803713e-05, 1.82751718966756e-05, 0.015362969599664211, 0.002301592379808426, 0.031709227710962296, 0.0016045920783653855, 0.01554951909929514, 0.0014927687589079142, 8.624907059129328e-05, 0.0003579076146706939], [0.024016784504055977, 0.16994903981685638, 0.018083559349179268, 0.028162531554698944, 0.03193241357803345, 0.011726317927241325, 0.009845592081546783, 0.013245790265500546, 0.1562315970659256, 0.015153792686760426, 0.04623919352889061, 0.018528692424297333, 0.02483045868575573, 0.15448103845119476, 0.0286267027258873, 0.02324969880282879, 0.023425603285431862, 0.15386153757572174, 0.014358318410813808, 0.01473025232553482, 0.019321030005812645], [0.00521926861256361, 0.11787529289722443, 0.0022821081802248955, 0.004850483499467373, 0.015012182295322418, 0.010741258971393108, 0.13842181861400604, 0.19339300692081451, 0.09989754855632782, 0.17303217947483063, 0.004292504861950874, 0.0002415570052107796, 0.0013257170794531703, 0.09443975239992142, 0.0023635253310203552, 0.002594177844002843, 0.01036231778562069, 0.09504035860300064, 0.005763062741607428, 0.003089035162702203, 0.019762873649597168], [0.02218114398419857, 0.09433096647262573, 0.022905640304088593, 0.003289904911071062, 0.0015956112183630466, 0.00017858122009783983, 0.004906595218926668, 0.07923705130815506, 0.08265983313322067, 0.28702014684677124, 0.012060967274010181, 0.009462015703320503, 0.010790248401463032, 0.08022463321685791, 0.0133885582908988, 0.001379498397000134, 0.02017197571694851, 0.08202464133501053, 0.029485659673810005, 0.06913483887910843, 0.07357147336006165], [0.011992229148745537, 0.09391656517982483, 0.017144735902547836, 0.010243522003293037, 0.000782507355324924, 0.0006375377997756004, 0.00011275452561676502, 0.00203207996673882, 0.07588831335306168, 0.006732231937348843, 0.4681251645088196, 0.07485155761241913, 0.018862659111618996, 0.07610340416431427, 0.02404869720339775, 0.003699058899655938, 0.007643948774784803, 0.07642459869384766, 0.00826170202344656, 0.013026690110564232, 0.009470012970268726], [0.0006770523614250124, 0.11218137294054031, 0.04979382082819939, 0.01821085624396801, 0.0008389177965000272, 0.00016559207870159298, 6.877183477627113e-05, 0.00014472752809524536, 0.11015444993972778, 0.0006499324226751924, 0.003722085850313306, 0.3742859661579132, 0.05849594622850418, 0.11731016635894775, 0.005745723843574524, 0.0007187153096310794, 0.0023357581812888384, 0.11753646284341812, 0.014450727961957455, 0.011756428517401218, 0.0007565562264062464], [0.024276604875922203, 0.16886195540428162, 0.018633533269166946, 0.027844401076436043, 0.03128421679139137, 0.011435559950768948, 0.009164668619632721, 0.012467829510569572, 0.15540258586406708, 0.015045729465782642, 0.047974418848752975, 0.019971054047346115, 0.02627447247505188, 0.15384413301944733, 0.028672749176621437, 0.02313307859003544, 0.02304895780980587, 0.15318532288074493, 0.014678400941193104, 0.015209639444947243, 0.019590720534324646], [0.0019734902307391167, 0.11498720198869705, 0.00046361121349036694, 0.000667456304654479, 0.006248422432690859, 0.03595789894461632, 0.0009061222663149238, 0.0019192177569493651, 0.09520485252141953, 0.000574996811337769, 0.003451651195064187, 0.0021338139194995165, 0.42952030897140503, 0.10017365217208862, 0.082553431391716, 0.0024385356809943914, 0.013514833524823189, 0.09624096751213074, 0.0010651833144947886, 0.0033828956075012684, 0.006621402222663164], [9.299921657657251e-05, 0.0016416230937466025, 1.6804615370347165e-05, 3.821334757958539e-05, 1.636619163036812e-05, 0.0007606073631905019, 0.0013218509266152978, 3.9062138966983184e-05, 0.0017595549579709768, 5.304011938278563e-05, 1.1390813597245142e-05, 2.557639527367428e-05, 0.0005632336833514273, 0.001826860592700541, 0.949802815914154, 0.03651437908411026, 0.00033892897772602737, 0.0017953503411263227, 0.003252891357988119, 5.732909630751237e-05, 7.108729187166318e-05], [0.0001848922693170607, 0.0019912265706807375, 0.0001252242218470201, 2.9220802389318123e-05, 4.165314385318197e-05, 2.3058068109094165e-05, 0.0015772080514580011, 0.0005992192309349775, 0.002105277730152011, 0.00011595204705372453, 1.6064415831351653e-05, 0.0001223974977619946, 0.0006631231517530978, 0.002141052158549428, 0.018867826089262962, 0.9469762444496155, 0.017909660935401917, 0.002126877661794424, 0.0039059489499777555, 0.0003304916899651289, 0.00014745115186087787], [0.024140600115060806, 0.16930146515369415, 0.01883605122566223, 0.027990559116005898, 0.03053199127316475, 0.01150556094944477, 0.009148973040282726, 0.012622331269085407, 0.15569479763507843, 0.015039867721498013, 0.048429232090711594, 0.01995430886745453, 0.02500431053340435, 0.15408901870250702, 0.028485121205449104, 0.023207873106002808, 0.023164689540863037, 0.1534367948770523, 0.014742047525942326, 0.015249932184815407, 0.019424479454755783], [0.020041583105921745, 0.08724608272314072, 0.0033768394496291876, 0.0005713754217140377, 0.001401050016283989, 0.0004304351459722966, 0.0035418891347944736, 0.007309069857001305, 0.08115279674530029, 0.007876088842749596, 0.00490246806293726, 0.0035005544777959585, 0.0148700512945652, 0.08037823438644409, 0.11827538162469864, 0.09505727887153625, 0.20409785211086273, 0.08042905479669571, 0.10559968650341034, 0.04780995473265648, 0.032132212072610855], [0.004109768662601709, 0.0077871279790997505, 0.0009921076707541943, 0.0007387583609670401, 0.00016820331802591681, 3.3439115213695914e-05, 0.0009376484085805714, 0.00044793044799007475, 0.00722395209595561, 0.005940521601587534, 0.00048685516230762005, 0.0010363614419475198, 0.00442825723439455, 0.007280027028173208, 0.010986145585775375, 0.013642027974128723, 0.011319689452648163, 0.007290688343346119, 0.878835141658783, 0.02833990752696991, 0.007975433021783829], [0.058966703712940216, 0.061599671840667725, 0.057566992938518524, 0.03286764398217201, 0.008129027672111988, 0.0036172443069517612, 0.0010885989759117365, 0.008373983204364777, 0.057489171624183655, 0.036023080348968506, 0.007222981192171574, 0.028441447764635086, 0.03400903195142746, 0.058484602719545364, 0.03348122537136078, 0.002709414344280958, 0.016646791249513626, 0.0593012198805809, 0.1711026132106781, 0.20343440771102905, 0.05944409593939781]], [[0.02086701989173889, 0.010960854589939117, 0.05434684455394745, 0.08057951927185059, 0.024487966671586037, 0.020250145345926285, 0.06865536421537399, 0.0630907192826271, 0.010073527693748474, 0.1637171059846878, 0.018597625195980072, 0.0227276049554348, 0.00883244164288044, 0.0103527270257473, 0.06045423820614815, 0.023728204891085625, 0.07540372014045715, 0.010423539206385612, 0.10876739770174026, 0.04651635140180588, 0.09716702997684479], [0.021563025191426277, 0.15008042752742767, 0.03116213157773018, 0.030755572021007538, 0.022674763575196266, 0.01849612593650818, 0.021307850256562233, 0.020610127598047256, 0.14617952704429626, 0.021209044381976128, 0.034367818385362625, 0.02841571718454361, 0.022319460287690163, 0.14668257534503937, 0.021798880770802498, 0.012039498426020145, 0.022973207756876945, 0.14687924087047577, 0.02484080195426941, 0.019673626869916916, 0.03597066178917885], [0.003916213288903236, 0.04696384817361832, 0.047984328120946884, 0.1041807159781456, 0.28543969988822937, 0.010973941534757614, 0.016285669058561325, 0.06933669745922089, 0.042378004640340805, 0.06838768720626831, 0.061574533581733704, 0.047010958194732666, 0.046828802675008774, 0.04196545109152794, 0.00603070855140686, 0.0015810028417035937, 0.015689188614487648, 0.042568594217300415, 0.016731085255742073, 0.008493529632687569, 0.015679338946938515], [0.010137930512428284, 0.07720204442739487, 0.09007038921117783, 0.037350550293922424, 0.10904654860496521, 0.012752464972436428, 0.01576177030801773, 0.035999227315187454, 0.06677308678627014, 0.05558857321739197, 0.13384653627872467, 0.12318337708711624, 0.013197900727391243, 0.0665743499994278, 0.009445616975426674, 0.0018697694176808, 0.008628498762845993, 0.06702016294002533, 0.005716296844184399, 0.0061371042393147945, 0.05369781702756882], [0.0044923522509634495, 0.1937989890575409, 0.02808954007923603, 0.010456458665430546, 0.019827213138341904, 0.004764691926538944, 0.004123428370803595, 0.030507445335388184, 0.17412815988063812, 0.021405790001153946, 0.09002690762281418, 0.04336060956120491, 0.002077632350847125, 0.17224273085594177, 0.0032775751315057278, 0.00033208608510904014, 0.003785029286518693, 0.17501460015773773, 0.0028138163033872843, 0.0015267402632161975, 0.013948190957307816], [0.009439575485885143, 0.15953309834003448, 0.01674594171345234, 0.005758570972830057, 0.002853425219655037, 0.021276729181408882, 0.01835562475025654, 0.09904622286558151, 0.14016962051391602, 0.04210280254483223, 0.0436725951731205, 0.05500050261616707, 0.0019969583954662085, 0.14252135157585144, 0.010169441811740398, 0.0023644226603209972, 0.00739272590726614, 0.14417047798633575, 0.02183913066983223, 0.01638040319085121, 0.03921026363968849], [0.004835212137550116, 0.16665668785572052, 0.018775232136249542, 0.004427167121320963, 0.003627273952588439, 0.021272914484143257, 0.023582329973578453, 0.07294827699661255, 0.14250192046165466, 0.091901034116745, 0.040873266756534576, 0.059502437710762024, 0.0022199770901352167, 0.14545083045959473, 0.006002388894557953, 0.001165660098195076, 0.007463410496711731, 0.14686734974384308, 0.01799195446074009, 0.007457949686795473, 0.014476656913757324], [0.006177994422614574, 0.19087347388267517, 0.011644380167126656, 0.00642463518306613, 0.009411610662937164, 0.00864883791655302, 0.008647180162370205, 0.028362298384308815, 0.16894200444221497, 0.03144301474094391, 0.058199938386678696, 0.05330659821629524, 0.008832735940814018, 0.17121192812919617, 0.006871121935546398, 0.0015982667682692409, 0.007641077507287264, 0.17177125811576843, 0.015990737825632095, 0.006239209324121475, 0.027761662378907204], [0.023361699655652046, 0.1530487984418869, 0.02661397121846676, 0.026309896260499954, 0.018449816852808, 0.01739354617893696, 0.018629660829901695, 0.018318593502044678, 0.15014547109603882, 0.02011132426559925, 0.032496217638254166, 0.027229806408286095, 0.02252628095448017, 0.15094760060310364, 0.0231543630361557, 0.012895531952381134, 0.023800859227776527, 0.15112078189849854, 0.02581177093088627, 0.020953498780727386, 0.03668057546019554], [0.009267013520002365, 0.21087653934955597, 0.007676219567656517, 0.004366749431937933, 0.002334415214136243, 0.00573375727981329, 0.0044719805009663105, 0.01770341582596302, 0.18266698718070984, 0.03900177404284477, 0.044694364070892334, 0.029568728059530258, 0.003501459490507841, 0.186188742518425, 0.006976778153330088, 0.0016448904061689973, 0.011643631383776665, 0.18665337562561035, 0.018156031146645546, 0.006480644457042217, 0.02039244771003723], [0.012549989856779575, 0.06772078573703766, 0.023374661803245544, 0.01660887338221073, 0.014105310663580894, 0.003572909627109766, 0.0035363694187253714, 0.006092282943427563, 0.06295966356992722, 0.009300826117396355, 0.025060981512069702, 0.13338519632816315, 0.19429492950439453, 0.06583382934331894, 0.05806509777903557, 0.00899846013635397, 0.05923667550086975, 0.06515058875083923, 0.057399481534957886, 0.04354527220129967, 0.06920784711837769], [0.007481625769287348, 0.04876355826854706, 0.008883552625775337, 0.011726444587111473, 0.008402938023209572, 0.0013248976320028305, 0.000937380944378674, 0.0025714212097227573, 0.04819304496049881, 0.003363501513376832, 0.02953284978866577, 0.11076635122299194, 0.3267989456653595, 0.04985697194933891, 0.08538725227117538, 0.010955777019262314, 0.05162319168448448, 0.049617040902376175, 0.05855425447225571, 0.038030628114938736, 0.04722839966416359], [0.00874846987426281, 0.18906310200691223, 0.004621203988790512, 0.002100515877828002, 0.0009789535542950034, 0.00031227958970703185, 0.0003118882013950497, 0.001222329679876566, 0.18583424389362335, 0.0007141316891647875, 0.00758353853598237, 0.02047554962337017, 0.020208893343806267, 0.19430504739284515, 0.03881353884935379, 0.0031268566381186247, 0.029974540695548058, 0.19547560811042786, 0.04119391366839409, 0.020509056746959686, 0.03442626819014549], [0.02321574091911316, 0.15288425981998444, 0.02643418312072754, 0.026067905128002167, 0.018119189888238907, 0.017245730385184288, 0.01853739283978939, 0.0182875394821167, 0.15007996559143066, 0.019860906526446342, 0.03191114589571953, 0.027229154482483864, 0.022614611312747, 0.15090405941009521, 0.023457195609807968, 0.013131123967468739, 0.024114932864904404, 0.1510753333568573, 0.026421768590807915, 0.021556498482823372, 0.03685133159160614], [0.007899448275566101, 0.06834347546100616, 0.005716752726584673, 0.0016571530140936375, 0.000348388944985345, 0.0002986948820762336, 0.00039461959386244416, 0.0022899515461176634, 0.06082215905189514, 0.0019107997650280595, 0.005144231487065554, 0.02449702098965645, 0.005866833962500095, 0.06383812427520752, 0.03871070593595505, 0.010239222086966038, 0.047622423619031906, 0.06477617472410202, 0.3367976248264313, 0.17952220141887665, 0.07330396771430969], [0.01685493066906929, 0.0881095752120018, 0.005753915756940842, 0.0021912981756031513, 0.0013412254629656672, 0.0008194681722670794, 0.0005467045702971518, 0.002202029339969158, 0.08195243030786514, 0.002870837925001979, 0.00846817810088396, 0.02613203600049019, 0.010730721987783909, 0.08576157689094543, 0.031430020928382874, 0.005733261350542307, 0.03467399626970291, 0.08676958829164505, 0.25880154967308044, 0.17262785136699677, 0.0762288048863411], [0.01245312299579382, 0.07270252704620361, 0.006100074388086796, 0.004084730986505747, 0.002341481624171138, 0.0006393372314050794, 0.0005523036234080791, 0.002134188311174512, 0.06371668726205826, 0.002110420959070325, 0.013108720071613789, 0.03971969336271286, 0.03037274070084095, 0.06620322912931442, 0.042031724005937576, 0.009808394126594067, 0.029654143378138542, 0.06661955267190933, 0.2594921588897705, 0.16286589205265045, 0.11328888684511185], [0.02315191924571991, 0.15290892124176025, 0.02653173916041851, 0.026203647255897522, 0.018283866345882416, 0.01739034801721573, 0.018758360296487808, 0.018519602715969086, 0.15004323422908783, 0.020102575421333313, 0.03184081241488457, 0.02720036543905735, 0.022582266479730606, 0.15084196627140045, 0.023238690569996834, 0.0130366962403059, 0.023989954963326454, 0.15102246403694153, 0.026290075853466988, 0.021412184461951256, 0.036650337278842926], [0.033314138650894165, 0.15755578875541687, 0.008366713300347328, 0.004598221275955439, 0.002367645502090454, 0.0032811774872243404, 0.0009565678192302585, 0.007324961479753256, 0.13675180077552795, 0.004118422046303749, 0.018360253423452377, 0.021508095785975456, 0.007447909098118544, 0.1413336843252182, 0.02732846885919571, 0.005988535471260548, 0.02177349105477333, 0.14251616597175598, 0.09270597994327545, 0.03314914554357529, 0.12925289571285248], [0.0243600495159626, 0.16166867315769196, 0.012264366261661053, 0.006016820203512907, 0.0019965777173638344, 0.002579544670879841, 0.0006949546514078975, 0.003318092552945018, 0.14212021231651306, 0.0016373629914596677, 0.020146410912275314, 0.045785363763570786, 0.009316889569163322, 0.14769907295703888, 0.025121252983808517, 0.005816240329295397, 0.011524740606546402, 0.14887382090091705, 0.05746300518512726, 0.030849959701299667, 0.14074653387069702], [0.0198898334056139, 0.07399071753025055, 0.05146610736846924, 0.04432493448257446, 0.03271050751209259, 0.009583227336406708, 0.008871782571077347, 0.030927101150155067, 0.063242107629776, 0.012838320806622505, 0.08692046999931335, 0.10692192614078522, 0.022883424535393715, 0.06414352357387543, 0.014923215843737125, 0.005791832692921162, 0.018452011048793793, 0.06430715322494507, 0.02616855874657631, 0.0181499682366848, 0.22349324822425842]], [[0.03403608128428459, 0.11656052619218826, 0.009811928495764732, 0.0054860287345945835, 0.006812418345361948, 0.002628752263262868, 0.0025044565554708242, 0.015070033259689808, 0.11673323810100555, 0.013023696839809418, 0.017656736075878143, 0.014515924267470837, 0.01709766872227192, 0.1189156025648117, 0.0745203047990799, 0.03828364610671997, 0.07066410034894943, 0.11902868747711182, 0.1379137635231018, 0.03201312571763992, 0.03672323003411293], [0.05670849233865738, 0.13895255327224731, 0.018713340163230896, 0.027154333889484406, 0.01464938186109066, 0.0066171493381261826, 0.007690104190260172, 0.023623988032341003, 0.12836091220378876, 0.018888259306550026, 0.06114787608385086, 0.026608174666762352, 0.022777490317821503, 0.12848559021949768, 0.025967799127101898, 0.018184704706072807, 0.03078654408454895, 0.12819141149520874, 0.02994801104068756, 0.027496956288814545, 0.05904705822467804], [0.035246167331933975, 0.2553201913833618, 0.07003229111433029, 0.011949749663472176, 0.010327951051294804, 0.002246586140245199, 0.0013799503212794662, 0.003159730462357402, 0.18002375960350037, 0.0008548562764190137, 0.009513315744698048, 0.009537270292639732, 0.006486425641924143, 0.18638215959072113, 0.00404093274846673, 0.0027296205516904593, 0.007710703648626804, 0.1843988299369812, 0.0015171965351328254, 0.002402194309979677, 0.014740169048309326], [0.014213345013558865, 0.06626522541046143, 0.5975990295410156, 0.04765486717224121, 0.043631069362163544, 0.0011254330165684223, 0.00304930261336267, 0.007351070176810026, 0.04320049285888672, 0.0020618736743927, 0.006342544686049223, 0.03131552413105965, 0.004078235477209091, 0.04335404932498932, 0.0006811734638176858, 0.00027290653088130057, 0.0031923491042107344, 0.043274376541376114, 0.0012676164042204618, 0.001988018862903118, 0.03808153048157692], [0.0015801212284713984, 0.054975476115942, 0.7322283387184143, 0.05499521642923355, 0.015047811903059483, 0.000242534457356669, 0.0004785406345035881, 0.001534103648737073, 0.034238237887620926, 0.000459609815152362, 0.0016975360922515392, 0.02238869108259678, 0.00042505658348090947, 0.034520938992500305, 0.00018522328173276037, 4.1133906051982194e-05, 0.0005799737409688532, 0.034264251589775085, 0.0004623495333362371, 0.00039568881038576365, 0.009259221144020557], [0.03585021197795868, 0.24699918925762177, 0.07523969560861588, 0.020505037158727646, 0.008221954107284546, 0.006426566746085882, 0.008573179133236408, 0.007687895093113184, 0.1810496747493744, 0.004100261256098747, 0.006473683752119541, 0.005467891227453947, 0.0007800900493748486, 0.18615880608558655, 0.0005891916807740927, 0.00036204748903401196, 0.0012327441945672035, 0.1864302009344101, 0.001842350116930902, 0.0014358804328367114, 0.01457357406616211], [0.06559235602617264, 0.1511669009923935, 0.1579090803861618, 0.05221512168645859, 0.04752812162041664, 0.028762871399521828, 0.07684765011072159, 0.01824069581925869, 0.10903158038854599, 0.010741319507360458, 0.008005858398973942, 0.007791673298925161, 0.001925499178469181, 0.1120961606502533, 0.0031796377152204514, 0.001120468252338469, 0.0025795961264520884, 0.11248242855072021, 0.004619556944817305, 0.004491431172937155, 0.0236720722168684], [0.026180487126111984, 0.12302328646183014, 0.035742346197366714, 0.023025529459118843, 0.028919007629156113, 0.2937009632587433, 0.06006031483411789, 0.05911921337246895, 0.09280651807785034, 0.017817847430706024, 0.003320242278277874, 0.0010954835452139378, 0.000597701407968998, 0.09499660134315491, 0.0034549464471638203, 0.0022042503114789724, 0.00412845890969038, 0.09483861923217773, 0.0024954271502792835, 0.0024548035580664873, 0.03001783788204193], [0.055754173547029495, 0.135734423995018, 0.018018443137407303, 0.0279878880828619, 0.015639672055840492, 0.007038102950900793, 0.007231083698570728, 0.023951934650540352, 0.12702034413814545, 0.018399229273200035, 0.06523608416318893, 0.02847190760076046, 0.024771152064204216, 0.1270483285188675, 0.025177093222737312, 0.01882701739668846, 0.03073393739759922, 0.12671919167041779, 0.03147493675351143, 0.02760973945260048, 0.057155244052410126], [0.003594760550186038, 0.035508282482624054, 0.013767537660896778, 0.0507584810256958, 0.052584148943424225, 0.16016270220279694, 0.37728407979011536, 0.1619444489479065, 0.030395107343792915, 0.01782800815999508, 0.0037368510384112597, 0.0015200284542515874, 0.0026682699099183083, 0.030446574091911316, 0.004882923327386379, 0.002428079256787896, 0.006397637072950602, 0.03060082532465458, 0.0023847995325922966, 0.0011479107197374105, 0.009958535432815552], [0.014155550859868526, 0.06696216017007828, 0.07985839992761612, 0.13539591431617737, 0.18938562273979187, 0.017261000350117683, 0.02241470478475094, 0.14035090804100037, 0.057047195732593536, 0.011148413643240929, 0.00775179686024785, 0.020152732729911804, 0.012642250396311283, 0.05579270049929619, 0.009183427318930626, 0.006416028365492821, 0.0424843430519104, 0.05629192665219307, 0.0029920851811766624, 0.005120001267641783, 0.047192852944135666], [0.016130860894918442, 0.12634676694869995, 0.08818761259317398, 0.01052530761808157, 0.016151616349816322, 0.001862302771769464, 0.0016553769819438457, 0.010502662509679794, 0.10362059623003006, 0.004691135138273239, 0.03804471716284752, 0.22041310369968414, 0.06072596460580826, 0.10504167526960373, 0.01504004467278719, 0.007206188049167395, 0.0461345911026001, 0.10392402857542038, 0.002832334954291582, 0.004009771626442671, 0.01695338822901249], [0.00020041046082042158, 0.010607261210680008, 0.026333261281251907, 0.0028896783478558064, 0.0015220217173919082, 1.319040802627569e-05, 2.4360009774682112e-05, 0.0003099379828199744, 0.008191748522222042, 0.00026747974334284663, 0.02033662423491478, 0.8596209287643433, 0.042583487927913666, 0.008388897404074669, 0.001513359835371375, 0.0003503802581690252, 0.005284840706735849, 0.008164170198142529, 0.0005021397955715656, 0.0007199604297056794, 0.002175840549170971], [0.0559440553188324, 0.1350708156824112, 0.01762063428759575, 0.026808317750692368, 0.014673537574708462, 0.006713348440825939, 0.00700512295588851, 0.023301463574171066, 0.12649506330490112, 0.018253333866596222, 0.06714347749948502, 0.029443511739373207, 0.02542322687804699, 0.12656965851783752, 0.025704532861709595, 0.019228318706154823, 0.031064797192811966, 0.126222625374794, 0.0317813977599144, 0.028047209605574608, 0.057485587894916534], [0.0065054018050432205, 0.1498890370130539, 0.010048046708106995, 0.006048482842743397, 0.004735562019050121, 0.003034059191122651, 0.0021406025625765324, 0.00596750108525157, 0.12151338160037994, 0.0028950143605470657, 0.05011390149593353, 0.09572149068117142, 0.20066849887371063, 0.1256202906370163, 0.02901950664818287, 0.011104511097073555, 0.02910526841878891, 0.12368476390838623, 0.004134268965572119, 0.005243010353296995, 0.01280740462243557], [0.03594973683357239, 0.13521121442317963, 0.008483363315463066, 0.0029357685707509518, 0.002598715480417013, 0.005206746514886618, 0.0029224539175629616, 0.011243443936109543, 0.11326352506875992, 0.0029542914126068354, 0.02841387316584587, 0.05172793194651604, 0.07906156033277512, 0.11789599061012268, 0.10644937306642532, 0.05023103207349777, 0.09243600815534592, 0.11561870574951172, 0.00792002398520708, 0.010387513786554337, 0.019088713452219963], [0.02048238180577755, 0.10164310783147812, 0.011124778538942337, 0.00522209657356143, 0.007409454323351383, 0.007465684320777655, 0.00201965169981122, 0.007017171010375023, 0.08474168181419373, 0.0068316031247377396, 0.04510532319545746, 0.0658467561006546, 0.1507330685853958, 0.08717991411685944, 0.11292601376771927, 0.08074835687875748, 0.08770956099033356, 0.08533518016338348, 0.004400463774800301, 0.00625424413010478, 0.019803551957011223], [0.056136611849069595, 0.13470223546028137, 0.017582977190613747, 0.02702224813401699, 0.014839882962405682, 0.006806590594351292, 0.0070304847322404385, 0.023480046540498734, 0.12630541622638702, 0.018431805074214935, 0.06623318046331406, 0.028986450284719467, 0.025109190493822098, 0.1263805329799652, 0.025784913450479507, 0.0194994043558836, 0.03131772205233574, 0.12604708969593048, 0.03234344720840454, 0.02838289923965931, 0.05757685750722885], [0.0018215533345937729, 0.02529004029929638, 0.006707245483994484, 0.00223345635458827, 0.0025818420108407736, 0.0035305789206176996, 0.0048168436624109745, 0.0045746685937047005, 0.023158546537160873, 0.0032751394901424646, 0.007721131667494774, 0.042879194021224976, 0.2032364010810852, 0.023947834968566895, 0.2890832722187042, 0.13082942366600037, 0.16290441155433655, 0.023588353767991066, 0.016708994284272194, 0.012787288054823875, 0.00832369364798069], [0.0043762060813605785, 0.011437134817242622, 0.007550748530775309, 0.001779907033778727, 0.0023177233524620533, 0.0032917074859142303, 0.0018196799792349339, 0.00606082659214735, 0.009703860618174076, 0.0018146648071706295, 0.011554554104804993, 0.032340820878744125, 0.1307053416967392, 0.010018490254878998, 0.3028425872325897, 0.1864788681268692, 0.22553296387195587, 0.009867191314697266, 0.011137795634567738, 0.014221281744539738, 0.015147599391639233], [0.022897522896528244, 0.10909724235534668, 0.03253180906176567, 0.016313988715410233, 0.007530272472649813, 0.0016364444745704532, 0.0012088477378711104, 0.014224451966583729, 0.09125692397356033, 0.006715581752359867, 0.03066466748714447, 0.09896299242973328, 0.030593588948249817, 0.09322233498096466, 0.06533145904541016, 0.024274734780192375, 0.09823870658874512, 0.09233919531106949, 0.048067618161439896, 0.02849879302084446, 0.08639278262853622]], [[0.033725347369909286, 0.014095587655901909, 0.10156837850809097, 0.12772852182388306, 0.015521690249443054, 0.01620894856750965, 0.007886277511715889, 0.005567912477999926, 0.011058990843594074, 0.014122528955340385, 0.1872580200433731, 0.08923289179801941, 0.01767287775874138, 0.011268422938883305, 0.023590480908751488, 0.004386099986732006, 0.00628264993429184, 0.01128033921122551, 0.011350544169545174, 0.01845243200659752, 0.27174103260040283], [0.03713763505220413, 0.15291208028793335, 0.015776101499795914, 0.018914882093667984, 0.0071728345938026905, 0.010565487667918205, 0.03428680822253227, 0.03147262707352638, 0.1474260836839676, 0.035320695489645004, 0.01756088063120842, 0.01998216100037098, 0.00480686454102397, 0.14895744621753693, 0.017799297347664833, 0.00786726176738739, 0.02071395330131054, 0.14952217042446136, 0.032849933952093124, 0.022670209407806396, 0.06628469377756119], [0.002852856880053878, 0.14528387784957886, 0.06747720390558243, 0.15262018144130707, 0.14615419507026672, 0.03321089223027229, 0.0361025333404541, 0.011447785422205925, 0.11131601780653, 0.012801448814570904, 0.0037587289698421955, 0.00391663983464241, 0.015879210084676743, 0.113580621778965, 0.006561461370438337, 0.0020921609830111265, 0.00297390203922987, 0.1128314733505249, 0.005555965472012758, 0.006646379362791777, 0.006936468183994293], [0.001921651535667479, 0.06180831044912338, 0.14426358044147491, 0.10730074346065521, 0.3838531970977783, 0.03115530125796795, 0.017631063237786293, 0.024788353592157364, 0.051726147532463074, 0.006817883346229792, 0.018401088193058968, 0.012562011368572712, 0.013037854805588722, 0.050472091883420944, 0.01051398180425167, 0.0038234188687056303, 0.00481417728587985, 0.04991913586854935, 0.0008138770353980362, 0.000811014964710921, 0.003565140999853611], [0.0012227734550833702, 0.12366436421871185, 0.020695457234978676, 0.04027557000517845, 0.05506594106554985, 0.10464378446340561, 0.19204501807689667, 0.06062614917755127, 0.10194984078407288, 0.05997104570269585, 0.003514905460178852, 0.001223716069944203, 0.001406974857673049, 0.09982042014598846, 0.018297424539923668, 0.0030806362628936768, 0.00525941327214241, 0.09856708347797394, 0.0016069398261606693, 0.002648573601618409, 0.004413938149809837], [0.0032496813219040632, 0.08419779688119888, 0.014488888904452324, 0.019687263295054436, 0.02279437892138958, 0.042653750628232956, 0.1412564516067505, 0.13275206089019775, 0.07529299706220627, 0.1865829974412918, 0.011017565615475178, 0.0015395467635244131, 0.003447443014010787, 0.07336177676916122, 0.010499806143343449, 0.013653652742505074, 0.06219267100095749, 0.07285448908805847, 0.014559492468833923, 0.006070469040423632, 0.007846813648939133], [0.0016076423926278949, 0.17093464732170105, 0.027584724128246307, 0.021281322464346886, 0.013173455372452736, 0.00535640399903059, 0.007684055715799332, 0.04609476402401924, 0.1449834257364273, 0.19893895089626312, 0.02635306492447853, 0.01004808209836483, 0.002634071744978428, 0.14497533440589905, 0.0046101040206849575, 0.0014172715600579977, 0.011678377166390419, 0.14545997977256775, 0.007309265434741974, 0.004602973815053701, 0.0032721112947911024], [0.0024405247531831264, 0.17956584692001343, 0.026404956355690956, 0.03048822097480297, 0.01914043165743351, 0.002283276291564107, 0.008128923363983631, 0.008638698607683182, 0.15267401933670044, 0.12177237868309021, 0.042015668004751205, 0.024880731478333473, 0.011713764630258083, 0.15488891303539276, 0.00521173095330596, 0.0008483027922920883, 0.009004591032862663, 0.1554477959871292, 0.018040601164102554, 0.013794470578432083, 0.012616166844964027], [0.043337542563676834, 0.1538095772266388, 0.013375316746532917, 0.015218311920762062, 0.0060049849562346935, 0.009580877609550953, 0.027921859174966812, 0.02579047717154026, 0.15108948945999146, 0.033239372074604034, 0.01755293644964695, 0.02034715563058853, 0.005009520798921585, 0.15271620452404022, 0.018770987167954445, 0.008552953600883484, 0.020453298464417458, 0.1533135622739792, 0.035393521189689636, 0.023791631683707237, 0.06473046541213989], [0.0010466556996107101, 0.24461227655410767, 0.005186339840292931, 0.014475627802312374, 0.00328426924534142, 0.0010256282985210419, 0.0021427178289741278, 0.007530780974775553, 0.20670589804649353, 0.035168830305337906, 0.007701925002038479, 0.020663773640990257, 0.004292395431548357, 0.21264274418354034, 0.0015196151798591018, 0.000790684309322387, 0.003044652519747615, 0.2113085240125656, 0.004008564166724682, 0.004403010476380587, 0.008444991894066334], [0.006841684225946665, 0.13856390118598938, 0.0171224232763052, 0.02404998242855072, 0.010660285130143166, 0.003147265873849392, 0.001583764678798616, 0.005740026477724314, 0.1278679519891739, 0.011863182298839092, 0.031091315671801567, 0.14473441243171692, 0.12633651494979858, 0.1320224553346634, 0.018847446888685226, 0.003861816134303808, 0.022201014682650566, 0.12985779345035553, 0.01059850212186575, 0.014194642193615437, 0.018813610076904297], [0.007407124154269695, 0.12224728614091873, 0.014643496833741665, 0.009943144395947456, 0.005971228238195181, 0.010819253511726856, 0.0061060297302901745, 0.0016817045398056507, 0.10325618833303452, 0.0035620671696960926, 0.006269749719649553, 0.0145814698189497, 0.268357515335083, 0.10753714293241501, 0.09061264991760254, 0.031925447285175323, 0.025290969759225845, 0.10541766881942749, 0.022271431982517242, 0.03165746107697487, 0.010441000573337078], [0.000690257758833468, 0.040624599903821945, 0.005277272313833237, 0.0021381292026489973, 0.0011127267498522997, 0.0039332048036158085, 0.0038409580010920763, 0.0015183548675850034, 0.03540409356355667, 0.002713317284360528, 0.0007775729754939675, 0.013657637871801853, 0.05505051836371422, 0.037481050938367844, 0.4176398515701294, 0.12081295251846313, 0.09617999196052551, 0.036182764917612076, 0.031959664076566696, 0.08865786343812943, 0.0043471637181937695], [0.04392172768712044, 0.15310923755168915, 0.01346190832555294, 0.015077912248671055, 0.006002146750688553, 0.009769746102392673, 0.02790360152721405, 0.025350915268063545, 0.15054097771644592, 0.0320671908557415, 0.01701653003692627, 0.020376043394207954, 0.005163074936717749, 0.15222808718681335, 0.019737303256988525, 0.00899859145283699, 0.020832309499382973, 0.1528134047985077, 0.036246392875909805, 0.024328479543328285, 0.06505443155765533], [0.0016867429949343204, 0.09461754560470581, 0.004619005136191845, 0.001074093277566135, 0.0006557083688676357, 0.001661887508817017, 0.0008714625146239996, 0.015455066226422787, 0.083736851811409, 0.005777027457952499, 0.002242039190605283, 0.004415540490299463, 0.0032453821040689945, 0.08667381852865219, 0.038198623806238174, 0.0747457966208458, 0.29133203625679016, 0.08602700382471085, 0.1435547024011612, 0.05181659013032913, 0.007592976558953524], [0.004164748825132847, 0.1874028444290161, 0.004281148314476013, 0.0016076667234301567, 0.0011668604565784335, 0.000655079900752753, 0.00013924988161306828, 0.0013647478772327304, 0.16265995800495148, 0.003922592382878065, 0.0027134136762470007, 0.006799432914704084, 0.004412257112562656, 0.16996513307094574, 0.012757627293467522, 0.00813068263232708, 0.027990393340587616, 0.16927304863929749, 0.14670178294181824, 0.07535765320062637, 0.008533651940524578], [0.0043013570830225945, 0.17112024128437042, 0.015061589889228344, 0.004773883149027824, 0.004964980762451887, 0.0003276318602729589, 0.0002378162753302604, 0.0008396198390983045, 0.1431175023317337, 0.003193984506651759, 0.005579639226198196, 0.032646313309669495, 0.02479366771876812, 0.14990945160388947, 0.009782922454178333, 0.0040522306226193905, 0.02071005292236805, 0.15041950345039368, 0.13474620878696442, 0.10686519742012024, 0.012556202709674835], [0.04405682906508446, 0.15339162945747375, 0.01353924535214901, 0.015189077705144882, 0.006087391171604395, 0.009786160662770271, 0.027851426973938942, 0.025085462257266045, 0.15089474618434906, 0.03226274996995926, 0.017037631943821907, 0.020375050604343414, 0.005141088273376226, 0.1525806486606598, 0.019417429342865944, 0.008806759491562843, 0.020391514524817467, 0.15318192541599274, 0.03609530255198479, 0.02402307651937008, 0.06480492651462555], [0.018465625122189522, 0.2055690437555313, 0.02060670033097267, 0.017643984407186508, 0.006742265075445175, 0.004999059252440929, 0.0025352644734084606, 0.004732528701424599, 0.17163610458374023, 0.007776948623359203, 0.008452342823147774, 0.0257805734872818, 0.02271244488656521, 0.1771368682384491, 0.017541250213980675, 0.010527146980166435, 0.009224927984178066, 0.17685936391353607, 0.03129039704799652, 0.019529560580849648, 0.040237706154584885], [0.006264982279390097, 0.19047769904136658, 0.022823849692940712, 0.017213091254234314, 0.0056374031119048595, 0.003900222945958376, 0.005420898552983999, 0.0029568925965577364, 0.16107869148254395, 0.005014736205339432, 0.0054791998118162155, 0.044986434280872345, 0.02301260642707348, 0.1692153662443161, 0.04942597076296806, 0.021504180505871773, 0.01212750282138586, 0.16898897290229797, 0.03401623293757439, 0.027932049706578255, 0.022523058578372], [0.004690316505730152, 0.11941449344158173, 0.11133566498756409, 0.13787858188152313, 0.020646974444389343, 0.005026209633797407, 0.00610940670594573, 0.012614416889846325, 0.08965698629617691, 0.008478019386529922, 0.06334670633077621, 0.09743127971887589, 0.015398628078401089, 0.09094621241092682, 0.017464593052864075, 0.006200640928000212, 0.010868515819311142, 0.09028623253107071, 0.009731144644320011, 0.01759668067097664, 0.06487822532653809]], [[0.024235285818576813, 0.09621017426252365, 0.01707453653216362, 0.019645091146230698, 0.017584867775440216, 0.0022364333271980286, 0.0036450426559895277, 0.0011787962866947055, 0.09407821297645569, 0.022090252488851547, 0.19341598451137543, 0.03203977644443512, 0.013611022382974625, 0.09349282085895538, 0.01238187775015831, 0.0013118005590513349, 0.0062358262948691845, 0.09305715560913086, 0.17164087295532227, 0.05390709638595581, 0.030927056446671486], [0.032049622386693954, 0.16325503587722778, 0.0189068466424942, 0.01762283593416214, 0.005759617779403925, 0.010907228104770184, 0.013155425898730755, 0.007191778160631657, 0.16726401448249817, 0.027080267667770386, 0.007769098039716482, 0.015773475170135498, 0.0038401333149522543, 0.17072394490242004, 0.016245616599917412, 0.005545109044760466, 0.016458524391055107, 0.17069555819034576, 0.07772335410118103, 0.023518433794379234, 0.02851404994726181], [0.0027188039384782314, 0.24695947766304016, 0.010463193990290165, 0.0937405601143837, 0.008248678408563137, 0.00036870635813102126, 0.0011286471271887422, 0.0007148077129386365, 0.1981154978275299, 0.0024553071707487106, 0.0012723110849037766, 0.009172555059194565, 0.002634557196870446, 0.20303496718406677, 0.00024657079484313726, 5.806324043078348e-05, 0.0007810860406607389, 0.2003161907196045, 0.0026247603818774223, 0.0011596125550568104, 0.013785621151328087], [0.0004394665011204779, 0.16163398325443268, 0.010116963647305965, 0.06574127823114395, 0.2682829797267914, 0.006354866083711386, 0.00870298407971859, 0.008581005036830902, 0.14906322956085205, 0.003530024318024516, 0.0006798721151426435, 0.004889781586825848, 0.00494500994682312, 0.15050779283046722, 0.00030007935129106045, 0.00038815030711703, 0.0004096438642591238, 0.15156283974647522, 0.00034165632678195834, 0.00028613052563741803, 0.0032422561198472977], [0.00025728350738063455, 0.0581369549036026, 0.003067019395530224, 0.004810595419257879, 0.08287101238965988, 0.49235913157463074, 0.16283157467842102, 0.01973998174071312, 0.054321568459272385, 0.0043717361986637115, 6.0619564465014264e-05, 0.00013768838834948838, 0.00031489937100559473, 0.055332500487565994, 0.0019045027438551188, 0.00046677031787112355, 0.002272594254463911, 0.05496123805642128, 0.00042041053529828787, 0.0003473401884548366, 0.001014562789350748], [0.001161450520157814, 0.17634201049804688, 0.0007308408967219293, 0.0028338751289993525, 0.00039839703822508454, 0.01110757328569889, 0.16817782819271088, 0.06896275281906128, 0.1738472431898117, 0.019296804443001747, 5.1649640226969495e-05, 2.31994654313894e-05, 2.7014217266696505e-05, 0.17613670229911804, 0.0027656860183924437, 0.0006401452701538801, 0.010205870494246483, 0.178825244307518, 0.005227269139140844, 0.0006708498112857342, 0.0025675122160464525], [0.0021481309086084366, 0.20364676415920258, 0.002779726404696703, 0.004902114626020193, 0.0014237994328141212, 0.0002535143867135048, 0.004958458710461855, 0.02704571932554245, 0.18857522308826447, 0.17703087627887726, 0.0010348729556426406, 0.0006589728291146457, 0.0002511547354515642, 0.18463416397571564, 0.0010358128929510713, 0.0001633745850995183, 0.002642956795170903, 0.18665868043899536, 0.0029902977403253317, 0.0013505038805305958, 0.005814827047288418], [0.003384739626199007, 0.13584870100021362, 0.02264346182346344, 0.004069005139172077, 0.0019807431381195784, 5.5469419748988e-05, 0.014064814895391464, 0.031931523233652115, 0.11861073225736618, 0.324266642332077, 0.004819195717573166, 0.03334634751081467, 0.0006812234641984105, 0.11628495156764984, 0.003763652639463544, 0.0004597355436999351, 0.019111618399620056, 0.11588090658187866, 0.009724599309265614, 0.011545984074473381, 0.02752603217959404], [0.03470166400074959, 0.16405414044857025, 0.01404536608606577, 0.014695312827825546, 0.0059356726706027985, 0.010830659419298172, 0.01184137910604477, 0.007416626904159784, 0.1711484044790268, 0.024733012542128563, 0.00812222808599472, 0.01397356390953064, 0.004471936263144016, 0.17467771470546722, 0.01592472568154335, 0.006040920037776232, 0.016413666307926178, 0.17463377118110657, 0.07382037490606308, 0.024300064891576767, 0.02821887470781803], [0.003731571836397052, 0.16521389782428741, 0.010159490630030632, 0.013617569580674171, 0.0020963784772902727, 1.783140396582894e-05, 0.0003317292721476406, 0.0025882364716380835, 0.15108126401901245, 0.03464926406741142, 0.01986236311495304, 0.21723979711532593, 0.002913807751610875, 0.15441541373729706, 0.0004330835654400289, 0.0002936047676485032, 0.0032368216197937727, 0.15382088720798492, 0.024085883051156998, 0.012209692038595676, 0.02800137922167778], [0.005845960695296526, 0.04406684264540672, 0.07190145552158356, 0.01737552508711815, 0.0005719870678149164, 0.008402162231504917, 0.0011577055556699634, 0.00041978328954428434, 0.042934395372867584, 0.006491233129054308, 0.006892746314406395, 0.6653850078582764, 0.0023100704420357943, 0.04468591511249542, 0.013644925318658352, 0.001751162577420473, 0.0023876086343079805, 0.044079240411520004, 0.006555784959346056, 0.0017536184750497341, 0.011386930011212826], [0.0014300235779955983, 0.24406468868255615, 0.0017877400387078524, 0.008047753944993019, 0.0011194382095709443, 0.0009176897583529353, 0.0004068640701007098, 0.00015640178753528744, 0.2126496434211731, 0.000559976149816066, 0.0013410703977569938, 0.020456714555621147, 0.05038140341639519, 0.22555993497371674, 0.0020285588689148426, 0.0003518466546665877, 0.0018680092180147767, 0.21875669062137604, 0.0015120323514565825, 0.001057781744748354, 0.005545703694224358], [0.0008112270152196288, 0.04287759214639664, 0.008306987583637238, 0.001911585801281035, 0.001557495561428368, 0.018673375248908997, 0.0073577347211539745, 0.0006184030207805336, 0.03943026438355446, 0.0012755462666973472, 0.0001710769283818081, 0.017086675390601158, 0.028508460149168968, 0.043529532849788666, 0.5165837407112122, 0.060173917561769485, 0.10883478075265884, 0.04195205494761467, 0.02542036399245262, 0.03152541071176529, 0.0033937208354473114], [0.03481149300932884, 0.16434110701084137, 0.013412135653197765, 0.014552527107298374, 0.005809285677969456, 0.010847717523574829, 0.011568225920200348, 0.007300535682588816, 0.1716691553592682, 0.02306060679256916, 0.00800261553376913, 0.01365204993635416, 0.004627978429198265, 0.17538943886756897, 0.016181394457817078, 0.006289834156632423, 0.016856122761964798, 0.17532676458358765, 0.07383116334676743, 0.024791184812784195, 0.02767868898808956], [0.0010167105356231332, 0.04214043915271759, 0.0007819905877113342, 0.0004796737339347601, 3.9953982195584103e-05, 0.00013725311146117747, 0.001822778256610036, 0.014218756929039955, 0.036159250885248184, 0.0016276640817523003, 0.00045957855763845146, 0.001989965094253421, 0.0009153392747975886, 0.037762612104415894, 0.04981124773621559, 0.09999790787696838, 0.42313987016677856, 0.037244535982608795, 0.20053163170814514, 0.038082413375377655, 0.011640430428087711], [0.00332817854359746, 0.13443031907081604, 0.0025002926122397184, 0.0007028630352579057, 0.00017471666797064245, 9.244428656529635e-05, 0.0007058656774461269, 0.007603393401950598, 0.11635133624076843, 0.0020537993405014277, 0.000695006747264415, 0.0035544459242373705, 0.0024100439622998238, 0.11979033052921295, 0.010030144825577736, 0.021161124110221863, 0.2392757087945938, 0.11826787889003754, 0.12010101228952408, 0.08108486235141754, 0.015686234459280968], [0.007787598762661219, 0.09665801376104355, 0.004451586864888668, 0.0018779966048896313, 0.00019959242490585893, 1.5434254237334244e-05, 0.00015517922292929143, 0.0009656473994255066, 0.08249052613973618, 0.003250090405344963, 0.0037178806960582733, 0.06589921563863754, 0.0031428262591362, 0.08484648168087006, 0.008975265547633171, 0.0050508733838796616, 0.08165378868579865, 0.0834796205163002, 0.20237934589385986, 0.2169884592294693, 0.04601456597447395], [0.03499831259250641, 0.16418877243995667, 0.013539278879761696, 0.014731268398463726, 0.0059788767248392105, 0.01076954510062933, 0.011557633057236671, 0.007369577884674072, 0.1715598851442337, 0.023329056799411774, 0.008089836686849594, 0.013697546906769276, 0.004653253126889467, 0.17521154880523682, 0.015848461538553238, 0.006221591494977474, 0.016622671857476234, 0.17518237233161926, 0.07387136667966843, 0.024701906368136406, 0.02787730284035206], [0.0028117888141423464, 0.18743176758289337, 0.0018960796296596527, 0.015051795169711113, 0.0008423327817581594, 5.9618767409119755e-05, 0.00012419895210769027, 0.0008702129125595093, 0.17231853306293488, 0.0026274584233760834, 0.0025924083311110735, 0.015463593415915966, 0.003190575400367379, 0.18263518810272217, 0.0006984702777117491, 0.0017071617767214775, 0.008225709199905396, 0.183180034160614, 0.06671018898487091, 0.12271247804164886, 0.028850354254245758], [0.015579499304294586, 0.15622445940971375, 0.0063131339848041534, 0.01387522928416729, 0.0006966463406570256, 3.507883593556471e-05, 0.00034092256100848317, 0.0009536653524264693, 0.14392781257629395, 0.005588204599916935, 0.008195928297936916, 0.07146918028593063, 0.0032322860788553953, 0.15225616097450256, 0.0028258354868739843, 0.0024276559706777334, 0.013696668669581413, 0.1522338092327118, 0.09815327078104019, 0.0904025211930275, 0.061572033911943436], [0.009835795499384403, 0.1282067596912384, 0.07797163724899292, 0.02453453093767166, 0.0016770513029769063, 0.0005572741501964629, 0.00837857834994793, 0.01300927996635437, 0.11006322503089905, 0.03961315378546715, 0.028502682223916054, 0.16416417062282562, 0.0020646583288908005, 0.11142446100711823, 0.009040877223014832, 0.006191703025251627, 0.029874030500650406, 0.11133388429880142, 0.03653568774461746, 0.04453207552433014, 0.042488519102334976]], [[0.03735285624861717, 0.12312015891075134, 0.011109964922070503, 0.02375629171729088, 0.007994474843144417, 0.024578262120485306, 0.0068236226215958595, 0.004606120754033327, 0.09856238961219788, 0.005237538367509842, 0.017405517399311066, 0.004524534568190575, 0.0045144096948206425, 0.1009088009595871, 0.03353327885270119, 0.023459995165467262, 0.00470051309093833, 0.10082735121250153, 0.019335666671395302, 0.0276816226541996, 0.31996670365333557], [0.025091463699936867, 0.12409211695194244, 0.03738614544272423, 0.02411646768450737, 0.019210508093237877, 0.018921617418527603, 0.015393217094242573, 0.007650603540241718, 0.12073647975921631, 0.08583898097276688, 0.026291923597455025, 0.026207251474261284, 0.013891813345253468, 0.12094523012638092, 0.04118392989039421, 0.00876299012452364, 0.018505308777093887, 0.12110929936170578, 0.07482921332120895, 0.04120052605867386, 0.02863483503460884], [0.003949520643800497, 0.10566985607147217, 0.04204489290714264, 0.37796783447265625, 0.11348558217287064, 0.0002203841577284038, 0.004215779714286327, 0.0006247231503948569, 0.08783461153507233, 0.001677397987805307, 0.007003293372690678, 0.01670091412961483, 0.024132702499628067, 0.09061130881309509, 0.00044849805999547243, 0.0009136220323853195, 0.0010943408124148846, 0.09105526655912399, 0.005820553284138441, 0.005497736856341362, 0.019031256437301636], [0.0006116192089393735, 0.01830410584807396, 0.014321408234536648, 0.048803478479385376, 0.8066524863243103, 0.013179062865674496, 0.019648553803563118, 0.004823618568480015, 0.01707414910197258, 0.0006513009429909289, 0.0008329368429258466, 0.008235413581132889, 0.007342839613556862, 0.017238080501556396, 0.000582605367526412, 0.0009093054104596376, 0.0002852167817763984, 0.017267953604459763, 0.00017009330622386187, 0.000444448203779757, 0.0026213296223431826], [0.0009608659311197698, 0.08941969275474548, 0.004902774468064308, 0.01979926787316799, 0.05217752233147621, 0.3095720410346985, 0.2180021107196808, 0.030679170042276382, 0.08481531590223312, 0.012300919741392136, 0.0005166135961189866, 0.0005168215720914304, 0.00021438385010696948, 0.08393574506044388, 0.005253717768937349, 0.000693323730956763, 0.001338889473117888, 0.08310619741678238, 0.00031649816082790494, 0.00028397049754858017, 0.0011942163109779358], [1.445629277441185e-05, 0.0005364968092180789, 0.0011663157492876053, 0.0008061612024903297, 7.012230344116688e-05, 0.007040437776595354, 0.9591094255447388, 0.022231152281165123, 0.000587791611906141, 0.004123579245060682, 5.387562850955874e-06, 7.638690294697881e-05, 5.800719463877613e-06, 0.0005780739593319595, 0.0014444318367168307, 0.000969714717939496, 0.0006069812807254493, 0.0005758597981184721, 1.3502609363058582e-05, 7.240803370223148e-06, 3.063071926590055e-05], [0.0005732561694458127, 0.02250097505748272, 0.0035754546988755465, 0.0028746165335178375, 0.002956530312076211, 0.000896799610927701, 0.01965104416012764, 0.8435555100440979, 0.02014963887631893, 0.022729605436325073, 0.002519000321626663, 0.00039477532845921814, 0.00013733829837292433, 0.019344652071595192, 0.0001239649427589029, 0.0020106753800064325, 0.012130198068916798, 0.01947006955742836, 0.00022026045189704746, 0.0003599050978664309, 0.0038256533443927765], [0.010245718993246555, 0.2124810516834259, 0.004849233664572239, 0.009244797751307487, 0.005710760597139597, 0.00037745002191513777, 0.004369829315692186, 0.03135587275028229, 0.18614496290683746, 0.10985007137060165, 0.030195845291018486, 0.002266585361212492, 0.0009613733272999525, 0.17727968096733093, 0.0009854676900431514, 0.0001290017389692366, 0.008341427892446518, 0.17835082113742828, 0.007419220637530088, 0.003315767040476203, 0.016125164926052094], [0.02876964770257473, 0.12431958317756653, 0.02871963568031788, 0.01980704814195633, 0.020053016021847725, 0.01985054276883602, 0.014873494394123554, 0.0083386842161417, 0.12283623218536377, 0.0690932422876358, 0.026924097910523415, 0.026212120428681374, 0.017227498814463615, 0.12332475930452347, 0.04444092884659767, 0.011090613901615143, 0.02082769386470318, 0.12343034148216248, 0.07284869253635406, 0.042332686483860016, 0.034679513424634933], [0.005719094071537256, 0.15987321734428406, 0.007557333912700415, 0.01335442066192627, 0.003563178703188896, 0.00011237564467592165, 0.0014776861062273383, 0.03783903270959854, 0.1304594725370407, 0.025385038927197456, 0.24303334951400757, 0.021879326552152634, 0.0030580826569348574, 0.12803837656974792, 0.00025279191322624683, 0.0009542993502691388, 0.013673188164830208, 0.12998194992542267, 0.010243618860840797, 0.015181213617324829, 0.04836297780275345], [0.00030555581906810403, 0.0020457673817873, 0.0633481964468956, 0.0008391449810005724, 0.00010268225014442578, 0.0005651931278407574, 0.0022385960910469294, 0.0015017482219263911, 0.0019058049656450748, 0.014049738645553589, 0.0033068645279854536, 0.8881088495254517, 0.0010299565037712455, 0.0019132466986775398, 0.0010670358315110207, 0.00016512842557858676, 0.009967351332306862, 0.0019049789989367127, 0.0033322935923933983, 0.0017529199831187725, 0.0005490885814651847], [0.0015962106408551335, 0.039792146533727646, 0.0026862341910600662, 0.0050501711666584015, 0.005904856137931347, 0.00018163952336180955, 0.00030503954621963203, 6.72769092489034e-05, 0.03635682165622711, 7.143963739508763e-05, 0.0017523454735055566, 0.09920403361320496, 0.6994558572769165, 0.039751604199409485, 0.004974113777279854, 0.0031516063027083874, 0.0012863206211477518, 0.038838744163513184, 0.004416948184370995, 0.005504482425749302, 0.009652214124798775], [0.004328860901296139, 0.10084604471921921, 0.00067040731664747, 0.0011511867633089423, 0.0011258963495492935, 0.013499255292117596, 0.0032119364477694035, 0.0005655919667333364, 0.09132154285907745, 0.0012262029340490699, 0.0004964630352333188, 0.004127341788262129, 0.049832526594400406, 0.09881407767534256, 0.45153799653053284, 0.04117180407047272, 0.01485396083444357, 0.09462832659482956, 0.011088336817920208, 0.007990561425685883, 0.007511611562222242], [0.02937808260321617, 0.12570631504058838, 0.026832494884729385, 0.01962362416088581, 0.020096372812986374, 0.020349489524960518, 0.014580164104700089, 0.007907824590802193, 0.1243327334523201, 0.06305108964443207, 0.02573997713625431, 0.025468014180660248, 0.018028246238827705, 0.12498822063207626, 0.0464814268052578, 0.011693166568875313, 0.020221348851919174, 0.12505249679088593, 0.07260022312402725, 0.04246542602777481, 0.03540331870317459], [1.6184785636141896e-05, 0.00010146080603590235, 4.508225174504332e-05, 5.658963800669881e-06, 1.0011930498876609e-05, 4.460902346181683e-05, 0.0005836107884533703, 0.0013024861691519618, 9.024032624438405e-05, 1.4631249541707803e-05, 2.51610381383216e-05, 3.830443893093616e-05, 0.00010057036706712097, 9.14481861400418e-05, 0.0017669808585196733, 0.9673179984092712, 0.026853034272789955, 8.949539187597111e-05, 0.00019936345051974058, 0.0011853030882775784, 0.00011834161705337465], [0.0018079387955367565, 0.011223949491977692, 0.0015813050558790565, 0.00010188157466473058, 0.00012679959763772786, 5.804234751849435e-05, 0.0003754750650841743, 0.004374281503260136, 0.009921563789248466, 0.00107395660597831, 0.0006512882537208498, 0.00159068638458848, 0.0008444358827546239, 0.010047543793916702, 0.0028647349681705236, 0.022422971203923225, 0.8622311353683472, 0.009969586506485939, 0.039199359714984894, 0.017392631620168686, 0.002140454715117812], [0.014528791420161724, 0.12223527580499649, 0.000894293945748359, 0.0008769750129431486, 0.0005902590928599238, 1.9244174836785533e-05, 2.2590591470361687e-05, 0.0009262989624403417, 0.10070940852165222, 0.0027760176453739405, 0.010482617653906345, 0.00573978666216135, 0.013450208120048046, 0.10130412876605988, 0.0033140515442937613, 0.0010618484811857343, 0.05772075057029724, 0.1005018800497055, 0.29544469714164734, 0.14625203609466553, 0.021148892119526863], [0.02963266335427761, 0.12570621073246002, 0.027068527415394783, 0.019900567829608917, 0.020678436383605003, 0.02031039446592331, 0.01454464066773653, 0.008021366782486439, 0.124177485704422, 0.06302858144044876, 0.026112403720617294, 0.0253597404807806, 0.018168216571211815, 0.12480754405260086, 0.04525822401046753, 0.01168265100568533, 0.02001039683818817, 0.12488393485546112, 0.07209675014019012, 0.04250095784664154, 0.036050327122211456], [0.015173478983342648, 0.04218118637800217, 0.012659509666264057, 0.006254829932004213, 0.0024772139731794596, 0.00023258743749465793, 0.00025562584050931036, 0.006078051403164864, 0.03116711974143982, 0.00280880369246006, 0.022909948602318764, 0.028418943285942078, 0.018890174105763435, 0.03211718797683716, 0.002885279478505254, 0.028300952166318893, 0.08025943487882614, 0.03220506012439728, 0.08045221120119095, 0.43750306963920593, 0.1167692169547081], [0.045373015105724335, 0.10139045119285583, 0.0033726529218256474, 0.007948651909828186, 0.0017946760635823011, 0.00011518625979078934, 0.00013593773473985493, 0.0033194180577993393, 0.08526540547609329, 0.0026769477408379316, 0.019092444330453873, 0.019441377371549606, 0.009668929502367973, 0.08789721876382828, 0.004541970323771238, 0.0034316061064600945, 0.02712388150393963, 0.08814646303653717, 0.09243541955947876, 0.19481509923934937, 0.2020132690668106], [0.010138440877199173, 0.2148292511701584, 0.03185790777206421, 0.053846538066864014, 0.008434263058006763, 0.008188789710402489, 0.002971113659441471, 0.002564487513154745, 0.161343052983284, 0.022238118574023247, 0.04368885979056358, 0.01258384995162487, 0.004964033607393503, 0.16287893056869507, 0.010189886204898357, 0.001103886286728084, 0.0032620395068079233, 0.1625913381576538, 0.02695128321647644, 0.030031627044081688, 0.025342371314764023]], [[0.07997367531061172, 0.0033942521549761295, 0.03325599804520607, 0.013485538773238659, 0.0028565956745296717, 0.0033654074650257826, 0.0038761284667998552, 0.002176503883674741, 0.0031527504324913025, 0.02370903082191944, 0.003498141886666417, 0.03734230250120163, 0.01703460142016411, 0.0032742000184953213, 0.3549162447452545, 0.033905938267707825, 0.021823661401867867, 0.0032401480711996555, 0.14996688067913055, 0.13094621896743774, 0.07480576634407043], [6.691539601888508e-05, 0.2532520294189453, 0.00037142421933822334, 0.0016117701306939125, 6.966751971049234e-05, 2.8770265998900868e-05, 0.0002461339463479817, 4.2858046072069556e-05, 0.2474087029695511, 0.0005376621265895665, 0.00013345449406187981, 0.0003573050780687481, 6.388942711055279e-05, 0.24724547564983368, 0.0005786808324046433, 2.1103325707372278e-05, 0.0001548037980683148, 0.24686883389949799, 0.0006526769720949233, 6.348267925204709e-05, 0.00022446300135925412], [0.002775452332571149, 0.09807325154542923, 0.12221285700798035, 0.035022784024477005, 0.016037974506616592, 0.002481909701600671, 0.005745915230363607, 0.0014025545679032803, 0.08432121574878693, 0.13271979987621307, 0.005849200766533613, 0.05007601156830788, 0.020833300426602364, 0.08449772000312805, 0.07474707812070847, 0.002612559823319316, 0.003266420215368271, 0.08371712267398834, 0.1206088587641716, 0.013899390585720539, 0.03909871354699135], [0.0003153145662508905, 0.15205715596675873, 0.101693294942379, 0.0882682353258133, 0.11134246736764908, 0.0007435400621034205, 0.0010954886674880981, 0.0004077209741808474, 0.13721300661563873, 0.008070135489106178, 0.008781864307820797, 0.07281164824962616, 0.026447053998708725, 0.13717621564865112, 0.0014377286424860358, 0.00013730931095778942, 0.0008432913455180824, 0.13652682304382324, 0.00296771596185863, 0.0013680399861186743, 0.010295957326889038], [8.460237040708307e-06, 0.09674116969108582, 0.1883600950241089, 0.2390477955341339, 0.08829296380281448, 0.00045875858631916344, 0.0003690483281388879, 7.518432539654896e-05, 0.08072546869516373, 0.0006960197351872921, 0.0021700591314584017, 0.1319514811038971, 0.0072294739075005054, 0.08084846287965775, 0.0013192197075113654, 2.8765176466549747e-05, 9.036964911501855e-05, 0.08055420219898224, 0.0004346306377556175, 8.892024197848514e-05, 0.0005095198866911232], [0.0007539947982877493, 0.20539025962352753, 0.0032299913000315428, 0.009114989079535007, 0.0013824200723320246, 0.02242870442569256, 0.018074123188853264, 0.003956902772188187, 0.20857325196266174, 0.07802711427211761, 0.001928097102791071, 0.002436811802908778, 0.0007126537966541946, 0.20942753553390503, 0.009496179409325123, 0.00034753739601001143, 0.0007910660933703184, 0.21003007888793945, 0.006239335983991623, 0.002870537806302309, 0.004788360558450222], [4.322595123085193e-05, 0.20171195268630981, 0.0013898712350055575, 0.0004621527623385191, 0.00023790355771780014, 0.0002087117318296805, 0.05251132696866989, 0.0006396441021934152, 0.21212832629680634, 0.10578933358192444, 9.248380229109898e-05, 0.000431626831414178, 7.744644244667143e-05, 0.20988911390304565, 0.0010278801200911403, 0.00014754943549633026, 0.00033229647669941187, 0.21010521054267883, 0.0022296239621937275, 0.00016980762302409858, 0.00037450939998961985], [0.00013860446051694453, 0.2277672290802002, 0.0026212683878839016, 0.0046427189372479916, 0.0005354094901122153, 0.0005481301341205835, 0.011140613816678524, 0.004611471202224493, 0.22307156026363373, 0.05796736478805542, 0.0003024263132829219, 0.0009937278227880597, 0.000385813124012202, 0.22386391460895538, 0.006997046992182732, 0.000268364732619375, 0.0030573818366974592, 0.2241276353597641, 0.004382162354886532, 0.0012930395314469934, 0.001284174737520516], [6.762250268366188e-05, 0.24972368776798248, 0.000369858491467312, 0.0016357993008568883, 7.540411752415821e-05, 3.3490767236799e-05, 0.00028215788188390434, 5.460347529151477e-05, 0.2484414279460907, 0.0005501953419297934, 0.00013508433767128736, 0.0003753183700609952, 6.708493310725316e-05, 0.24836622178554535, 0.000579588464461267, 2.8699902031803504e-05, 0.00019974863971583545, 0.24809029698371887, 0.000659582728985697, 6.624288653256372e-05, 0.00019789510406553745], [0.0005313534056767821, 0.18470335006713867, 0.01856713742017746, 0.002506914548575878, 0.0006796852103434503, 0.000776969944126904, 0.015649717301130295, 0.00141246581915766, 0.17391647398471832, 0.18043847382068634, 0.0007491729920729995, 0.004929354414343834, 0.0009941777680069208, 0.17468160390853882, 0.01593215949833393, 0.00018460936553310603, 0.001073526102118194, 0.17438797652721405, 0.03772863373160362, 0.0037023653276264668, 0.006453912705183029], [0.0036505882162600756, 0.13732877373695374, 0.024364640936255455, 0.19848117232322693, 0.012039518915116787, 0.0018599225440993905, 0.0006236820481717587, 0.0006399154081009328, 0.11623001843690872, 0.008878425695002079, 0.032183416187763214, 0.07033443450927734, 0.03184397891163826, 0.11654847115278244, 0.02794041484594345, 0.0006623106310144067, 0.0038187161553651094, 0.11572590470314026, 0.021565936505794525, 0.014489416964352131, 0.06079048663377762], [0.00175427773501724, 0.11323225498199463, 0.06499292701482773, 0.07698386907577515, 0.00600472092628479, 0.0024217055179178715, 0.002595657715573907, 0.00035915544140152633, 0.10628901422023773, 0.02380020171403885, 0.013634772971272469, 0.1682891994714737, 0.02158958837389946, 0.10743143409490585, 0.07104333490133286, 0.0017724251374602318, 0.005447302013635635, 0.10674972832202911, 0.07520100474357605, 0.012018761597573757, 0.018388740718364716], [4.003240610472858e-05, 0.061109758913517, 0.17710526287555695, 0.16737951338291168, 0.006235623732209206, 0.0005371079896576703, 0.0004061331565026194, 3.061328243347816e-05, 0.053251344710588455, 0.0025614802725613117, 0.001165427383966744, 0.3730890154838562, 0.02268713340163231, 0.05430631712079048, 0.01808537170290947, 0.0001283657766180113, 0.00041500653605908155, 0.05408636853098869, 0.005545211490243673, 0.0007789647206664085, 0.0010560944210737944], [6.767549348296598e-05, 0.24934111535549164, 0.0003675509069580585, 0.001639741356484592, 7.434110011672601e-05, 3.390653364476748e-05, 0.0002856434148270637, 5.526637323782779e-05, 0.2485344111919403, 0.0005552839138545096, 0.00013508470146916807, 0.00037836405681446195, 6.721470708725974e-05, 0.24848392605781555, 0.0005947361350990832, 2.9117723897797987e-05, 0.00020220497390255332, 0.24821867048740387, 0.0006693443283438683, 6.78512078593485e-05, 0.00019850626995321363], [0.0011334643932059407, 0.03572188317775726, 0.002808346413075924, 0.0006373837240971625, 5.736554885515943e-05, 0.0020843942184001207, 0.001671023084782064, 0.0005439266678877175, 0.034870460629463196, 0.023659585043787956, 0.0010307061020284891, 0.00607087230309844, 0.0007038639159873128, 0.03522402048110962, 0.7130698561668396, 0.01593073457479477, 0.0030443191062659025, 0.03463563695549965, 0.07610950618982315, 0.008511009626090527, 0.002481660107150674], [0.0015718950890004635, 0.054279476404190063, 0.0007364356424659491, 0.0016834198031574488, 6.507291254820302e-05, 0.0006405910826288164, 0.006685338914394379, 0.0028586506377905607, 0.05708415433764458, 0.036486025899648666, 0.0010937185725197196, 0.0019070851849392056, 0.00043577226460911334, 0.05751033127307892, 0.36243242025375366, 0.26313960552215576, 0.05030032992362976, 0.05729292333126068, 0.03208578750491142, 0.008005726151168346, 0.003705198410898447], [0.0014099469408392906, 0.12014703452587128, 0.005852174013853073, 0.01979452557861805, 0.000734694127459079, 0.0002294103760505095, 0.0028550324495881796, 0.0018224911764264107, 0.11840222775936127, 0.05935227870941162, 0.0026167300529778004, 0.011128375306725502, 0.0036824007984250784, 0.11910351365804672, 0.21825256943702698, 0.01961873471736908, 0.07090064883232117, 0.11803262680768967, 0.07662797719240189, 0.020879339426755905, 0.008557310327887535], [6.855869287392125e-05, 0.24922721087932587, 0.0003789645852521062, 0.0016622983384877443, 7.716115942457691e-05, 3.4605989640112966e-05, 0.00029202207224443555, 5.6663964642211795e-05, 0.24852751195430756, 0.0005721616325899959, 0.0001367211516480893, 0.00038805065560154617, 6.928016227902845e-05, 0.2484789341688156, 0.0006037625716999173, 2.9765333238174208e-05, 0.00020559832046274096, 0.2482376992702484, 0.0006819540867581964, 6.897223647683859e-05, 0.0002021856780629605], [0.003334612585604191, 0.1474623680114746, 0.02108103781938553, 0.005056777969002724, 0.00024164665956050158, 0.000589098664931953, 0.0036360351368784904, 0.0006165363593026996, 0.1372690051794052, 0.07456644624471664, 0.0025614292826503515, 0.020712586119771004, 0.0012681493535637856, 0.13757416605949402, 0.10710379481315613, 0.0011330489069223404, 0.0027078064158558846, 0.1358613222837448, 0.15805639326572418, 0.021449243649840355, 0.017718516290187836], [0.0006540954345837235, 0.04653730243444443, 0.012945919297635555, 0.0036945664323866367, 5.291303023113869e-05, 0.00023859475913923234, 0.0029602653812617064, 0.000283737521385774, 0.04606784135103226, 0.09215221554040909, 0.00038860199856571853, 0.019845426082611084, 0.0007656710222363472, 0.04680247977375984, 0.27824825048446655, 0.0019919041078537703, 0.005095526576042175, 0.046422939747571945, 0.367750346660614, 0.01737535558640957, 0.009726114571094513], [0.004070018883794546, 0.11328321695327759, 0.00651878397911787, 0.008584067225456238, 0.00013883494830224663, 0.00067091517848894, 0.006032395642250776, 0.0005871881730854511, 0.10281242430210114, 0.1874241679906845, 0.0016772928647696972, 0.008495516143739223, 0.0008768265252001584, 0.10295714437961578, 0.08089092373847961, 0.0005454631755128503, 0.0015086446655914187, 0.1019713282585144, 0.16524405777454376, 0.023115532472729683, 0.08259520679712296]], [[0.010108370333909988, 0.009576099924743176, 0.06027359142899513, 0.0249027069658041, 0.09278906881809235, 0.02200092002749443, 0.024594400078058243, 0.010880552232265472, 0.009120089933276176, 0.03853346034884453, 0.08552276343107224, 0.17583408951759338, 0.16031904518604279, 0.00932607613503933, 0.07189035415649414, 0.007632874418050051, 0.008183556608855724, 0.009220887906849384, 0.016594091430306435, 0.05927318334579468, 0.09342394769191742], [0.47711825370788574, 0.012585475109517574, 0.0013159523950889707, 0.007521224673837423, 0.003501752857118845, 0.007957800291478634, 0.0023356867022812366, 0.02703712321817875, 0.011688603088259697, 0.024869123473763466, 0.0011921041877940297, 0.0017912770854309201, 0.0017269682139158249, 0.011824319139122963, 0.07294788956642151, 0.014015396125614643, 0.01521321665495634, 0.011821214109659195, 0.0051290905103087425, 0.003738208906725049, 0.28466933965682983], [0.06267210096120834, 0.1147189661860466, 0.007603216916322708, 0.004424269776791334, 0.00016863687778823078, 0.0006312266341410577, 0.003167377319186926, 0.0010661330306902528, 0.10061779618263245, 0.019703788682818413, 0.0027473873924463987, 0.005274209193885326, 0.00045814074110239744, 0.10258369147777557, 0.006199758965522051, 0.000549804070033133, 0.0023535906802862883, 0.10217603296041489, 0.026743818074464798, 0.012053394690155983, 0.4240867495536804], [0.058622606098651886, 0.14735101163387299, 0.0049746073782444, 0.018833758309483528, 0.000591080286540091, 0.0009330284665338695, 0.0011778527405112982, 0.0007989326259121299, 0.12721966207027435, 0.013095777481794357, 0.006338483188301325, 0.004249246325343847, 0.0012284580152481794, 0.12765958905220032, 0.004594986792653799, 0.0008881953544914722, 0.0016015084693208337, 0.1263020932674408, 0.026846257969737053, 0.013874556869268417, 0.31281837821006775], [0.022478749975562096, 0.2229674756526947, 0.007483907509595156, 0.016812248155474663, 0.002031486015766859, 0.0012184708612039685, 0.0008987002074718475, 0.0006197954062372446, 0.18249018490314484, 0.0032016944605857134, 0.0037949064280837774, 0.008561372756958008, 0.003516011405736208, 0.1847008913755417, 0.002057473175227642, 0.0003233893949072808, 0.0006924658082425594, 0.18363924324512482, 0.007913540117442608, 0.006302878260612488, 0.13829512894153595], [0.014654487371444702, 0.22743667662143707, 0.0016505935927852988, 0.006339140236377716, 0.00036201527109369636, 0.0049813129007816315, 0.0016056281747296453, 0.0017452365718781948, 0.20780044794082642, 0.0029495672788470984, 0.0035734297707676888, 0.0022990768775343895, 0.0003560832410585135, 0.20808273553848267, 0.008344878442585468, 0.0016862816410139203, 0.0020523015409708023, 0.20529621839523315, 0.00828327052295208, 0.005140382330864668, 0.08536015450954437], [0.06077605485916138, 0.0633833110332489, 0.008612943813204765, 0.009264430031180382, 0.00025404233019798994, 0.001572216977365315, 0.016995424404740334, 0.0370866060256958, 0.05866525322198868, 0.0252027940005064, 0.005847516935318708, 0.0108314985409379, 0.0005339476629160345, 0.059476468712091446, 0.009373437613248825, 0.00444058608263731, 0.047757383435964584, 0.059238675981760025, 0.07540233433246613, 0.020461905747652054, 0.42482301592826843], [0.08477869629859924, 0.014157275669276714, 0.000841911300085485, 0.002070022514089942, 0.0004812466795556247, 0.0002102079160977155, 0.0007874074508436024, 0.16524675488471985, 0.011397783644497395, 0.003329236526042223, 0.0012754943454638124, 0.0010525170946493745, 0.001307933358475566, 0.011440855450928211, 0.003750479081645608, 0.0017525507137179375, 0.10779348015785217, 0.011406864039599895, 0.00801674835383892, 0.011243859305977821, 0.5576586723327637], [0.4703826308250427, 0.013603425584733486, 0.0015909605426713824, 0.008415787480771542, 0.003714239690452814, 0.008955505676567554, 0.0028710495680570602, 0.03205088898539543, 0.012703325599431992, 0.027022771537303925, 0.001336115994490683, 0.0021130770910531282, 0.0018613601569086313, 0.012849627062678337, 0.07981192320585251, 0.017292317003011703, 0.018136221915483475, 0.012852651998400688, 0.005577723495662212, 0.004103898536413908, 0.2627544701099396], [0.09701579064130783, 0.10000696778297424, 0.007513062097132206, 0.007652379106730223, 0.0006985734216868877, 0.0014043892733752728, 0.004596106242388487, 0.00691891647875309, 0.09138570725917816, 0.02958325482904911, 0.006765199825167656, 0.008509847335517406, 0.0013901438796892762, 0.09277316182851791, 0.008230380713939667, 0.0017488043522462249, 0.006150973029434681, 0.09206929802894592, 0.03843577951192856, 0.0240751001983881, 0.3730761408805847], [0.0680026113986969, 0.0613323338329792, 0.01990901120007038, 0.05347134545445442, 0.006414279341697693, 0.0025666793808341026, 0.0025605892296880484, 0.005447207484394312, 0.052839819341897964, 0.009796430356800556, 0.07095850259065628, 0.03819796070456505, 0.013144847936928272, 0.053092408925294876, 0.010353358462452888, 0.001995750004425645, 0.00942952185869217, 0.05249558389186859, 0.033755823969841, 0.041998207569122314, 0.39223766326904297], [0.032809626311063766, 0.17032748460769653, 0.01367725245654583, 0.011201220564544201, 0.00031253727502189577, 0.0006586974486708641, 0.002346447203308344, 0.0019927022513002157, 0.15705712139606476, 0.0101929297670722, 0.0072799003683030605, 0.01534133031964302, 0.0008797062910161912, 0.1593446135520935, 0.007185764145106077, 0.0009524846100248396, 0.005611404310911894, 0.15862222015857697, 0.024077612906694412, 0.013165065087378025, 0.20696388185024261], [0.012022084556519985, 0.22159354388713837, 0.016391973942518234, 0.04417064040899277, 0.003864855272695422, 0.0033040253911167383, 0.002054993761703372, 0.00134754937607795, 0.1871287226676941, 0.0032302329782396555, 0.007651470601558685, 0.016964295879006386, 0.010008069686591625, 0.1904035061597824, 0.0027301267255097628, 0.0005256455624476075, 0.0019308055052533746, 0.18935240805149078, 0.009543980471789837, 0.007994691841304302, 0.0677863284945488], [0.4728943705558777, 0.013717168010771275, 0.0015910322545096278, 0.008264812640845776, 0.0037346549797803164, 0.008994649164378643, 0.0028393433894962072, 0.030993737280368805, 0.012818251736462116, 0.026847098022699356, 0.0013237232342362404, 0.0021004602313041687, 0.0018615755252540112, 0.01296697836369276, 0.07937154173851013, 0.017015933990478516, 0.01765500009059906, 0.012970725074410439, 0.005525047890841961, 0.004061502870172262, 0.2624523937702179], [0.04605204239487648, 0.15338373184204102, 0.0147061413154006, 0.012214655056595802, 0.0031438826117664576, 0.01343325525522232, 0.009665433317422867, 0.003228370100259781, 0.13748854398727417, 0.016994202509522438, 0.017862824723124504, 0.017139757052063942, 0.0035251411609351635, 0.13730913400650024, 0.047622520476579666, 0.01224077120423317, 0.0056452141143381596, 0.1363111287355423, 0.0195376668125391, 0.017290322110056877, 0.17520518600940704], [0.05080132186412811, 0.1515670269727707, 0.004811973311007023, 0.020054060965776443, 0.0012722089886665344, 0.005326167680323124, 0.006047297269105911, 0.008226740173995495, 0.12924644351005554, 0.012204726226627827, 0.009985663928091526, 0.00652512488886714, 0.001947219599969685, 0.12937256693840027, 0.029936786741018295, 0.019254520535469055, 0.022566160187125206, 0.12866239249706268, 0.015554940328001976, 0.017204076051712036, 0.22943264245986938], [0.08855076879262924, 0.10671461373567581, 0.0017266820650547743, 0.01073278859257698, 0.0023991395719349384, 0.0005503835855051875, 0.000700026866979897, 0.03613070771098137, 0.0884011909365654, 0.0037702354602515697, 0.005147458054125309, 0.002056228229776025, 0.00467460323125124, 0.08826608210802078, 0.011367923580110073, 0.009447838179767132, 0.06922993808984756, 0.0881979912519455, 0.007416051812469959, 0.010769047774374485, 0.36375030875205994], [0.47245144844055176, 0.013674289919435978, 0.0016083726659417152, 0.008266093209385872, 0.003753679571673274, 0.009063591249287128, 0.002881279680877924, 0.031153475865721703, 0.012781614437699318, 0.02712344378232956, 0.0013234964571893215, 0.0021171995904296637, 0.0018751374445855618, 0.01293088123202324, 0.079884834587574, 0.01720881275832653, 0.01780063472688198, 0.012935500591993332, 0.0055581252090632915, 0.00408968748524785, 0.2615184187889099], [0.0973498672246933, 0.15892936289310455, 0.0070543247275054455, 0.016015443950891495, 0.0014895781641826034, 0.0020131911151111126, 0.003908984363079071, 0.00443872669711709, 0.1399494856595993, 0.009952365420758724, 0.008674086071550846, 0.009008237160742283, 0.002272551879286766, 0.14157982170581818, 0.005399228539317846, 0.002671333961188793, 0.004790783394128084, 0.14076824486255646, 0.01883039064705372, 0.012803511694073677, 0.21210047602653503], [0.13844500482082367, 0.02404383383691311, 0.016231415793299675, 0.016178229823708534, 0.0020187273621559143, 0.0011342051438987255, 0.001967095071449876, 0.00499592162668705, 0.019709695130586624, 0.01505284197628498, 0.006956242490559816, 0.014618262648582458, 0.0038269604556262493, 0.02007247321307659, 0.009997533634305, 0.001212802599184215, 0.005338988732546568, 0.019889136776328087, 0.0157167948782444, 0.021723506972193718, 0.6408702731132507], [0.09046019613742828, 0.005764266941696405, 0.01566745899617672, 0.013028180226683617, 0.03797061741352081, 0.018738362938165665, 0.007007629610598087, 0.009465872310101986, 0.004911508876830339, 0.02659916691482067, 0.018837831914424896, 0.02347865328192711, 0.0684729814529419, 0.004980900790542364, 0.04404844343662262, 0.003091589780524373, 0.0037164234090596437, 0.004915241617709398, 0.02505798637866974, 0.05145224928855896, 0.5223343372344971]]], [[[0.04175226762890816, 0.06594531238079071, 0.05760952830314636, 0.01612170599400997, 0.006483303848654032, 0.013209925964474678, 0.019332880154252052, 0.018362896516919136, 0.06465157121419907, 0.04561122879385948, 0.007912862114608288, 0.03272915259003639, 0.003048302372917533, 0.06466221064329147, 0.03017536923289299, 0.010444514453411102, 0.039280738681554794, 0.0647069662809372, 0.08654613047838211, 0.12361089140176773, 0.1878022700548172], [0.0487515851855278, 0.02701411210000515, 0.05715131759643555, 0.04558170586824417, 0.05004584416747093, 0.03887372091412544, 0.04672211408615112, 0.028167692944407463, 0.027103500440716743, 0.07154534012079239, 0.018502792343497276, 0.06512989848852158, 0.058664627373218536, 0.027116380631923676, 0.06730316579341888, 0.03779580816626549, 0.058437030762434006, 0.027116553857922554, 0.06965669989585876, 0.07530525326728821, 0.05401486158370972], [0.0013832019176334143, 0.15631242096424103, 0.16509181261062622, 0.017922144383192062, 0.005914400331676006, 0.0028045817743986845, 0.010563336312770844, 0.004724434576928616, 0.1534038633108139, 0.016429957002401352, 0.0007669530459679663, 0.07118132710456848, 0.00296671106480062, 0.1533852219581604, 0.00719493068754673, 0.0039663165807724, 0.004644480533897877, 0.15351933240890503, 0.021967360749840736, 0.022876767441630363, 0.022980501875281334], [0.0001031220963341184, 0.03861632198095322, 0.011882113292813301, 0.6850395798683167, 0.03356266766786575, 0.0009184176451526582, 0.0011407268466427922, 0.003579872427508235, 0.03763372451066971, 0.0012184259248897433, 7.425261719617993e-05, 0.02078341506421566, 0.05351828411221504, 0.037714097648859024, 0.00026830704882740974, 0.001911553437821567, 0.007536038756370544, 0.037738434970378876, 0.0031834307592362165, 0.013422349467873573, 0.01015477441251278], [0.0002065730222966522, 0.013744840398430824, 0.019889183342456818, 0.032455962151288986, 0.7530327439308167, 0.006423743441700935, 0.002123264828696847, 0.003515101969242096, 0.0133597943931818, 0.0005732038407586515, 9.081228927243501e-05, 0.02531876415014267, 0.07325993478298187, 0.013390292413532734, 0.002045184141024947, 0.00150046416092664, 0.004798843525350094, 0.01339732389897108, 0.0036918579135090113, 0.006987942382693291, 0.010194148868322372], [4.372785770101473e-05, 0.04983355104923248, 0.0013390457024797797, 0.0009925097692757845, 0.00213422323577106, 0.772190511226654, 0.01270107738673687, 0.0039373901672661304, 0.04810764640569687, 0.00222006649710238, 4.202227864880115e-05, 0.0009286096901632845, 0.0002009826566791162, 0.04817444458603859, 0.0032625303138047457, 0.00030094716930761933, 0.00038485467666760087, 0.04820135235786438, 0.0015329500893130898, 0.0011418858775869012, 0.002329618204385042], [2.652712100825738e-05, 0.025983545929193497, 0.0006163404323160648, 0.000581833126489073, 0.000651958747766912, 0.004321485757827759, 0.8749473690986633, 0.006541963201016188, 0.02587658166885376, 0.001702765584923327, 6.951000159460818e-06, 0.0006085881614126265, 0.000295650475891307, 0.02588501013815403, 0.00023506984871346503, 0.0031207057181745768, 0.0007582887774333358, 0.025949878618121147, 0.0005216466379351914, 0.0006294659688137472, 0.0007383153424598277], [0.000597320671658963, 0.09275916963815689, 0.0032283631153404713, 0.003374928142875433, 0.0025957701727747917, 0.018816743046045303, 0.031113380566239357, 0.4845862090587616, 0.0913020446896553, 0.014602025970816612, 0.0002955608651973307, 0.002378013450652361, 0.0035477145574986935, 0.09139403700828552, 0.0033873538486659527, 0.0028916087467223406, 0.03949805721640587, 0.09153970330953598, 0.0016063641523942351, 0.010333527810871601, 0.010152023285627365], [0.0487421415746212, 0.027050839737057686, 0.056861963123083115, 0.045627810060977936, 0.05022069439291954, 0.03810402750968933, 0.04692665860056877, 0.02822028286755085, 0.027150774374604225, 0.07178829610347748, 0.018383052200078964, 0.06494515389204025, 0.059490352869033813, 0.02716383896768093, 0.06657763570547104, 0.03835783153772354, 0.05870606750249863, 0.027164366096258163, 0.06958647072315216, 0.07489494979381561, 0.054036762565374374], [0.00015152287960518152, 0.19787602126598358, 0.0047536008059978485, 0.0004470857384148985, 0.00030210177646949887, 0.00245050061494112, 0.005852302070707083, 0.011444340460002422, 0.1958979219198227, 0.15434633195400238, 3.3451196941314265e-05, 0.0018377344822511077, 0.0002067408786388114, 0.19603313505649567, 0.0022599948570132256, 0.0004597318184096366, 0.00390669284388423, 0.1965530812740326, 0.012039635330438614, 0.009154535830020905, 0.0039934562519192696], [0.001749799819663167, 0.18914203345775604, 0.01803385093808174, 0.05807800590991974, 0.002428023610264063, 0.0022670207545161247, 0.0009335750946775079, 0.006300268229097128, 0.181353360414505, 0.006200509611517191, 0.04228387400507927, 0.020689917728304863, 0.002990128006786108, 0.1811751425266266, 0.0029942472465336323, 0.0019356139237061143, 0.004892261698842049, 0.18145525455474854, 0.016703998669981956, 0.03611290082335472, 0.0422801747918129], [0.0009792830096557736, 0.12623608112335205, 0.1180630698800087, 0.07137144356966019, 0.010636415332555771, 0.001669935416430235, 0.006487580481916666, 0.006823349744081497, 0.12349481880664825, 0.00821158941835165, 0.0006846623145975173, 0.18526847660541534, 0.007059453055262566, 0.12354777753353119, 0.007022595498710871, 0.007289019413292408, 0.008134541101753712, 0.12369119375944138, 0.014054584316909313, 0.026538534089922905, 0.02273569442331791], [0.00013952406879980117, 0.012674720957875252, 0.007958080619573593, 0.040630899369716644, 0.09150630980730057, 0.0012620574561879039, 0.003426372306421399, 0.004760114476084709, 0.012474087998270988, 0.0009425355237908661, 7.016346353339031e-05, 0.01442083902657032, 0.7479904294013977, 0.012512756511569023, 0.003519001416862011, 0.0033819128293544054, 0.010806161910295486, 0.012507626786828041, 0.0030218344181776047, 0.008221181109547615, 0.007773442659527063], [0.048690278083086014, 0.02701593190431595, 0.05683695152401924, 0.045604728162288666, 0.05028720572590828, 0.03810175508260727, 0.0469377338886261, 0.02828310802578926, 0.027116240933537483, 0.07172510027885437, 0.01828949525952339, 0.06488674134016037, 0.059641819447278976, 0.02712959237396717, 0.06659074127674103, 0.038403671234846115, 0.058776624500751495, 0.027130063623189926, 0.06960228830575943, 0.07493911683559418, 0.054010774940252304], [0.00013940269127488136, 0.16177290678024292, 0.009718014858663082, 0.0005686677759513259, 0.0030797452200204134, 0.021686596795916557, 0.013782864436507225, 0.0037475547287613153, 0.15710438787937164, 0.007602284662425518, 4.119934237678535e-05, 0.012029229663312435, 0.0029524683486670256, 0.15742774307727814, 0.20885424315929413, 0.01987266167998314, 0.00823890045285225, 0.15762898325920105, 0.034545499831438065, 0.0143488934263587, 0.004857825580984354], [0.00018567690858617425, 0.09949518740177155, 0.004597498569637537, 0.004426203668117523, 0.001507182838395238, 0.0013895867159590125, 0.0497904047369957, 0.011717922985553741, 0.09819985926151276, 0.0014132513897493482, 0.00010600558744044974, 0.007156213279813528, 0.003762152511626482, 0.09846365451812744, 0.010322094894945621, 0.45050013065338135, 0.02779393456876278, 0.09870720654726028, 0.012044928967952728, 0.011288490146398544, 0.007132407743483782], [0.0005449996097013354, 0.056505270302295685, 0.003331956220790744, 0.003662216942757368, 0.004600606393069029, 0.0036944812163710594, 0.002366334432736039, 0.05497235059738159, 0.05561870336532593, 0.004871676210314035, 0.00012055772094754502, 0.004520776681602001, 0.0164518840610981, 0.055718809366226196, 0.009283279068768024, 0.008767449297010899, 0.6039178967475891, 0.05582158640027046, 0.012708709575235844, 0.03268188238143921, 0.009838621132075787], [0.04875430464744568, 0.026983855292201042, 0.05687524750828743, 0.04555797949433327, 0.050242625176906586, 0.03804098814725876, 0.04696880653500557, 0.02830858901143074, 0.027084514498710632, 0.07182055711746216, 0.018300898373126984, 0.06490117311477661, 0.05954515561461449, 0.0270977895706892, 0.0665263831615448, 0.03842823579907417, 0.0588236078619957, 0.02709830366075039, 0.06964139640331268, 0.07497534155845642, 0.0540241114795208], [0.0004288041964173317, 0.08075116574764252, 0.006428136024624109, 0.0008692233241163194, 0.0017439589137211442, 0.001685886294580996, 0.0033358640503138304, 0.001204338506795466, 0.07931158691644669, 0.01365909818559885, 3.531575566739775e-05, 0.004675188101828098, 0.0009443617309443653, 0.07954777032136917, 0.0032775690779089928, 0.002321269130334258, 0.012625795789062977, 0.07971902936697006, 0.5886574983596802, 0.03159383684396744, 0.007184311281889677], [0.001793196890503168, 0.11436400562524796, 0.014444817788898945, 0.015901582315564156, 0.00434552226215601, 0.00315640727058053, 0.003345827106386423, 0.019634021446108818, 0.11161482334136963, 0.016925090923905373, 0.0005678822053596377, 0.014358272776007652, 0.005935091525316238, 0.11182387173175812, 0.011002514511346817, 0.007060314062982798, 0.10434334725141525, 0.11198907345533371, 0.09555985778570175, 0.18718260526657104, 0.04465189203619957], [0.004155970644205809, 0.14507631957530975, 0.021720819175243378, 0.0434618815779686, 0.012950888834893703, 0.008413931354880333, 0.011773278005421162, 0.0235427375882864, 0.1415795236825943, 0.027776649221777916, 0.002063754014670849, 0.0245989877730608, 0.010419163852930069, 0.1416981965303421, 0.010775787755846977, 0.0030407262966036797, 0.03506903350353241, 0.14185023307800293, 0.04723115637898445, 0.07098070532083511, 0.07182019203901291]], [[0.14450207352638245, 0.05118771269917488, 0.006602896843105555, 0.013025039806962013, 0.005473615135997534, 0.004216931760311127, 0.0004901117645204067, 0.016454024240374565, 0.05006011575460434, 0.010388238355517387, 0.021601414307951927, 0.003523528575897217, 0.015662435442209244, 0.0500582754611969, 0.03981788828969002, 0.010361859574913979, 0.054632507264614105, 0.05006122216582298, 0.09495005756616592, 0.15160202980041504, 0.20532794296741486], [0.04051382467150688, 0.03170658275485039, 0.05168575793504715, 0.07701315730810165, 0.04930660501122475, 0.04548593610525131, 0.03221704438328743, 0.03701479360461235, 0.03177739307284355, 0.05340614914894104, 0.04839946702122688, 0.061005715280771255, 0.062157049775123596, 0.031800881028175354, 0.049959469586610794, 0.047638844698667526, 0.04931757226586342, 0.03180372342467308, 0.06367092579603195, 0.0404014065861702, 0.06371770799160004], [0.05213998630642891, 0.1264156997203827, 0.04113519936800003, 0.06601134687662125, 0.025462811812758446, 0.017747491598129272, 0.0026575843803584576, 0.011263299733400345, 0.12234782427549362, 0.008250908926129341, 0.008754563517868519, 0.014085029251873493, 0.019832925871014595, 0.12254049628973007, 0.00830750446766615, 0.0016284410376101732, 0.01931956596672535, 0.12269818782806396, 0.06788723170757294, 0.06771913170814514, 0.07379467785358429], [0.024108434095978737, 0.17355474829673767, 0.047542087733745575, 0.07722104340791702, 0.033627528697252274, 0.008863049559295177, 0.001770996255800128, 0.007372089195996523, 0.16911669075489044, 0.0047948043793439865, 0.005976924207061529, 0.007161878980696201, 0.014015779830515385, 0.16911350190639496, 0.009475452825427055, 0.0013598324730992317, 0.008472983725368977, 0.16939815878868103, 0.020298264920711517, 0.01172636914998293, 0.0350293293595314], [0.010141187347471714, 0.2004040628671646, 0.012115025892853737, 0.13267062604427338, 0.027789456769824028, 0.0024698299821466208, 0.0003029427898582071, 0.002353658899664879, 0.1938467025756836, 0.0007236071978695691, 0.002998014446347952, 0.0023645537439733744, 0.0048145391047000885, 0.19384680688381195, 0.0019843284972012043, 0.0004784617340192199, 0.0027119398582726717, 0.19421041011810303, 0.0020278918091207743, 0.0029491218738257885, 0.008796813897788525], [0.003136979416012764, 0.23874898254871368, 0.006914704106748104, 0.016600430011749268, 0.010809702798724174, 0.004201188217848539, 0.00034125332604162395, 0.005078655667603016, 0.2314935028553009, 0.0006313283811323345, 0.001490999711677432, 0.0017763065407052636, 0.002001119777560234, 0.23175007104873657, 0.0011563596781343222, 0.0005642393371090293, 0.0025951967108994722, 0.23217236995697021, 0.002104416023939848, 0.004152870737016201, 0.002279304899275303], [0.008575613610446453, 0.15313367545604706, 0.026266714558005333, 0.014415962621569633, 0.029102014377713203, 0.21119259297847748, 0.0029060037340968847, 0.013444704003632069, 0.14862670004367828, 0.013406462967395782, 0.002575668040663004, 0.007175327744334936, 0.003976217471063137, 0.14900656044483185, 0.022378399968147278, 0.0027110837399959564, 0.006300165317952633, 0.1491306722164154, 0.01534269005060196, 0.013551461510360241, 0.006781296338886023], [0.008006539195775986, 0.18006299436092377, 0.005960096605122089, 0.013389736413955688, 0.011316034942865372, 0.16394902765750885, 0.017692724242806435, 0.022777674719691277, 0.17556160688400269, 0.015635492280125618, 0.003800164209678769, 0.0012950305826961994, 0.0017860260559245944, 0.17545531690120697, 0.006326374597847462, 0.0021754123736172915, 0.004297659732401371, 0.17571555078029633, 0.004618192091584206, 0.006171887740492821, 0.0040063741616904736], [0.040608324110507965, 0.0316908173263073, 0.051457829773426056, 0.07655047625303268, 0.0492522232234478, 0.04528870806097984, 0.032694969326257706, 0.03730029985308647, 0.031767312437295914, 0.05392033979296684, 0.04831462353467941, 0.06094949692487717, 0.06193208694458008, 0.03179049864411354, 0.05005069449543953, 0.04811515286564827, 0.0494532585144043, 0.03179316967725754, 0.06320996582508087, 0.04025984928011894, 0.06359989196062088], [0.015844756737351418, 0.15817919373512268, 0.009867709130048752, 0.007806733716279268, 0.021233534440398216, 0.03598354011774063, 0.060827095061540604, 0.0803450420498848, 0.1562005579471588, 0.0639524981379509, 0.0021209672559052706, 0.00213986006565392, 0.004765133373439312, 0.1562075912952423, 0.008492127992212772, 0.0018113156547769904, 0.007467959076166153, 0.15640424191951752, 0.017716184258461, 0.013179116882383823, 0.019454799592494965], [0.0175506379455328, 0.16702252626419067, 0.012097461149096489, 0.04962126910686493, 0.06401637196540833, 0.024440644308924675, 0.0037708960007876158, 0.010606454685330391, 0.1651798039674759, 0.009487027302384377, 0.00964165385812521, 0.004356814548373222, 0.03072083555161953, 0.1651892513036728, 0.014879894442856312, 0.0045227245427668095, 0.008396539837121964, 0.1653803437948227, 0.02075372450053692, 0.015706785023212433, 0.03665831312537193], [0.026799898594617844, 0.16488972306251526, 0.010780096985399723, 0.030849406495690346, 0.012481112964451313, 0.008553195744752884, 0.0019032539566978812, 0.008074131794273853, 0.16253480315208435, 0.007119059097021818, 0.011762785725295544, 0.020604219287633896, 0.051292408257722855, 0.16278161108493805, 0.006773781962692738, 0.001615141169168055, 0.014885496348142624, 0.16291432082653046, 0.04309729486703873, 0.03815111890435219, 0.05213722586631775], [0.005285013001412153, 0.210092231631279, 0.011976632289588451, 0.022735610604286194, 0.005787273868918419, 0.0008601516601629555, 0.0006290375022217631, 0.0024686073884367943, 0.20778284966945648, 0.0017192123923450708, 0.00928779412060976, 0.023123234510421753, 0.05302763357758522, 0.20765815675258636, 0.004814257845282555, 0.0015835138037800789, 0.005931384861469269, 0.2079332023859024, 0.005141148343682289, 0.004418401047587395, 0.00774475559592247], [0.04063009098172188, 0.0316963866353035, 0.05146624147891998, 0.07655801624059677, 0.04914948716759682, 0.04511229321360588, 0.03257213905453682, 0.037259139120578766, 0.03177306801080704, 0.05381026864051819, 0.04838507995009422, 0.0610804557800293, 0.062044862657785416, 0.03179633244872093, 0.050084780901670456, 0.04818093031644821, 0.04952558875083923, 0.03179898113012314, 0.06315000355243683, 0.04024496674537659, 0.06368085741996765], [0.012861073017120361, 0.15651383996009827, 0.008074606768786907, 0.008637853898108006, 0.00516087980940938, 0.0037112366408109665, 0.0008519415860064328, 0.008562114089727402, 0.1550748348236084, 0.006084420718252659, 0.007242922205477953, 0.017022371292114258, 0.08494433015584946, 0.15527810156345367, 0.044410496950149536, 0.007008024025708437, 0.0381651446223259, 0.15539368987083435, 0.049780577421188354, 0.05604950711131096, 0.019171996042132378], [0.007977104745805264, 0.2106996476650238, 0.0038867259863764048, 0.0025543172378093004, 0.0016632493352517486, 0.0073762075044214725, 0.00011490377801237628, 0.0031961717177182436, 0.20782165229320526, 0.0023872891906648874, 0.002443347591906786, 0.004856450483202934, 0.017223671078681946, 0.20829597115516663, 0.03817508742213249, 0.0032811067067086697, 0.019118916243314743, 0.20839442312717438, 0.013817324303090572, 0.0298044141381979, 0.006912047974765301], [0.01699189469218254, 0.1698066145181656, 0.004712723661214113, 0.007466326467692852, 0.005010874010622501, 0.017331844195723534, 0.003250549780204892, 0.013500489294528961, 0.16900141537189484, 0.010222884826362133, 0.010869751684367657, 0.0055800313130021095, 0.041863348335027695, 0.16892923414707184, 0.08324034512042999, 0.01226695068180561, 0.024402335286140442, 0.1690664291381836, 0.02703751251101494, 0.019992707297205925, 0.019455747678875923], [0.04061507061123848, 0.031627677381038666, 0.05148540809750557, 0.07654168456792831, 0.04921533539891243, 0.045170266181230545, 0.03261282667517662, 0.037256062030792236, 0.03170456737279892, 0.053860679268836975, 0.04834426939487457, 0.061092253774404526, 0.06203144043684006, 0.031727857887744904, 0.05010237172245979, 0.04821423813700676, 0.04952616989612579, 0.03173048421740532, 0.06319279968738556, 0.040244389325380325, 0.06370420753955841], [0.03086697682738304, 0.11650706082582474, 0.010150516405701637, 0.008517417125403881, 0.00646970747038722, 0.004776645451784134, 0.0036877477541565895, 0.021936539560556412, 0.11681504547595978, 0.009470569901168346, 0.004801399074494839, 0.013066516257822514, 0.11683598905801773, 0.11708322167396545, 0.09376736730337143, 0.022867953404784203, 0.05845332518219948, 0.11711778491735458, 0.03703329712152481, 0.04673822969198227, 0.043036725372076035], [0.03907857835292816, 0.1343677043914795, 0.006914539262652397, 0.0065328036434948444, 0.005014562979340553, 0.0023459498770534992, 0.0011272921692579985, 0.014976154081523418, 0.13341394066810608, 0.005188250448554754, 0.004348378628492355, 0.007454938720911741, 0.08081135153770447, 0.13345640897750854, 0.07277460396289825, 0.012808461673557758, 0.050291262567043304, 0.13356202840805054, 0.05030541494488716, 0.05349574238061905, 0.05173167958855629], [0.028427911922335625, 0.16713106632232666, 0.013332362286746502, 0.013844325207173824, 0.007717003580182791, 0.007893108762800694, 0.0010767934145405889, 0.006448901724070311, 0.1638098955154419, 0.008009783923625946, 0.006900076754391193, 0.00680882390588522, 0.01843249797821045, 0.16386395692825317, 0.026773791760206223, 0.005794990342110395, 0.01759587787091732, 0.16398786008358002, 0.09246133267879486, 0.04331929609179497, 0.03637027367949486]], [[0.1964646875858307, 0.016702504828572273, 0.03778800740838051, 0.06992927193641663, 0.01904277689754963, 0.007302047684788704, 0.0011331974528729916, 0.0048799361102283, 0.016225967556238174, 0.008973527699708939, 0.03176971897482872, 0.028090381994843483, 0.031061023473739624, 0.016249002888798714, 0.018771030008792877, 0.0051591419614851475, 0.012102095410227776, 0.01623777113854885, 0.027509601786732674, 0.01980544440448284, 0.4148028492927551], [0.07192423939704895, 0.031521156430244446, 0.05484148859977722, 0.048541996628046036, 0.04749225080013275, 0.02602846547961235, 0.02336042746901512, 0.0233141016215086, 0.031488459557294846, 0.04074085131287575, 0.044227708131074905, 0.07981589436531067, 0.06973467767238617, 0.03152253106236458, 0.06866854429244995, 0.0450587272644043, 0.03503819927573204, 0.03151831775903702, 0.04706127196550369, 0.04424354061484337, 0.1038571372628212], [0.007302476093173027, 0.14765112102031708, 0.09302562475204468, 0.05196354165673256, 0.04697499796748161, 0.0016648971941322088, 0.002302265027537942, 0.005172806326299906, 0.14521446824073792, 0.009484229609370232, 0.015682149678468704, 0.054320067167282104, 0.036455996334552765, 0.14557307958602905, 0.008333136327564716, 0.0024767499417066574, 0.008992467075586319, 0.1457342803478241, 0.02253333106637001, 0.012116186320781708, 0.03702611103653908], [0.007363351061940193, 0.022169042378664017, 0.14479707181453705, 0.18426324427127838, 0.15535800158977509, 0.002511639380827546, 0.0007885603699833155, 0.0024526549968868494, 0.021712038666009903, 0.0027435224037617445, 0.024922596290707588, 0.16482175886631012, 0.16805599629878998, 0.021743249148130417, 0.008005312643945217, 0.0014859528746455908, 0.004202537704259157, 0.021755963563919067, 0.006037208251655102, 0.005486710928380489, 0.029323533177375793], [0.004034395329654217, 0.17362794280052185, 0.04616651311516762, 0.04220380634069443, 0.046177323907613754, 0.0038173929788172245, 0.004960938822478056, 0.011485922150313854, 0.16971474885940552, 0.013740786351263523, 0.01591370813548565, 0.032011739909648895, 0.03347764164209366, 0.1699000895023346, 0.01183453667908907, 0.0024593875277787447, 0.003009800799190998, 0.17018510401248932, 0.008173374459147453, 0.00727475481107831, 0.029829969629645348], [0.0009306559222750366, 0.23097386956214905, 0.0026676561683416367, 0.001273376401513815, 0.0009036194533109665, 0.0037484571803361177, 0.01562836579978466, 0.00718800351023674, 0.229844868183136, 0.019841568544507027, 0.0020907523576170206, 0.001411029719747603, 0.000807535310741514, 0.23018048703670502, 0.010171396657824516, 0.0008858178043738008, 0.0016475219745188951, 0.23066282272338867, 0.00549493171274662, 0.0019390035886317492, 0.001708209398202598], [0.0020175743848085403, 0.22029884159564972, 0.010099240578711033, 0.005897051654756069, 0.006712800823152065, 0.006410254631191492, 0.001854651141911745, 0.006238723173737526, 0.21575045585632324, 0.03545628488063812, 0.0025524506345391273, 0.003952813800424337, 0.007232981268316507, 0.21627482771873474, 0.012021644040942192, 0.0007668401813134551, 0.00517456466332078, 0.2167263925075531, 0.008680777624249458, 0.00394577207043767, 0.011935113929212093], [0.0007612241897732019, 0.2352108508348465, 0.003844786435365677, 0.0023771701380610466, 0.0024656818713992834, 0.0015472871018573642, 0.0020702965557575226, 0.0023104650899767876, 0.23320721089839935, 0.01164084393531084, 0.001143254921771586, 0.002737023402005434, 0.004372399765998125, 0.23410345613956451, 0.006696470081806183, 0.0006507544894702733, 0.0035077643115073442, 0.23462443053722382, 0.007629080675542355, 0.0038877653423696756, 0.0052117048762738705], [0.072126105427742, 0.0319797545671463, 0.05410591512918472, 0.04784834384918213, 0.046816207468509674, 0.02637026086449623, 0.023123877122998238, 0.023290099576115608, 0.03194693848490715, 0.04061891511082649, 0.0439387783408165, 0.07912599295377731, 0.06944272667169571, 0.03198167681694031, 0.06897993385791779, 0.04563227295875549, 0.03510746732354164, 0.03197738528251648, 0.04713356867432594, 0.04445340484380722, 0.10400034487247467], [0.0060974108055233955, 0.20573729276657104, 0.01814904995262623, 0.005284903105348349, 0.00793901551514864, 0.0028608774300664663, 0.003642620053142309, 0.006700354162603617, 0.20302647352218628, 0.03346192464232445, 0.005702623166143894, 0.009807012975215912, 0.007738315500319004, 0.20347101986408234, 0.007321841549128294, 0.002499705646187067, 0.008690535090863705, 0.20389623939990997, 0.018967200070619583, 0.010302889160811901, 0.02870272286236286], [0.024673180654644966, 0.06482402980327606, 0.08736525475978851, 0.09246863424777985, 0.04378952085971832, 0.002016018144786358, 0.0025237288791686296, 0.0068860845640301704, 0.06426455080509186, 0.01204723957926035, 0.025665713474154472, 0.16756948828697205, 0.1200074627995491, 0.06447535008192062, 0.0159823689609766, 0.0031577644404023886, 0.010527558624744415, 0.06452668458223343, 0.02803611569106579, 0.021429816260933876, 0.07776352018117905], [0.009525495581328869, 0.10579235106706619, 0.06820573657751083, 0.0240315068513155, 0.015347851440310478, 0.0012739405501633883, 0.0013776362175121903, 0.004107557702809572, 0.10398930311203003, 0.004928191192448139, 0.02005559578537941, 0.13192404806613922, 0.11762011051177979, 0.1044340431690216, 0.025656184181571007, 0.005629232618957758, 0.019206838682293892, 0.10451307147741318, 0.03501058742403984, 0.023864876478910446, 0.07350580394268036], [0.003198841353878379, 0.17834500968456268, 0.01387200877070427, 0.01304102037101984, 0.006849783472716808, 0.00126523501239717, 0.0005774477613158524, 0.0010726724285632372, 0.17540855705738068, 0.00392431253567338, 0.0031388269271701574, 0.02919965609908104, 0.07329574227333069, 0.1763535737991333, 0.046331118792295456, 0.0030809566378593445, 0.007833780720829964, 0.1766023188829422, 0.032836154103279114, 0.022744061425328255, 0.03102896362543106], [0.07217752188444138, 0.03198923170566559, 0.05400584638118744, 0.04782438650727272, 0.046776529401540756, 0.026379600167274475, 0.023076286539435387, 0.023307792842388153, 0.03195595741271973, 0.040476854890584946, 0.0439499095082283, 0.0790705606341362, 0.06951048970222473, 0.031990811228752136, 0.06896346062421799, 0.04572034627199173, 0.03513365983963013, 0.03198649361729622, 0.04712223634123802, 0.04450707882642746, 0.10407490283250809], [0.010135799646377563, 0.16278524696826935, 0.01724642887711525, 0.006839124020189047, 0.003252587281167507, 0.003258684417232871, 0.00344345741905272, 0.002705794060602784, 0.15988001227378845, 0.017681077122688293, 0.0032563009299337864, 0.013222901150584221, 0.010038519278168678, 0.1605076789855957, 0.04738856106996536, 0.005298839882016182, 0.017679568380117416, 0.16064772009849548, 0.09261192381381989, 0.02993011102080345, 0.07218970358371735], [0.007079401519149542, 0.21779561042785645, 0.008424890227615833, 0.004190544597804546, 0.0023007122799754143, 0.0014716892037540674, 0.00020895080524496734, 0.0008060090476647019, 0.2126188427209854, 0.003539128229022026, 0.0019333685049787164, 0.007020603399723768, 0.006569347810000181, 0.2134460210800171, 0.015849154442548752, 0.001129649463109672, 0.007289445493370295, 0.21364335715770721, 0.027919912710785866, 0.011491689831018448, 0.035271674394607544], [0.005665268283337355, 0.21291407942771912, 0.006948363035917282, 0.0052285948768258095, 0.0034969004336744547, 0.001972596161067486, 0.00034569119452498853, 0.0007117496570572257, 0.20914320647716522, 0.003202881431207061, 0.002949642250314355, 0.009907006286084652, 0.01262586284428835, 0.20999690890312195, 0.016028301790356636, 0.0016595725901424885, 0.0052919816225767136, 0.210175022482872, 0.024702515453100204, 0.015309622511267662, 0.04172413796186447], [0.07222779840230942, 0.031943563371896744, 0.054033223539590836, 0.04781966656446457, 0.04681950807571411, 0.026399284601211548, 0.02308383211493492, 0.023316940292716026, 0.031910210847854614, 0.04049114137887955, 0.04395211860537529, 0.07906869798898697, 0.0695127621293068, 0.031944964081048965, 0.06894809007644653, 0.04574175924062729, 0.035130422562360764, 0.031940657645463943, 0.0471048504114151, 0.04450292885303497, 0.1041075587272644], [0.0321258120238781, 0.10118304938077927, 0.03592237830162048, 0.014559189788997173, 0.009189162403345108, 0.004175991285592318, 0.0017235282575711608, 0.0034100378397852182, 0.09931457042694092, 0.02887418307363987, 0.009303733706474304, 0.030565058812499046, 0.024699022993445396, 0.09951936453580856, 0.07558668404817581, 0.012660481967031956, 0.020275644958019257, 0.0995715856552124, 0.12245416641235352, 0.032290585339069366, 0.14259576797485352], [0.01210673339664936, 0.18596279621124268, 0.015623046085238457, 0.0074662030674517155, 0.0021458130795508623, 0.001432503922842443, 0.0016161587554961443, 0.0017876814818009734, 0.1832624226808548, 0.013112208805978298, 0.0054283300414681435, 0.017178628593683243, 0.008497501723468304, 0.18379627168178558, 0.039616502821445465, 0.0034393228124827147, 0.007723100949078798, 0.18392488360404968, 0.04544578120112419, 0.018376536667346954, 0.06205758824944496], [0.013209996744990349, 0.1357782632112503, 0.05500812456011772, 0.06516288965940475, 0.022377336397767067, 0.002131472574546933, 0.0020408891141414642, 0.003667813027277589, 0.13493111729621887, 0.01921856589615345, 0.014049304649233818, 0.054154422134160995, 0.04406741261482239, 0.1353386789560318, 0.03250570967793465, 0.004125132225453854, 0.012516766786575317, 0.13554787635803223, 0.03500821441411972, 0.019627394154667854, 0.059532709419727325]], [[0.051721375435590744, 0.15360523760318756, 0.04567288979887962, 0.013557824306190014, 0.00806739367544651, 0.03562979772686958, 0.028426267206668854, 0.014278802089393139, 0.150490403175354, 0.021643584594130516, 0.0179415512830019, 0.02011820487678051, 0.008860945701599121, 0.15071018040180206, 0.016985515132546425, 0.008162879385054111, 0.011381305754184723, 0.1508817970752716, 0.024562105536460876, 0.013458791188895702, 0.053843237459659576], [0.05417010560631752, 0.011560306884348392, 0.04278377443552017, 0.057062022387981415, 0.04396822676062584, 0.08659719675779343, 0.056805383414030075, 0.04246636480093002, 0.01159666944295168, 0.05996207147836685, 0.042564161121845245, 0.043451495468616486, 0.06574594974517822, 0.011593918316066265, 0.06139741092920303, 0.06579117476940155, 0.059202391654253006, 0.011585658416152, 0.0492531843483448, 0.06433483213186264, 0.05810761824250221], [0.0033958042040467262, 0.21629545092582703, 0.019402235746383667, 0.02622377499938011, 0.022941481322050095, 0.004714648704975843, 0.004479804541915655, 0.005001641809940338, 0.21213801205158234, 0.010344116948544979, 0.003645035671070218, 0.007010453846305609, 0.008149129338562489, 0.21256500482559204, 0.0037135316524654627, 0.0011620778823271394, 0.0034556658938527107, 0.21287113428115845, 0.005373175721615553, 0.0038639854174107313, 0.013253739103674889], [0.006832593120634556, 0.12153248488903046, 0.10129740834236145, 0.04801107943058014, 0.17377682030200958, 0.0030201179906725883, 0.008990146219730377, 0.00952543318271637, 0.11914868652820587, 0.009328773245215416, 0.007864279672503471, 0.07493825256824493, 0.04510301351547241, 0.11927663534879684, 0.004731867928057909, 0.0010192738845944405, 0.004361359402537346, 0.11941458284854889, 0.0027962736785411835, 0.0035813041031360626, 0.015449648723006248], [0.001264781691133976, 0.22705881297588348, 0.009590675123035908, 0.011921281926333904, 0.023427888751029968, 0.004645645152777433, 0.015937888994812965, 0.008021038956940174, 0.22355203330516815, 0.006560362409800291, 0.002977806841954589, 0.0034269916359335184, 0.001843869686126709, 0.22378218173980713, 0.002492321887984872, 0.0003713351907208562, 0.0013304309686645865, 0.2243311107158661, 0.0014875479973852634, 0.001776189892552793, 0.004199849907308817], [0.00037054435233585536, 0.1994810253381729, 0.002221039030700922, 0.00268344022333622, 0.0004585210990626365, 0.0035053405445069075, 0.12603561580181122, 0.030541587620973587, 0.19832639396190643, 0.020207317546010017, 0.0010437160963192582, 0.002369867404922843, 0.00016427249647676945, 0.19888418912887573, 0.0028500105254352093, 0.0008914186037145555, 0.0025618167128413916, 0.1993296593427658, 0.004893476143479347, 0.0019964706152677536, 0.001184286898933351], [0.0013923980295658112, 0.22955045104026794, 0.0035442730877548456, 0.0031362257432192564, 0.0012877926928922534, 0.0012235890608280897, 0.0034965495578944683, 0.011865091510117054, 0.22601574659347534, 0.040449321269989014, 0.0012743647675961256, 0.0014091457705944777, 0.0004347637004684657, 0.22666935622692108, 0.0011270632967352867, 0.0002578424755483866, 0.003696626517921686, 0.22717532515525818, 0.00561797060072422, 0.003836526069790125, 0.00653964513912797], [0.0030320018995553255, 0.2168780416250229, 0.003946838900446892, 0.003353858133777976, 0.0013499759370461106, 0.001780291786417365, 0.00587416160851717, 0.013764462433755398, 0.21690471470355988, 0.049526460468769073, 0.0022505908273160458, 0.004326729103922844, 0.002591586671769619, 0.2175443321466446, 0.003327328246086836, 0.0011260887840762734, 0.0066033462062478065, 0.2180895060300827, 0.010892828926444054, 0.009192069061100483, 0.007644696161150932], [0.05439063534140587, 0.01172176469117403, 0.04205864667892456, 0.05624078959226608, 0.04388204589486122, 0.08603322505950928, 0.056058820337057114, 0.042382173240184784, 0.011760693974792957, 0.05955028533935547, 0.04285766929388046, 0.04332555830478668, 0.066382497549057, 0.011757916770875454, 0.061657629907131195, 0.0665135458111763, 0.05945255607366562, 0.011749546974897385, 0.04940684512257576, 0.06472385674715042, 0.05809332802891731], [0.005255687981843948, 0.2291226089000702, 0.0027493848465383053, 0.004324016161262989, 0.0016621226677671075, 0.0006007499760016799, 0.0013518466148525476, 0.008015422150492668, 0.22863323986530304, 0.013497133739292622, 0.00614545913413167, 0.004344741348177195, 0.0016479372279718518, 0.2289285510778427, 0.000892037118319422, 0.0010659953113645315, 0.007731487043201923, 0.22952130436897278, 0.0062454636208713055, 0.006493686232715845, 0.011771016754209995], [0.019605690613389015, 0.10056139528751373, 0.053273219615221024, 0.054496265947818756, 0.049924585968256, 0.008100676350295544, 0.011967789381742477, 0.02821505442261696, 0.09929931908845901, 0.022009972482919693, 0.016740700230002403, 0.09642672538757324, 0.12614767253398895, 0.09961400181055069, 0.01270107552409172, 0.006352091208100319, 0.03286508470773697, 0.09960799664258957, 0.012290965765714645, 0.01769169047474861, 0.03210810199379921], [0.0031939444597810507, 0.2006763219833374, 0.018098875880241394, 0.005763653200119734, 0.008364656940102577, 0.004994169808924198, 0.0060309977270662785, 0.00197712704539299, 0.19545988738536835, 0.004209272563457489, 0.0030403181444853544, 0.033014848828315735, 0.05456239730119705, 0.19625155627727509, 0.026681696996092796, 0.004350895062088966, 0.007630009204149246, 0.19619785249233246, 0.012503444217145443, 0.0056945583783090115, 0.011303593404591084], [0.001453088829293847, 0.20103339850902557, 0.006402175407856703, 0.008160384371876717, 0.006408177316188812, 0.0008171297959052026, 0.0008627463248558342, 0.0011797175975516438, 0.19953952729701996, 0.0011340916389599442, 0.00102103257086128, 0.014211557805538177, 0.041573867201805115, 0.20095834136009216, 0.037963684648275375, 0.008299083448946476, 0.021642295643687248, 0.2011311948299408, 0.016788048669695854, 0.023074069991707802, 0.006346395239233971], [0.05447424203157425, 0.011739839799702168, 0.042006801813840866, 0.056135568767786026, 0.04376722872257233, 0.08602691441774368, 0.05603534355759621, 0.04235740005970001, 0.01177870575338602, 0.05943411961197853, 0.04282785952091217, 0.04326530545949936, 0.06640847027301788, 0.011775998398661613, 0.061708975583314896, 0.06656847149133682, 0.059416819363832474, 0.011767628602683544, 0.04956970363855362, 0.06478497385978699, 0.05814967304468155], [0.0013103400124236941, 0.21434403955936432, 0.000875916623044759, 0.0008739237091504037, 0.00041035556932911277, 0.001266054343432188, 0.005891740787774324, 0.0026875727344304323, 0.21295678615570068, 0.004157007671892643, 0.00022030685795471072, 0.0005902096745558083, 0.0008889876771718264, 0.21433177590370178, 0.010707363486289978, 0.005728808231651783, 0.020818907767534256, 0.21466408669948578, 0.06821931898593903, 0.015078163705766201, 0.003978326916694641], [0.0019439278403297067, 0.23684793710708618, 0.001581005286425352, 0.0007310609216801822, 0.0007072453154250979, 0.0004425272927619517, 0.000344991305610165, 0.0013193282065913081, 0.23217929899692535, 0.0016320981085300446, 0.00031942923669703305, 0.0011129003250971437, 0.0012116434518247843, 0.2334933876991272, 0.0034889124799519777, 0.0008288944372907281, 0.0069443960674107075, 0.2339446246623993, 0.02280893363058567, 0.010651517659425735, 0.007466042879968882], [0.010984974913299084, 0.19965477287769318, 0.006128160748630762, 0.004319387953728437, 0.0011382177472114563, 0.001088591874577105, 0.0008723019273020327, 0.002253294689580798, 0.19734349846839905, 0.0032679084688425064, 0.0020284054335206747, 0.008521736599504948, 0.010391167365014553, 0.19845284521579742, 0.011594588868319988, 0.0036673240829259157, 0.014363891445100307, 0.19879277050495148, 0.05482987314462662, 0.04698978364467621, 0.023316364735364914], [0.05448366329073906, 0.01171701867133379, 0.04201037064194679, 0.05616769194602966, 0.04380824416875839, 0.08609934151172638, 0.056059688329696655, 0.04236942157149315, 0.011755803599953651, 0.05944199860095978, 0.042858418077230453, 0.043254304677248, 0.06643631309270859, 0.011753074824810028, 0.06168016418814659, 0.0665593221783638, 0.05938767269253731, 0.011744720861315727, 0.04949868470430374, 0.06475508958101273, 0.05815890058875084], [0.009984258562326431, 0.20913977921009064, 0.013021796941757202, 0.007397239096462727, 0.00843120738863945, 0.0037182793021202087, 0.0011158802080899477, 0.0026401726063340902, 0.20457366108894348, 0.004073693882673979, 0.0031644280534237623, 0.00558223482221365, 0.004376919008791447, 0.20551835000514984, 0.01075566653162241, 0.002864646492525935, 0.015114570036530495, 0.20580098032951355, 0.026451269164681435, 0.019427325576543808, 0.03684771806001663], [0.013367903418838978, 0.20639945566654205, 0.015686819329857826, 0.01160274725407362, 0.005149205680936575, 0.0033170082606375217, 0.004900895059108734, 0.0029675124678760767, 0.20176959037780762, 0.006492118816822767, 0.0041645183227956295, 0.010145790874958038, 0.006223808042705059, 0.2024575173854828, 0.01074168086051941, 0.002860759850591421, 0.008555365726351738, 0.2027624398469925, 0.01909950003027916, 0.01966438814997673, 0.04167095571756363], [0.01349890697747469, 0.1546401083469391, 0.07435614615678787, 0.04117545485496521, 0.0196137186139822, 0.005260922014713287, 0.008826007135212421, 0.00857329647988081, 0.15253500640392303, 0.014935067854821682, 0.008430838584899902, 0.04669172316789627, 0.030543362721800804, 0.1530059576034546, 0.009600778110325336, 0.0037850658409297466, 0.012434939853847027, 0.15330421924591064, 0.01840507611632347, 0.022625885903835297, 0.047757554799318314]], [[0.11326005309820175, 0.03442635014653206, 0.03834392875432968, 0.05114157870411873, 0.0045424895361065865, 0.010031078942120075, 0.0032546804286539555, 0.03470562398433685, 0.03375118598341942, 0.09673947840929031, 0.011454527266323566, 0.029203591868281364, 0.00473735760897398, 0.0337676964700222, 0.014265300706028938, 0.006561881862580776, 0.1399473398923874, 0.033777326345443726, 0.0489882156252861, 0.0816175788640976, 0.17548280954360962], [0.10089929401874542, 0.010734659619629383, 0.04802243411540985, 0.03391669690608978, 0.03054889105260372, 0.04021067917346954, 0.05931156128644943, 0.07012902200222015, 0.010788059793412685, 0.059429459273815155, 0.0681338757276535, 0.04511281102895737, 0.044317953288555145, 0.01079217903316021, 0.06545919179916382, 0.056040406227111816, 0.07424061745405197, 0.010786846280097961, 0.047764260321855545, 0.05890392139554024, 0.05445718765258789], [0.0032213707454502583, 0.09438609331846237, 0.3077819347381592, 0.02359851449728012, 0.007822920568287373, 0.0016537021147087216, 0.0009893719106912613, 0.002882425906136632, 0.09235505759716034, 0.04627738147974014, 0.0026086035650223494, 0.16554686427116394, 0.006805640645325184, 0.09244590252637863, 0.005052219610661268, 0.0012121598701924086, 0.008394476026296616, 0.09245732426643372, 0.016546374186873436, 0.00890251062810421, 0.019059179350733757], [0.0023802914656698704, 0.06541892141103745, 0.023525776341557503, 0.5402836799621582, 0.015998641029000282, 0.001235346426256001, 0.00012160811456851661, 0.0019900724291801453, 0.06404830515384674, 0.004271045792847872, 0.004788561258465052, 0.0247082207351923, 0.04489700123667717, 0.06415583938360214, 0.0008553784573450685, 0.0009443530580028892, 0.025588981807231903, 0.06414763629436493, 0.011027973145246506, 0.01620553806424141, 0.023406852036714554], [0.0011093836510553956, 0.026821738108992577, 0.05837136507034302, 0.022527968510985374, 0.536349892616272, 0.00724125187844038, 0.0004222197749186307, 0.0032650241628289223, 0.025933438912034035, 0.0041820695623755455, 0.001360128982923925, 0.07842958718538284, 0.145858496427536, 0.026012543588876724, 0.002601401647552848, 0.0009004190214909613, 0.005666726268827915, 0.026013992726802826, 0.006820285692811012, 0.008266358636319637, 0.011845745146274567], [0.00021535770792979747, 0.01827177032828331, 0.00046903235488571227, 0.000532656442373991, 0.0018669740529730916, 0.915078341960907, 0.0013300483115017414, 0.0010904684895649552, 0.017631877213716507, 0.0022407725919038057, 0.0005271584377624094, 0.0003640469803940505, 0.00020681557361967862, 0.017629001289606094, 0.0020263222977519035, 0.00010313728853361681, 0.0001843333157012239, 0.017614565789699554, 0.0006606416427530348, 0.0003592385910451412, 0.0015974018024280667], [0.0001488357811467722, 0.019874809309840202, 0.0005560263525694609, 0.00019282870925962925, 0.00014850456500425935, 0.0007539436919614673, 0.9066007137298584, 0.004017062019556761, 0.019584404304623604, 0.0018667280673980713, 4.592584082274698e-05, 0.0003387625329196453, 0.0001527408167021349, 0.019501952454447746, 0.0003115884028375149, 0.00405763229355216, 0.0004668540495913476, 0.019517822191119194, 0.0007562859682366252, 0.00042381376260891557, 0.000682698970194906], [0.0015406868187710643, 0.07996836304664612, 0.013024925254285336, 0.011671157553792, 0.00879370141774416, 0.0017156284302473068, 0.006983745377510786, 0.3663735091686249, 0.07774393260478973, 0.06939706206321716, 0.0013871914707124233, 0.00860016793012619, 0.01547290850430727, 0.07771898061037064, 0.003046659752726555, 0.0023830465506762266, 0.13405995070934296, 0.07775230705738068, 0.0072084213607013226, 0.01873081550002098, 0.016426924616098404], [0.10093668103218079, 0.010775124654173851, 0.04790130630135536, 0.03385469689965248, 0.03073577955365181, 0.03984874114394188, 0.059734757989645004, 0.07023529708385468, 0.010831248946487904, 0.05921094864606857, 0.06792151927947998, 0.04526862874627113, 0.04477939009666443, 0.01083527784794569, 0.06501156836748123, 0.05658723786473274, 0.07398130744695663, 0.010830029845237732, 0.04776809737086296, 0.058707837015390396, 0.05424452945590019], [0.0017673417460173368, 0.11685483157634735, 0.017572645097970963, 0.0034210875164717436, 0.00071011419640854, 0.0018206743989139795, 0.0013161145616322756, 0.0178359542042017, 0.1140441969037056, 0.4150664210319519, 0.0018150537507608533, 0.00796037632972002, 0.000576921331230551, 0.11399342119693756, 0.0035512058530002832, 0.0002823804097715765, 0.013380419462919235, 0.113993801176548, 0.026511138305068016, 0.009837681427598, 0.017688238993287086], [0.0005838805227540433, 0.21843171119689941, 0.0038591334596276283, 0.0640629455447197, 0.007370892912149429, 0.005601671990007162, 0.0002512387291062623, 0.0023115240037441254, 0.20988869667053223, 0.007263371255248785, 0.012804260477423668, 0.003214366966858506, 0.004072645679116249, 0.2098671942949295, 0.0013140199007466435, 0.0005070444894954562, 0.010768423788249493, 0.210006445646286, 0.0048012216575443745, 0.005634368862956762, 0.017384950071573257], [0.001915097702294588, 0.06316030025482178, 0.20555652678012848, 0.06493494659662247, 0.011869627982378006, 0.0012389186304062605, 0.00020245256018824875, 0.00217644264921546, 0.06174616888165474, 0.02010345086455345, 0.0027694543823599815, 0.3780171871185303, 0.014552627690136433, 0.06183765083551407, 0.0032337824814021587, 0.0007722142618149519, 0.01228998601436615, 0.06182049214839935, 0.010706073604524136, 0.0074302623979747295, 0.013666324317455292], [0.0007821302278898656, 0.024989603087306023, 0.023065827786922455, 0.03098834492266178, 0.06338697671890259, 0.00032357918098568916, 0.00026359036564826965, 0.0022972056176513433, 0.024339471012353897, 0.002100215293467045, 0.0008099249098449945, 0.03286772221326828, 0.6964263916015625, 0.024407343938946724, 0.004643949214369059, 0.0013656031806021929, 0.018504224717617035, 0.024414224550127983, 0.006152887362986803, 0.008894432336091995, 0.00897645577788353], [0.10091767460107803, 0.010776044800877571, 0.04796464368700981, 0.033863622695207596, 0.030841773375868797, 0.03988618403673172, 0.05958012863993645, 0.07021429389715195, 0.010832279920578003, 0.05915595591068268, 0.0677076131105423, 0.04532022401690483, 0.04489623382687569, 0.010836461558938026, 0.06498350948095322, 0.05663515627384186, 0.07400913536548615, 0.010831200517714024, 0.04779213294386864, 0.05875467136502266, 0.054201021790504456], [0.0006238883943296969, 0.13970166444778442, 0.010586538352072239, 0.001958338776603341, 0.0023272910621017218, 0.03205922245979309, 0.00652339169755578, 0.0028719576075673103, 0.13585802912712097, 0.009682431817054749, 0.00036808362347073853, 0.012257863767445087, 0.0028574983589351177, 0.13578523695468903, 0.31674936413764954, 0.013314458541572094, 0.008618852123618126, 0.1358233094215393, 0.016435109078884125, 0.00699644023552537, 0.008601021952927113], [0.0005478819366544485, 0.03311007469892502, 0.0008633506367914379, 0.002091949339956045, 0.0005904675927013159, 0.0007985408301465213, 0.016766659915447235, 0.00233841547742486, 0.03245988115668297, 0.000776107597630471, 0.0001622221025172621, 0.0009756142389960587, 0.0010321637382730842, 0.0324670672416687, 0.013201563619077206, 0.7910736203193665, 0.026534629985690117, 0.03250845894217491, 0.004134804010391235, 0.004229319281876087, 0.0033371683675795794], [0.0012597597669810057, 0.010522942058742046, 0.0007884950609877706, 0.0051500918343663216, 0.001334569533355534, 9.87880994216539e-05, 3.107616430497728e-05, 0.008556784130632877, 0.010183459147810936, 0.0016554129542782903, 0.0005726030212827027, 0.0010704705491662025, 0.008936877362430096, 0.010187631472945213, 0.0013491129502654076, 0.0023721968755126, 0.8962735533714294, 0.010192408226430416, 0.004382922314107418, 0.014072539284825325, 0.011008151806890965], [0.1009552851319313, 0.010772920213639736, 0.047984566539525986, 0.0338333398103714, 0.030844036489725113, 0.03983498364686966, 0.05966373160481453, 0.07024582475423813, 0.010829314589500427, 0.05916428193449974, 0.06769602745771408, 0.04533283784985542, 0.044878289103507996, 0.010833477601408958, 0.06488695740699768, 0.05666255205869675, 0.0740194022655487, 0.010828224942088127, 0.04779134318232536, 0.05875494331121445, 0.05418761447072029], [0.0026503854896873236, 0.11688725650310516, 0.004382941406220198, 0.006069321185350418, 0.0008404103573411703, 0.0014100335538387299, 0.000522872491274029, 0.0018596536247059703, 0.11411789804697037, 0.019636506214737892, 0.0013776309788227081, 0.002949357032775879, 0.0013335079420357943, 0.11418702453374863, 0.006375087425112724, 0.002070339396595955, 0.037191763520240784, 0.11428039520978928, 0.38798990845680237, 0.02311791107058525, 0.04074973240494728], [0.004053680691868067, 0.1508130580186844, 0.005382539704442024, 0.03364994749426842, 0.003966915421187878, 0.0011026186402887106, 0.00028097943868488073, 0.005544954910874367, 0.14581359922885895, 0.01692076027393341, 0.002602239837870002, 0.004658899735659361, 0.006016156170517206, 0.14608536660671234, 0.005971692968159914, 0.0025946591049432755, 0.09860141575336456, 0.1462191790342331, 0.05783521756529808, 0.08558796346187592, 0.07629827409982681], [0.002233415376394987, 0.19067712128162384, 0.01407715119421482, 0.06695473194122314, 0.009506747126579285, 0.002710388507694006, 0.0007664858712814748, 0.0065323421731591225, 0.18472231924533844, 0.02036184072494507, 0.0020812349393963814, 0.007904722355306149, 0.004745567217469215, 0.1849045604467392, 0.0030397686641663313, 0.0005466190632432699, 0.022949611768126488, 0.18509484827518463, 0.016034290194511414, 0.020291395485401154, 0.053864769637584686]], [[0.14451593160629272, 0.025142353028059006, 0.16135245561599731, 0.014397612772881985, 0.03772613778710365, 0.005587657913565636, 0.023282747715711594, 0.010680333711206913, 0.02458168752491474, 0.09383852779865265, 0.015206561423838139, 0.09246265143156052, 0.017113052308559418, 0.024597352370619774, 0.03543299064040184, 0.03412158042192459, 0.009084302000701427, 0.024606801569461823, 0.06655814498662949, 0.07471662759780884, 0.0649944469332695], [0.015703462064266205, 0.00852914061397314, 0.04066002368927002, 0.009332331828773022, 0.009325527586042881, 0.08381155878305435, 0.16530339419841766, 0.019851570948958397, 0.008583464659750462, 0.18618397414684296, 0.009423844516277313, 0.033912599086761475, 0.008216054178774357, 0.008587334305047989, 0.08557727187871933, 0.02450290508568287, 0.025133205577731133, 0.008584283292293549, 0.16043239831924438, 0.06405598670244217, 0.02428971230983734], [0.008923450484871864, 0.18985728919506073, 0.05514970421791077, 0.055737193673849106, 0.013905199244618416, 0.0015646161045879126, 0.005080852657556534, 0.006134588271379471, 0.18467989563941956, 0.008847812190651894, 0.005974170286208391, 0.04710531607270241, 0.009294520132243633, 0.18478986620903015, 0.0012601386988535523, 0.004193542990833521, 0.0048203980550169945, 0.18499162793159485, 0.00627293111756444, 0.006894758436828852, 0.014522191137075424], [0.012133247219026089, 0.16976065933704376, 0.08788063377141953, 0.03165678679943085, 0.03494936227798462, 0.0023110886104404926, 0.010205007158219814, 0.001555348513647914, 0.16388963162899017, 0.010931973345577717, 0.011070013977587223, 0.07962890714406967, 0.011303341016173363, 0.16382957994937897, 0.005765555892139673, 0.001826551160775125, 0.001399315195158124, 0.1639864146709442, 0.011195818893611431, 0.008113646879792213, 0.016607152298092842], [0.014563420787453651, 0.18726693093776703, 0.0230843648314476, 0.0066027590073645115, 0.03290106728672981, 0.050632741302251816, 0.06742104142904282, 0.014683610759675503, 0.18232306838035583, 0.004551879595965147, 0.006971522234380245, 0.007339665200561285, 0.002424662234261632, 0.18196280300617218, 0.00430041179060936, 0.005083129741251469, 0.001105370232835412, 0.1822391003370285, 0.007546958047896624, 0.00376985059119761, 0.013225726783275604], [4.4638116378337145e-05, 0.0009731639875099063, 0.00010201097757089883, 1.9377963326405734e-05, 2.746827158262022e-05, 0.0029006991535425186, 0.9871171116828918, 0.0010436942102387547, 0.0009495275444351137, 0.0004297215200494975, 3.7780885122629115e-06, 7.894172449596226e-05, 1.527839594928082e-05, 0.0009509471128694713, 0.00036660980549640954, 0.003283370053395629, 4.818823072127998e-05, 0.0009520514286123216, 0.0003970273828599602, 0.00015067779168020934, 0.00014575626119039953], [0.0010897564934566617, 0.08735979348421097, 0.0025583943352103233, 0.003587311366572976, 0.0066518764942884445, 0.020165234804153442, 0.4400414228439331, 0.10913943499326706, 0.08635394275188446, 0.012419797480106354, 0.0017993266228586435, 0.0009706856217235327, 0.002864333800971508, 0.08635067194700241, 0.0015788761666044593, 0.02008102834224701, 0.015066582709550858, 0.08647506684064865, 0.0035390923731029034, 0.007170327007770538, 0.0047371662221848965], [0.013776597566902637, 0.21665827929973602, 0.00219707447104156, 0.002504656556993723, 0.003164804307743907, 0.004425405990332365, 0.010685409419238567, 0.013233404606580734, 0.21220985054969788, 0.0575961135327816, 0.0017780095804482698, 0.0008524541626684368, 0.0031337523832917213, 0.21184203028678894, 0.003554238937795162, 0.0029915855266153812, 0.004095848184078932, 0.21221327781677246, 0.012016745284199715, 0.005162729416042566, 0.005907937418669462], [0.01586306095123291, 0.008726922795176506, 0.04024522379040718, 0.009412155486643314, 0.009463555179536343, 0.08475132286548615, 0.16292813420295715, 0.0202740877866745, 0.008784068748354912, 0.18528535962104797, 0.009572021663188934, 0.03365089371800423, 0.008385683409869671, 0.008787978440523148, 0.08609241992235184, 0.024806614965200424, 0.025627894327044487, 0.008784903213381767, 0.15960140526294708, 0.06463175266981125, 0.024324456229805946], [0.02044416032731533, 0.19409771263599396, 0.007906127721071243, 0.00822930783033371, 0.007968886755406857, 0.0015843333676457405, 0.0042277052998542786, 0.022094227373600006, 0.1890982687473297, 0.008765793405473232, 0.014299895614385605, 0.010075041092932224, 0.010197841562330723, 0.18889620900154114, 0.0015080871526151896, 0.06222335994243622, 0.017127200961112976, 0.18923310935497284, 0.007858028635382652, 0.016394848003983498, 0.01776994578540325], [0.0017230004305019975, 0.006097993813455105, 0.30650800466537476, 0.0150410495698452, 0.003152637742459774, 0.000509035075083375, 0.0022672421764582396, 0.0004592365585267544, 0.005867804866284132, 0.022503141313791275, 0.015363799408078194, 0.520469605922699, 0.00543253542855382, 0.005848959553986788, 0.006829490885138512, 0.0017271166434511542, 0.0013653876958414912, 0.005841019097715616, 0.021805062890052795, 0.020333966240286827, 0.030853968113660812], [0.00827088113874197, 0.20270997285842896, 0.021098794415593147, 0.013994729146361351, 0.004840319510549307, 0.0011007010471075773, 0.002822291338816285, 0.002366981003433466, 0.19703137874603271, 0.0034813424572348595, 0.005321781150996685, 0.07741913199424744, 0.019004177302122116, 0.19740146398544312, 0.003978985361754894, 0.009966270066797733, 0.004470011219382286, 0.19745677709579468, 0.007037382572889328, 0.009050085209310055, 0.011176596395671368], [0.028032008558511734, 0.17627514898777008, 0.010761185549199581, 0.006706956308335066, 0.013392100110650063, 0.013004668988287449, 0.015575543977320194, 0.004564725793898106, 0.17198757827281952, 0.003926979377865791, 0.0066802892833948135, 0.020007416605949402, 0.03484170138835907, 0.1721232682466507, 0.06094500422477722, 0.044785626232624054, 0.004734670277684927, 0.172104150056839, 0.016941839829087257, 0.007221152074635029, 0.015387937426567078], [0.015902826562523842, 0.00878186896443367, 0.040157660841941833, 0.009400665760040283, 0.009473375976085663, 0.08488345146179199, 0.16288916766643524, 0.02031123638153076, 0.008839454501867294, 0.1847042590379715, 0.009561849758028984, 0.03361979126930237, 0.008406375534832478, 0.00884343683719635, 0.08608793467283249, 0.024863766506314278, 0.025645554065704346, 0.008840363472700119, 0.15977299213409424, 0.06472945958375931, 0.024284496903419495], [0.0004045293608214706, 0.0016153836622834206, 0.00019647004955913872, 0.00013016541197430342, 5.940431583439931e-05, 0.002929513808339834, 0.04522545263171196, 0.003878749441355467, 0.0015664326492697, 0.00015929609071463346, 4.3423715396784246e-05, 0.000299926963634789, 0.00020547339227050543, 0.0015698393108323216, 0.005791098810732365, 0.9209500551223755, 0.00612121494486928, 0.0015699591021984816, 0.003450928721576929, 0.0027669514529407024, 0.001065758871845901], [0.003490366507321596, 0.017521662637591362, 0.004576489794999361, 0.006238784175366163, 0.0011770413257181644, 0.0007251838687807322, 0.014177825301885605, 0.05944976583123207, 0.016835367307066917, 0.011414088308811188, 0.0006052831304259598, 0.006000195164233446, 0.0024642369244247675, 0.016880672425031662, 0.007957348600029945, 0.14952726662158966, 0.5040485262870789, 0.01688350923359394, 0.028264174237847328, 0.11457319557666779, 0.017189012840390205], [0.0428110808134079, 0.1609055995941162, 0.007805194240063429, 0.0036872108466923237, 0.006218517664819956, 0.0024684355594217777, 0.0019760746508836746, 0.004135747440159321, 0.15576137602329254, 0.017935197800397873, 0.0058916532434523106, 0.006676238961517811, 0.01064901240170002, 0.15571704506874084, 0.012371574528515339, 0.014236880466341972, 0.01981748826801777, 0.1559056043624878, 0.1434682458639145, 0.051045846194028854, 0.0205160491168499], [0.01591191627085209, 0.008775436319410801, 0.04016204550862312, 0.009411036968231201, 0.009490331634879112, 0.08486707508563995, 0.16274556517601013, 0.020337197929620743, 0.008832979947328568, 0.18489603698253632, 0.009574037976562977, 0.0335940383374691, 0.008413422852754593, 0.008836948312819004, 0.0860353410243988, 0.02484472468495369, 0.02566417306661606, 0.008833877742290497, 0.1597001701593399, 0.064768485724926, 0.024305226281285286], [0.010971253737807274, 0.06854655593633652, 0.03895832970738411, 0.005175538826733828, 0.029704226180911064, 0.0009178144973702729, 0.0021498326677829027, 0.018025053665041924, 0.06619873642921448, 0.00630651880055666, 0.005335320718586445, 0.04473382234573364, 0.015185533091425896, 0.06621641665697098, 0.0025953357107937336, 0.11155696213245392, 0.028080729767680168, 0.06631587445735931, 0.03945785015821457, 0.3502965271472931, 0.023271668702363968], [0.07000868022441864, 0.1585809886455536, 0.02461875230073929, 0.012254787608981133, 0.02066974528133869, 0.001653445651754737, 0.0018331599421799183, 0.0014954134821891785, 0.1535196453332901, 0.01049811951816082, 0.005798112601041794, 0.03598354384303093, 0.011731605976819992, 0.1536102294921875, 0.006904320325702429, 0.01938687637448311, 0.004430679138749838, 0.1538487672805786, 0.08017871528863907, 0.05095723271369934, 0.02203715406358242], [0.04418075457215309, 0.07227612286806107, 0.1571054458618164, 0.01818922348320484, 0.0395648218691349, 0.005436429288238287, 0.010807326063513756, 0.005550871603190899, 0.06971403956413269, 0.04564820975065231, 0.01503001432865858, 0.11725867539644241, 0.02117885649204254, 0.06971113383769989, 0.017559751868247986, 0.0153314508497715, 0.0058982339687645435, 0.06974594295024872, 0.0834759995341301, 0.06100688874721527, 0.05532979965209961]], [[0.09847813844680786, 0.04766658693552017, 0.039415545761585236, 0.07870899140834808, 0.018876556307077408, 0.0021184540819376707, 0.0012858634581789374, 0.011270317249000072, 0.046593077480793, 0.027973512187600136, 0.03365747258067131, 0.026913121342658997, 0.014486027881503105, 0.046633001416921616, 0.033984940499067307, 0.019268598407506943, 0.03733781725168228, 0.04664899781346321, 0.04812547564506531, 0.03506658226251602, 0.28549087047576904], [0.01675952784717083, 0.043814148753881454, 0.03053794614970684, 0.0365779735147953, 0.06082604452967644, 0.11072862148284912, 0.08730600029230118, 0.06555138528347015, 0.04397707059979439, 0.11461734771728516, 0.028169088065624237, 0.033592309802770615, 0.03269501030445099, 0.04400305077433586, 0.04016082361340523, 0.03861112892627716, 0.04100510850548744, 0.044004034250974655, 0.030232714489102364, 0.035876091569662094, 0.020954592153429985], [0.014343149960041046, 0.18861281871795654, 0.031730346381664276, 0.06638120114803314, 0.015835311263799667, 0.0007556540658697486, 0.001023046555928886, 0.004650286864489317, 0.18241657316684723, 0.008381037041544914, 0.014961338602006435, 0.008345483802258968, 0.00401220703497529, 0.18220290541648865, 0.0022479172330349684, 0.0023005688562989235, 0.010762443765997887, 0.18244771659374237, 0.007014147937297821, 0.008688659407198429, 0.06288732588291168], [0.015901150181889534, 0.09085895121097565, 0.1704675555229187, 0.13913580775260925, 0.039945513010025024, 0.001052949344739318, 0.0007007686072029173, 0.01163639035075903, 0.08798757940530777, 0.010084329172968864, 0.03056628257036209, 0.05294644087553024, 0.02430768311023712, 0.08790265768766403, 0.004668550565838814, 0.003363629337400198, 0.024647288024425507, 0.08800029009580612, 0.013471159152686596, 0.012372088618576527, 0.0899830088019371], [0.005030475556850433, 0.22267350554466248, 0.025761306285858154, 0.03326635807752609, 0.011860783211886883, 0.0006087281508371234, 0.00044769950909540057, 0.004491250496357679, 0.21662263572216034, 0.004288091324269772, 0.004930615425109863, 0.006252946797758341, 0.004476939793676138, 0.21649852395057678, 0.0014195453841239214, 0.0012125312350690365, 0.006088839378207922, 0.21689064800739288, 0.004248437471687794, 0.0024812621995806694, 0.010448801331222057], [0.00017363585357088596, 0.24970382452011108, 0.0007803694461472332, 0.0040796841494739056, 0.002882725792005658, 0.001917880610562861, 0.0015246192924678326, 0.0021858687978237867, 0.2431962490081787, 0.0032784028444439173, 0.0008965159649960697, 0.00016196799697354436, 0.00039254504372365773, 0.24303790926933289, 0.00012632373545784503, 9.866825712379068e-05, 0.0005425825947895646, 0.24353976547718048, 0.00045821050298400223, 0.0004223113355692476, 0.0006000685971230268], [0.0010621101828292012, 0.2413395345211029, 0.0029773018322885036, 0.007532442454248667, 0.015473434701561928, 0.003056484507396817, 0.0017487603472545743, 0.004303827881813049, 0.23434825241565704, 0.005304843652993441, 0.003049807855859399, 0.0008572171209380031, 0.0016808237414807081, 0.2342100590467453, 0.0007208414026536047, 0.00025496305897831917, 0.0011806136462837458, 0.23459991812705994, 0.0010959483915939927, 0.0011091855121776462, 0.004093571100383997], [0.0009374766377732158, 0.23660123348236084, 0.004661852028220892, 0.013206342235207558, 0.018958697095513344, 0.004031254909932613, 0.0010091158328577876, 0.005588953848928213, 0.23115409910678864, 0.003977993968874216, 0.0036174359265714884, 0.0018056080443784595, 0.0023747608065605164, 0.23101657629013062, 0.00039395777275785804, 0.0002193877735408023, 0.0012362860143184662, 0.23146867752075195, 0.0014181709848344326, 0.0012560919858515263, 0.0050660185515880585], [0.016747301444411278, 0.043706901371479034, 0.03047715499997139, 0.03612866997718811, 0.061017438769340515, 0.11161191761493683, 0.08824693411588669, 0.06591171771287918, 0.043873660266399384, 0.11444016546010971, 0.02801201492547989, 0.03339247405529022, 0.03261289745569229, 0.04389866068959236, 0.039896588772535324, 0.038392700254917145, 0.04084230959415436, 0.04389972239732742, 0.030138524249196053, 0.03592611476778984, 0.020826146006584167], [0.0031448304653167725, 0.22788573801517487, 0.006679343059659004, 0.014527160674333572, 0.02711854875087738, 0.006290757097303867, 0.002460838295519352, 0.008882390335202217, 0.2222798615694046, 0.011108636856079102, 0.004190557636320591, 0.001405513845384121, 0.0016417726874351501, 0.22205379605293274, 0.0008033470367081463, 0.0006170819979161024, 0.002050442388281226, 0.2223803699016571, 0.001443863264285028, 0.0019489903934299946, 0.01108620222657919], [0.027775343507528305, 0.07008272409439087, 0.07020490616559982, 0.24430762231349945, 0.05887080729007721, 0.0052405064925551414, 0.001671557198278606, 0.023546189069747925, 0.06886125355958939, 0.01898743398487568, 0.04124508798122406, 0.03705161437392235, 0.020239543169736862, 0.06882558017969131, 0.010138587094843388, 0.006944945547729731, 0.017632262781262398, 0.0688905268907547, 0.009380402974784374, 0.013634244911372662, 0.11646880954504013], [0.01983341947197914, 0.11280474066734314, 0.06969570368528366, 0.14302664995193481, 0.022620655596256256, 0.0012711059534922242, 0.0011822185479104519, 0.01114656962454319, 0.11019282788038254, 0.011190337128937244, 0.03292868658900261, 0.04288281500339508, 0.016555897891521454, 0.10993010550737381, 0.006404961459338665, 0.0057713985443115234, 0.025831574574112892, 0.11006120592355728, 0.010743169113993645, 0.0188694316893816, 0.11705657094717026], [0.0055215321481227875, 0.16981962323188782, 0.043703388422727585, 0.04881595820188522, 0.017701998353004456, 0.0012689623981714249, 0.0007219528779387474, 0.0075032575987279415, 0.16607847809791565, 0.007033774629235268, 0.019990649074316025, 0.07136175036430359, 0.03174398094415665, 0.16603128612041473, 0.008089502342045307, 0.004096102435141802, 0.012090779840946198, 0.16626475751399994, 0.012381331995129585, 0.008645576424896717, 0.031135348603129387], [0.01671857014298439, 0.043629616498947144, 0.030477073043584824, 0.036109451204538345, 0.06101636588573456, 0.11163052916526794, 0.08828908950090408, 0.06592313945293427, 0.043795906007289886, 0.11446892470121384, 0.028030816465616226, 0.03346326947212219, 0.03265712410211563, 0.043820884078741074, 0.039937324821949005, 0.03841554746031761, 0.04084597900509834, 0.04382194206118584, 0.030166897922754288, 0.03596286475658417, 0.020818697288632393], [0.0019168893340975046, 0.23700401186943054, 0.0033397492952644825, 0.009390766732394695, 0.009142578579485416, 0.001473920652642846, 0.0004885947564616799, 0.0030033448711037636, 0.23102430999279022, 0.0042360695078969, 0.010027107782661915, 0.004130211658775806, 0.003414537524804473, 0.23099324107170105, 0.0023747843224555254, 0.0011080512776970863, 0.0031482975464314222, 0.23132865130901337, 0.0024552112445235252, 0.002749927807599306, 0.007249839603900909], [0.0017691809916868806, 0.24474167823791504, 0.0013145537814125419, 0.003629822749644518, 0.0019583944231271744, 0.0004017988976556808, 6.13965094089508e-05, 0.0013301082653924823, 0.23957332968711853, 0.0016588199650868773, 0.0043784393928945065, 0.0020103370770812035, 0.002060080412775278, 0.239549458026886, 0.002067644614726305, 0.0010124958353117108, 0.003035411238670349, 0.2398650348186493, 0.001881696400232613, 0.0014182470040395856, 0.006282129790633917], [0.006844579707831144, 0.16903634369373322, 0.024515556171536446, 0.0561467781662941, 0.03220786899328232, 0.0007104634423740208, 0.00019862271437887102, 0.006977562326937914, 0.16593770682811737, 0.006289638113230467, 0.03137863799929619, 0.04195793345570564, 0.03040159121155739, 0.16588865220546722, 0.006546519696712494, 0.004535987973213196, 0.02202264964580536, 0.16612756252288818, 0.009305933490395546, 0.0063359676860272884, 0.04663350060582161], [0.016730405390262604, 0.043547481298446655, 0.030484899878501892, 0.036095499992370605, 0.06105419620871544, 0.11171171814203262, 0.08837204426527023, 0.06592977792024612, 0.04371371492743492, 0.11451937258243561, 0.028027283027768135, 0.03346182778477669, 0.03265715390443802, 0.04373861476778984, 0.039950963109731674, 0.03843652829527855, 0.04085865616798401, 0.04373965784907341, 0.03017355129122734, 0.035975486040115356, 0.020821237936615944], [0.011014255695044994, 0.2036176323890686, 0.01061862614005804, 0.014097769744694233, 0.017472732812166214, 0.001993864541873336, 0.0003541780461091548, 0.006064087618142366, 0.19843816757202148, 0.008041128516197205, 0.02443120814859867, 0.01275121234357357, 0.014967737719416618, 0.1984110027551651, 0.009790759533643723, 0.004806939046829939, 0.019797716289758682, 0.19854918122291565, 0.008841710165143013, 0.006551668047904968, 0.029388511553406715], [0.011483751237392426, 0.2025476098060608, 0.01356547325849533, 0.02133314311504364, 0.01085618045181036, 0.0014124076114967465, 0.0005354117602109909, 0.00747890817001462, 0.1989276111125946, 0.0075307004153728485, 0.017727721482515335, 0.018566209822893143, 0.01147756539285183, 0.199020117521286, 0.00917277205735445, 0.00582509022206068, 0.013656179420650005, 0.19926662743091583, 0.008058413863182068, 0.006175825837999582, 0.03538227081298828], [0.01653985120356083, 0.14352424442768097, 0.032291069626808167, 0.05072397366166115, 0.015894899144768715, 0.0031672329641878605, 0.00184541754424572, 0.015116305090487003, 0.1402573138475418, 0.027934880927205086, 0.024598756805062294, 0.03480459749698639, 0.016488049179315567, 0.14038872718811035, 0.019320905208587646, 0.012096191756427288, 0.0283797774463892, 0.1405399739742279, 0.033354103565216064, 0.02023831196129322, 0.08249537646770477]], [[0.11618337035179138, 0.012228022329509258, 0.04938571900129318, 0.06289058178663254, 0.010182489641010761, 0.0153384730219841, 0.020091282203793526, 0.035365376621484756, 0.011893370188772678, 0.09706804156303406, 0.02342299371957779, 0.03147602081298828, 0.016460314393043518, 0.011909916065633297, 0.056872718036174774, 0.011178625747561455, 0.011630057357251644, 0.011908823624253273, 0.07075956463813782, 0.11095128953456879, 0.21280302107334137], [0.016213873401284218, 0.07937999069690704, 0.035254478454589844, 0.050684187561273575, 0.06993864476680756, 0.056094035506248474, 0.04737686365842819, 0.025464043021202087, 0.08008651435375214, 0.02733497880399227, 0.02198793552815914, 0.04079129919409752, 0.07580312341451645, 0.08020811527967453, 0.05084894970059395, 0.037886664271354675, 0.04125869274139404, 0.08021403849124908, 0.03710036724805832, 0.02481096237897873, 0.0212622731924057], [0.04687858000397682, 0.06876014173030853, 0.04460607469081879, 0.11783669888973236, 0.05672667175531387, 0.01566300541162491, 0.009019236080348492, 0.03082258813083172, 0.06718577444553375, 0.0436432883143425, 0.0249184500426054, 0.024016832932829857, 0.04633018746972084, 0.06727246195077896, 0.024718886241316795, 0.009457769803702831, 0.016784027218818665, 0.06728062778711319, 0.043900638818740845, 0.06110508739948273, 0.1130729392170906], [0.033831968903541565, 0.07407274097204208, 0.04650215432047844, 0.08258172869682312, 0.08343635499477386, 0.023353738710284233, 0.010451196692883968, 0.031657855957746506, 0.0719805657863617, 0.021002933382987976, 0.013609427027404308, 0.026391776278614998, 0.04950929805636406, 0.07206398248672485, 0.03427964076399803, 0.00731315091252327, 0.02186829410493374, 0.07206717878580093, 0.02614522911608219, 0.0463496558368206, 0.1515311747789383], [0.013858710415661335, 0.17445968091487885, 0.012697952799499035, 0.052976515144109726, 0.019826039671897888, 0.006705369800329208, 0.004700108431279659, 0.017603276297450066, 0.1709582656621933, 0.019443223252892494, 0.012886811047792435, 0.009790326468646526, 0.012837252579629421, 0.17127302289009094, 0.010011096484959126, 0.006833724211901426, 0.016346057876944542, 0.17128367722034454, 0.022736195474863052, 0.016002831980586052, 0.056769825518131256], [0.02008702978491783, 0.14053671061992645, 0.010134787298738956, 0.028414981439709663, 0.003263686317950487, 0.006748633459210396, 0.006072765216231346, 0.06714934855699539, 0.13668766617774963, 0.056645989418029785, 0.019683340564370155, 0.008246221579611301, 0.005314847454428673, 0.13692547380924225, 0.011765042319893837, 0.007880361750721931, 0.030343635007739067, 0.13692311942577362, 0.04292307794094086, 0.02391488291323185, 0.10033835470676422], [0.016692088916897774, 0.08425217121839523, 0.01736815646290779, 0.03768974170088768, 0.004712122026830912, 0.00894007459282875, 0.005993582308292389, 0.0699940025806427, 0.08278771489858627, 0.20380614697933197, 0.023284481838345528, 0.00995706394314766, 0.007560680620372295, 0.08280283212661743, 0.029219208285212517, 0.011362767778337002, 0.02907395362854004, 0.08281811326742172, 0.060361266136169434, 0.04119177535176277, 0.09013207256793976], [0.010799930430948734, 0.2000100165605545, 0.008926312439143658, 0.025055399164557457, 0.009632881730794907, 0.008042583242058754, 0.0033882386051118374, 0.015484883449971676, 0.1960483342409134, 0.01773736998438835, 0.007795685436576605, 0.0060501242987811565, 0.009420807473361492, 0.19629697501659393, 0.01347254030406475, 0.0038938785437494516, 0.009527992457151413, 0.19634491205215454, 0.015640074387192726, 0.011917287483811378, 0.03451373800635338], [0.016218064352869987, 0.07952924072742462, 0.03523802384734154, 0.04987160116434097, 0.06933653354644775, 0.056640852242708206, 0.047544799745082855, 0.025297371670603752, 0.08024099469184875, 0.027588985860347748, 0.022059930488467216, 0.04072193428874016, 0.07509014010429382, 0.08035987615585327, 0.051191359758377075, 0.03820748254656792, 0.0411536768078804, 0.0803663432598114, 0.03728347644209862, 0.024854786694049835, 0.021204501390457153], [0.06096135079860687, 0.11009962111711502, 0.02739630453288555, 0.055122483521699905, 0.009701204486191273, 0.008025591261684895, 0.011188570410013199, 0.04188064858317375, 0.10782601684331894, 0.08275382965803146, 0.023913195356726646, 0.011283679865300655, 0.010784084908664227, 0.10782189667224884, 0.03410308435559273, 0.00939220655709505, 0.01585949957370758, 0.1078973263502121, 0.03377549722790718, 0.04391874745488167, 0.08629518747329712], [0.03932185098528862, 0.08781016618013382, 0.02568480558693409, 0.09661666303873062, 0.03929084911942482, 0.021217789500951767, 0.008260189555585384, 0.03085203655064106, 0.0858432948589325, 0.024608321487903595, 0.014927278272807598, 0.026943320408463478, 0.06203937530517578, 0.08605417609214783, 0.021025871858000755, 0.005883210338652134, 0.019088389351963997, 0.08605245500802994, 0.022937893867492676, 0.05836217850446701, 0.13717977702617645], [0.021138127893209457, 0.09145127981901169, 0.03667375445365906, 0.06406882405281067, 0.0317208394408226, 0.015786515548825264, 0.007294496521353722, 0.02497904747724533, 0.0894395262002945, 0.031840551644563675, 0.018546173349022865, 0.03179125115275383, 0.04879287630319595, 0.08959032595157623, 0.03972182422876358, 0.01127615850418806, 0.026224760338664055, 0.08960863202810287, 0.06261850893497467, 0.0751342922449112, 0.09230227023363113], [0.01586611196398735, 0.11790071427822113, 0.00922493077814579, 0.060532815754413605, 0.01700422912836075, 0.005137299187481403, 0.000960606150329113, 0.0336628258228302, 0.1151004433631897, 0.011575602926313877, 0.025620125234127045, 0.020136769860982895, 0.03740635886788368, 0.11537352204322815, 0.035854700952768326, 0.013018288649618626, 0.0601414293050766, 0.11529501527547836, 0.02972790040075779, 0.038971830159425735, 0.12148836255073547], [0.01625552400946617, 0.07943034917116165, 0.03529033809900284, 0.049894724041223526, 0.0693107470870018, 0.056579578667879105, 0.04745563864707947, 0.025315379723906517, 0.08014027029275894, 0.027583008632063866, 0.022115912288427353, 0.04082242771983147, 0.07513880729675293, 0.08025874942541122, 0.051266662776470184, 0.038264449685811996, 0.041184231638908386, 0.08026519417762756, 0.03730299323797226, 0.02487417310476303, 0.021250853314995766], [0.06378453969955444, 0.06740201264619827, 0.014128275215625763, 0.036673396825790405, 0.00284101371653378, 0.004325171932578087, 0.005057943053543568, 0.04882008209824562, 0.06576421111822128, 0.046998292207717896, 0.037930794060230255, 0.015180705115199089, 0.008764819242060184, 0.0657903179526329, 0.04236374795436859, 0.013321056962013245, 0.038205891847610474, 0.06578914821147919, 0.058506641536951065, 0.07604502141475677, 0.22230683267116547], [0.025212420150637627, 0.17995187640190125, 0.0051157413981854916, 0.015080993063747883, 0.0023536819498986006, 0.005069036036729813, 0.002633380703628063, 0.014457078650593758, 0.1762385219335556, 0.017571084201335907, 0.007630171254277229, 0.005847761407494545, 0.0059463754296302795, 0.17646931111812592, 0.023103149607777596, 0.007480382453650236, 0.014691334217786789, 0.17653104662895203, 0.03877672925591469, 0.028979714959859848, 0.07086009532213211], [0.01819794438779354, 0.17990487813949585, 0.009563235566020012, 0.03579344227910042, 0.010903452523052692, 0.008933955803513527, 0.0016520165372639894, 0.00928418431431055, 0.17583973705768585, 0.010131294839084148, 0.012692905031144619, 0.012609045952558517, 0.01778154820203781, 0.17603500187397003, 0.029054051265120506, 0.006465198937803507, 0.009625700302422047, 0.1760232001543045, 0.018267406150698662, 0.021781817078590393, 0.059459932148456573], [0.016253827139735222, 0.07929521799087524, 0.03534459322690964, 0.0498616062104702, 0.06939790397882462, 0.0566505528986454, 0.04756069555878639, 0.02532161958515644, 0.08000418543815613, 0.02763882465660572, 0.022111594676971436, 0.040848977863788605, 0.07517386972904205, 0.08012232929468155, 0.051339272409677505, 0.03830842301249504, 0.04118290916085243, 0.08012876659631729, 0.037328824400901794, 0.024882307276129723, 0.021243661642074585], [0.06944284588098526, 0.0898885726928711, 0.03155570104718208, 0.03612680733203888, 0.008364204317331314, 0.010040918365120888, 0.009569340385496616, 0.03163130581378937, 0.08757533133029938, 0.06642480194568634, 0.027209240943193436, 0.0233438853174448, 0.01289484091103077, 0.0875520184636116, 0.04665173590183258, 0.014566821977496147, 0.026260804384946823, 0.08758705109357834, 0.03845406696200371, 0.05608362331986427, 0.13877606391906738], [0.025014640763401985, 0.157138392329216, 0.01592145673930645, 0.02860993891954422, 0.010317236185073853, 0.009306694380939007, 0.010696097277104855, 0.030328454449772835, 0.15417250990867615, 0.037109583616256714, 0.006196038331836462, 0.011415092274546623, 0.012185019440948963, 0.15436281263828278, 0.03588443994522095, 0.009267416782677174, 0.02412145771086216, 0.15443629026412964, 0.0309271439909935, 0.02956674061715603, 0.053022515028715134], [0.02792512997984886, 0.12212124466896057, 0.02665187604725361, 0.051742080599069595, 0.01402729470282793, 0.014890797436237335, 0.01301303505897522, 0.01887386664748192, 0.11965326219797134, 0.0639645904302597, 0.013669666834175587, 0.015470599755644798, 0.022482819855213165, 0.11981012672185898, 0.03450227156281471, 0.0065261926501989365, 0.016090944409370422, 0.11983463913202286, 0.04898795485496521, 0.05782150849699974, 0.071940116584301]], [[0.15247909724712372, 0.000286596710793674, 0.0434814915060997, 0.007600660435855389, 0.012812480330467224, 0.010518127121031284, 0.004215673077851534, 0.011474008671939373, 0.00027869956102222204, 0.057075709104537964, 0.056049082428216934, 0.038739871233701706, 0.013408814556896687, 0.00027924589812755585, 0.03381936624646187, 0.029076315462589264, 0.026788566261529922, 0.0002791110600810498, 0.05737863481044769, 0.09320748597383499, 0.3507510721683502], [0.08619425445795059, 0.021084370091557503, 0.04582056775689125, 0.055178746581077576, 0.04421841725707054, 0.05706426873803139, 0.06649918854236603, 0.05405348539352417, 0.02122526243329048, 0.03375259414315224, 0.052785445004701614, 0.050485529005527496, 0.05949234589934349, 0.021236218512058258, 0.054671138525009155, 0.07134127616882324, 0.054507795721292496, 0.02123173512518406, 0.03632362186908722, 0.04655246064066887, 0.04628128930926323], [0.00918332114815712, 0.08467817306518555, 0.10512956976890564, 0.06225407123565674, 0.03497612103819847, 0.013715214096009731, 0.015845315530896187, 0.012267151847481728, 0.08248148113489151, 0.06393299251794815, 0.020559191703796387, 0.05067937821149826, 0.017633704468607903, 0.08268319815397263, 0.01791408471763134, 0.012417055666446686, 0.0156327486038208, 0.08271178603172302, 0.046882569789886475, 0.03416641429066658, 0.13425640761852264], [0.00445790309458971, 0.08804648369550705, 0.05780712887644768, 0.23446504771709442, 0.09645236283540726, 0.00578072527423501, 0.0018146733054891229, 0.005221682135015726, 0.0858985185623169, 0.007726455572992563, 0.017672695219516754, 0.04048441722989082, 0.07098353654146194, 0.086082324385643, 0.00477605452761054, 0.00632064463570714, 0.01787032000720501, 0.08614351600408554, 0.01191526185721159, 0.011409806087613106, 0.058670513331890106], [0.0005967081524431705, 0.11559969186782837, 0.01596747525036335, 0.0822531133890152, 0.32981401681900024, 0.007675290107727051, 0.001935173524543643, 0.009714324027299881, 0.1106707900762558, 0.00422354182228446, 0.0039638192392885685, 0.010694123804569244, 0.053003065288066864, 0.1107548251748085, 0.0030085358303040266, 0.00270623411051929, 0.009640264324843884, 0.11090201139450073, 0.0034836314152926207, 0.0027845699805766344, 0.01060880720615387], [0.006487295962870121, 0.06449703127145767, 0.021781953051686287, 0.035212818533182144, 0.04832376539707184, 0.180106982588768, 0.029639435932040215, 0.08815136551856995, 0.06194695085287094, 0.06307651847600937, 0.025969628244638443, 0.013192244805395603, 0.021406037732958794, 0.06185916066169739, 0.04097305238246918, 0.029437841847538948, 0.024044698104262352, 0.06185512617230415, 0.014529420994222164, 0.014857204630970955, 0.09265142679214478], [0.0038037304766476154, 0.0809832438826561, 0.04588887095451355, 0.03054812178015709, 0.04535764455795288, 0.04224914684891701, 0.16859526932239532, 0.06540116667747498, 0.07847443222999573, 0.03448784351348877, 0.018945174291729927, 0.020405594259500504, 0.01840914972126484, 0.07829234004020691, 0.006131015717983246, 0.09049122035503387, 0.021431120112538338, 0.07833708077669144, 0.01140550710260868, 0.0169111005961895, 0.043451301753520966], [0.0027845583390444517, 0.1386967897415161, 0.01412595622241497, 0.025882193818688393, 0.043537601828575134, 0.02959268167614937, 0.013986690901219845, 0.07382101565599442, 0.13488446176052094, 0.039244137704372406, 0.007102195639163256, 0.007846342399716377, 0.022636715322732925, 0.13499964773654938, 0.013556530699133873, 0.021385207772254944, 0.06007095053792, 0.13502345979213715, 0.020376693457365036, 0.016034003347158432, 0.04441218823194504], [0.08610080182552338, 0.02119642309844494, 0.04578552395105362, 0.05529007688164711, 0.04437895119190216, 0.05713919550180435, 0.06714853644371033, 0.05426275357604027, 0.021340152248740196, 0.03400716558098793, 0.05247664079070091, 0.050550587475299835, 0.05934109166264534, 0.021350806578993797, 0.05433596670627594, 0.07111957669258118, 0.054163821041584015, 0.02134639583528042, 0.03638777881860733, 0.04641811177134514, 0.045859627425670624], [0.009312592446804047, 0.027116896584630013, 0.044837262481451035, 0.004475683439522982, 0.011129951104521751, 0.02680431865155697, 0.02310345508158207, 0.07776960730552673, 0.026522574946284294, 0.16048842668533325, 0.015551717020571232, 0.01198645494878292, 0.012043755501508713, 0.026537850499153137, 0.017832254990935326, 0.0259909238666296, 0.05631226301193237, 0.026526913046836853, 0.05959127098321915, 0.09264802187681198, 0.2434178590774536], [0.04774501919746399, 0.05214139446616173, 0.04967355355620384, 0.050375938415527344, 0.023701107129454613, 0.008549002930521965, 0.0026683486066758633, 0.012962205335497856, 0.05029544606804848, 0.03463245555758476, 0.07957863062620163, 0.036351341754198074, 0.026993120089173317, 0.05040999874472618, 0.02288047783076763, 0.015426632016897202, 0.028150353580713272, 0.050396014004945755, 0.03909459710121155, 0.04546331241726875, 0.27251115441322327], [0.007343367673456669, 0.08820554614067078, 0.05884812772274017, 0.06885264813899994, 0.043698471039533615, 0.014068933203816414, 0.00902133621275425, 0.007195005193352699, 0.08593405783176422, 0.055176109075546265, 0.02387022227048874, 0.06189056113362312, 0.026700271293520927, 0.08622387796640396, 0.025657089427113533, 0.02056693099439144, 0.020106246694922447, 0.08627701550722122, 0.054954446852207184, 0.043305497616529465, 0.11210436373949051], [0.0015966949285939336, 0.10718972980976105, 0.022530831396579742, 0.09040654450654984, 0.11552244424819946, 0.015538303181529045, 0.0024230643175542355, 0.011372121050953865, 0.10316424816846848, 0.01840336248278618, 0.01138088945299387, 0.01860453560948372, 0.12048240751028061, 0.10330449044704437, 0.024036239832639694, 0.014355143532156944, 0.04288072884082794, 0.10340966284275055, 0.013328487053513527, 0.018328551203012466, 0.041741494089365005], [0.08621878921985626, 0.021167967468500137, 0.04581012949347496, 0.05537686124444008, 0.0445016585290432, 0.057148486375808716, 0.0669809952378273, 0.05424567312002182, 0.021311424672603607, 0.033968016505241394, 0.052453793585300446, 0.05062912777066231, 0.059417787939310074, 0.02132214605808258, 0.05427134782075882, 0.0710785984992981, 0.054203733801841736, 0.021317748352885246, 0.03634936362504959, 0.04638022556900978, 0.04584620147943497], [0.02766667865216732, 0.02069382555782795, 0.016896113753318787, 0.001951959915459156, 0.004872273188084364, 0.04191407188773155, 0.01733631081879139, 0.03447604551911354, 0.020141638815402985, 0.10630004107952118, 0.00990828312933445, 0.013696273788809776, 0.008095060475170612, 0.02016032300889492, 0.19937370717525482, 0.08872921764850616, 0.046463899314403534, 0.020154541358351707, 0.05824611708521843, 0.07671590149402618, 0.1662076711654663], [0.01855395920574665, 0.019075727090239525, 0.03249190375208855, 0.019884880632162094, 0.011290615424513817, 0.00557228596881032, 0.010503876954317093, 0.020059071481227875, 0.01846471056342125, 0.008813528344035149, 0.009228629991412163, 0.03179854899644852, 0.018736397847533226, 0.018469011411070824, 0.03259102255105972, 0.4576827883720398, 0.1279519647359848, 0.018482094630599022, 0.023275677114725113, 0.021766846999526024, 0.07530640065670013], [0.013357342220842838, 0.03966957703232765, 0.018197976052761078, 0.03188006579875946, 0.029822206124663353, 0.005143832415342331, 0.0018034720560535789, 0.03376820683479309, 0.03826624155044556, 0.01598210260272026, 0.011638159863650799, 0.017967524006962776, 0.044142886996269226, 0.03829066455364227, 0.019485250115394592, 0.03498247265815735, 0.3775336444377899, 0.03829236328601837, 0.03425077348947525, 0.03408828005194664, 0.1214369460940361], [0.08625518530607224, 0.021133383736014366, 0.04582945629954338, 0.05535002797842026, 0.04452073201537132, 0.05712652951478958, 0.06704352796077728, 0.05424569547176361, 0.021276798099279404, 0.03399639576673508, 0.05244741216301918, 0.05063535273075104, 0.05942923203110695, 0.021287472918629646, 0.054256316274404526, 0.07108413428068161, 0.05418678745627403, 0.021283099427819252, 0.036363936960697174, 0.04640815779566765, 0.0458403155207634], [0.06371530890464783, 0.014947189949452877, 0.019574042409658432, 0.0028051971457898617, 0.0036541216541081667, 0.005973268765956163, 0.0022592495661228895, 0.020734144374728203, 0.014509082771837711, 0.048162881284952164, 0.013374407775700092, 0.012290779501199722, 0.008287345059216022, 0.014543140307068825, 0.013739091344177723, 0.020593810826539993, 0.06757305562496185, 0.014539527706801891, 0.1924859881401062, 0.14336484670639038, 0.30287349224090576], [0.023839153349399567, 0.05054696649312973, 0.01724095270037651, 0.013650238513946533, 0.011845553293824196, 0.009257856756448746, 0.003596168477088213, 0.024636344984173775, 0.049051642417907715, 0.05275002121925354, 0.01475056167691946, 0.014467102475464344, 0.01649186946451664, 0.049159374088048935, 0.021086348220705986, 0.025016525760293007, 0.09043457359075546, 0.0491437204182148, 0.08858837187290192, 0.09822151809930801, 0.27622511982917786], [0.02273564599454403, 0.010379980318248272, 0.0345422625541687, 0.017350761219859123, 0.016578707844018936, 0.011119604110717773, 0.005198040511459112, 0.017723608762025833, 0.01005788054317236, 0.12789331376552582, 0.02283657342195511, 0.020624326542019844, 0.01865978166460991, 0.010080700740218163, 0.021966440603137016, 0.016257964074611664, 0.04850786551833153, 0.010076583363115788, 0.09370975941419601, 0.11540597677230835, 0.348294198513031]], [[0.05097242817282677, 0.07669235020875931, 0.04463658109307289, 0.15020467340946198, 0.030654743313789368, 0.0017679152078926563, 0.0027834856882691383, 0.004932538140565157, 0.07517524808645248, 0.0031356478575617075, 0.021198498085141182, 0.042601577937603, 0.039786625653505325, 0.07531943917274475, 0.030309999361634254, 0.019811414182186127, 0.03274030610918999, 0.07539253681898117, 0.046605996787548065, 0.05756910890340805, 0.11770901829004288], [0.027910035103559494, 0.0171662550419569, 0.053648896515369415, 0.09683969616889954, 0.10160686820745468, 0.04033247008919716, 0.04414859786629677, 0.02775777317583561, 0.017244892194867134, 0.04731549322605133, 0.050204597413539886, 0.08453123271465302, 0.14367017149925232, 0.017236195504665375, 0.034503694623708725, 0.03776952251791954, 0.030898623168468475, 0.017232608050107956, 0.04236245155334473, 0.04391144588589668, 0.023708485066890717], [0.0017048354493454099, 0.1312863975763321, 0.04518187418580055, 0.20410262048244476, 0.05624010041356087, 0.0009690958540886641, 0.0015167444944381714, 0.0018811225891113281, 0.13022850453853607, 0.003323212033137679, 0.013545719906687737, 0.038463227450847626, 0.06274843961000443, 0.13039100170135498, 0.002700529992580414, 0.0007980159716680646, 0.007212888449430466, 0.1305653303861618, 0.014719927683472633, 0.011646508239209652, 0.010773825459182262], [0.0021304702386260033, 0.1101999506354332, 0.07688918709754944, 0.1604861617088318, 0.1436038464307785, 0.005929827690124512, 0.003424733877182007, 0.004949134308844805, 0.10879519581794739, 0.004797805566340685, 0.007868516258895397, 0.03791854530572891, 0.07046078890562057, 0.10893677920103073, 0.010196699760854244, 0.001983517548069358, 0.006311181001365185, 0.10908807069063187, 0.0074550011195242405, 0.008417055010795593, 0.010157530196011066], [0.00048791756853461266, 0.2162914127111435, 0.026924002915620804, 0.06476721167564392, 0.02594958432018757, 0.0028310809284448624, 0.0006257010973058641, 0.0009307680302299559, 0.2118658721446991, 0.0010290215723216534, 0.003086286364123225, 0.010021897964179516, 0.004073933698236942, 0.21177919209003448, 0.0021773288026452065, 0.0003267492866143584, 0.0004503841046243906, 0.21222753822803497, 0.0013272338546812534, 0.0008808090933598578, 0.0019461705815047026], [3.5332916013430804e-05, 0.24708522856235504, 0.0004589752934407443, 0.00025750353233888745, 0.0003969229874201119, 0.0055559431202709675, 0.0019656731747090816, 0.0008825011900626123, 0.24420636892318726, 0.007193326484411955, 0.00014541155542246997, 0.00018528288637753576, 7.584950071759522e-05, 0.24466711282730103, 0.0005013812333345413, 4.959226498613134e-05, 8.774240268394351e-05, 0.2452452927827835, 0.0006017292034812272, 0.00028327081236056983, 0.00011963972065132111], [0.00013717307592742145, 0.23341740667819977, 0.0015035279793664813, 0.0017972956411540508, 0.0032937289215624332, 0.035887639969587326, 0.004223117604851723, 0.0016464050859212875, 0.23064400255680084, 0.019489748403429985, 0.00042622818727977574, 0.0008883531554602087, 0.0006653746822848916, 0.2311321645975113, 0.0007207288290373981, 0.00011680166790029034, 0.00025492990971542895, 0.23155918717384338, 0.0011379143688827753, 0.000623847940005362, 0.00043444515904411674], [0.0002795141190290451, 0.2326352894306183, 0.004793777130544186, 0.005638051312416792, 0.0035901807714253664, 0.02983568049967289, 0.002844296395778656, 0.002278050174936652, 0.2301216572523117, 0.013834059238433838, 0.0013971893349662423, 0.003009878331795335, 0.0015894263051450253, 0.23042911291122437, 0.0036889021284878254, 0.0002644170308485627, 0.00043332428322173655, 0.23082567751407623, 0.0012322060065343976, 0.0006585184601135552, 0.0006208256236277521], [0.02788291685283184, 0.017268609255552292, 0.05353250354528427, 0.09621238708496094, 0.10143615305423737, 0.04071987047791481, 0.04426531121134758, 0.027930838987231255, 0.017349503934383392, 0.04755300655961037, 0.05026397109031677, 0.08503603935241699, 0.14352427423000336, 0.01734074018895626, 0.03450712934136391, 0.03789367526769638, 0.030761105939745903, 0.017337044700980186, 0.04199106618762016, 0.0436641164124012, 0.023529794067144394], [0.0015472178347408772, 0.21920424699783325, 0.007988040335476398, 0.00557807506993413, 0.007425770629197359, 0.022855328395962715, 0.012958582490682602, 0.007777049671858549, 0.21689459681510925, 0.021245548501610756, 0.0021420931443572044, 0.004317828454077244, 0.003983053844422102, 0.2172299474477768, 0.003812916809692979, 0.0013360041193664074, 0.005544502753764391, 0.21764196455478668, 0.008721168152987957, 0.005571265704929829, 0.006224826443940401], [0.005277132615447044, 0.14269809424877167, 0.03692099079489708, 0.06946501135826111, 0.027009636163711548, 0.004704199731349945, 0.0045527503825724125, 0.006693737115710974, 0.14125390350818634, 0.005456976126879454, 0.017154201865196228, 0.06171445548534393, 0.07752624899148941, 0.14155042171478271, 0.02125447802245617, 0.0052184537053108215, 0.010779021307826042, 0.14168274402618408, 0.0315510630607605, 0.025755293667316437, 0.021781152114272118], [0.00133804720826447, 0.14287006855010986, 0.015695558860898018, 0.07194511592388153, 0.01573530212044716, 0.0007094782777130604, 0.0007754890830256045, 0.0013230564072728157, 0.14161662757396698, 0.002087208442389965, 0.014720759354531765, 0.08561456948518753, 0.14786756038665771, 0.14201703667640686, 0.00848215352743864, 0.0019787035416811705, 0.010057018138468266, 0.14209531247615814, 0.02083408087491989, 0.017010308802127838, 0.015226616524159908], [0.0008017491782084107, 0.19526776671409607, 0.019474633038043976, 0.03692939132452011, 0.00528261624276638, 0.0007713806699030101, 0.00036420419928617775, 0.0006865350296720862, 0.19107091426849365, 0.0005221939645707607, 0.0039653293788433075, 0.058701980859041214, 0.049078699201345444, 0.19204023480415344, 0.017717793583869934, 0.0023712138645350933, 0.003072767984122038, 0.19223958253860474, 0.011548485606908798, 0.008970500901341438, 0.009122083894908428], [0.02791086584329605, 0.01729813776910305, 0.05354156345129013, 0.09618780761957169, 0.1013016402721405, 0.04066576436161995, 0.04418350011110306, 0.027941346168518066, 0.017378970980644226, 0.047471076250076294, 0.0502142459154129, 0.0850774347782135, 0.1435140073299408, 0.01737023890018463, 0.034543052315711975, 0.03794180601835251, 0.03079184889793396, 0.017366554588079453, 0.0420171394944191, 0.043727148324251175, 0.02355596236884594], [0.0012699179351329803, 0.20424853265285492, 0.0059479232877492905, 0.006421385332942009, 0.003746047616004944, 0.0017993233632296324, 0.003873318200930953, 0.002880515530705452, 0.20219413936138153, 0.0033939811401069164, 0.005258261226117611, 0.00976431742310524, 0.015688244253396988, 0.20285923779010773, 0.010400975123047829, 0.005892863031476736, 0.01969136856496334, 0.20314441621303558, 0.046387944370508194, 0.029478976503014565, 0.015658339485526085], [0.0004487535625230521, 0.2402007281780243, 0.0025527544785290956, 0.004943756852298975, 0.0011947706807404757, 0.00046706595458090305, 0.0003146506496705115, 0.0003670385922305286, 0.23656348884105682, 0.0004910851712338626, 0.0008810758008621633, 0.0044436329044401646, 0.005386474542319775, 0.23755618929862976, 0.004761810880154371, 0.000875704048667103, 0.0016820926684886217, 0.2378055453300476, 0.009062808938324451, 0.006951730698347092, 0.003048865357413888], [0.0008487103623338044, 0.22396939992904663, 0.009202620945870876, 0.019410280510783195, 0.004115391988307238, 0.001203221152536571, 0.0004160434182267636, 0.0003660910006146878, 0.22106525301933289, 0.0006112151313573122, 0.002374490024521947, 0.017199035733938217, 0.01757182367146015, 0.22170127928256989, 0.015230301767587662, 0.0022301580756902695, 0.0031453687697649, 0.22202911972999573, 0.0070920963771641254, 0.00683229137212038, 0.003385767340660095], [0.027916336432099342, 0.017252067103981972, 0.05354919657111168, 0.09618069231510162, 0.10137156397104263, 0.04070405289530754, 0.04425860568881035, 0.027961185202002525, 0.017332900315523148, 0.047506462782621384, 0.05024081468582153, 0.08509557694196701, 0.14353324472904205, 0.017324140295386314, 0.034529246389865875, 0.03795383870601654, 0.030769728124141693, 0.01732044853270054, 0.04197561368346214, 0.04368779435753822, 0.023536471650004387], [0.006536024622619152, 0.1950744092464447, 0.014463101513683796, 0.01959189772605896, 0.007637125439941883, 0.002856975421309471, 0.0016726230969652534, 0.0019107313128188252, 0.1917809247970581, 0.002373369410634041, 0.0030013860668987036, 0.019730115309357643, 0.026447808369994164, 0.19270765781402588, 0.022959891706705093, 0.009324409067630768, 0.016513481736183167, 0.19297297298908234, 0.01809713989496231, 0.021880319342017174, 0.03246765583753586], [0.0018749593291431665, 0.22915306687355042, 0.008304357528686523, 0.009924075566232204, 0.002921712351962924, 0.0014944529393687844, 0.0013885328080505133, 0.0013555120676755905, 0.22510308027267456, 0.0012713762698695064, 0.0019846244249492884, 0.006951549090445042, 0.007615878712385893, 0.22590608894824982, 0.015150317922234535, 0.0034436595160514116, 0.004826399032026529, 0.22618979215621948, 0.007863353006541729, 0.006339216139167547, 0.010938042774796486], [0.004844564478844404, 0.16781216859817505, 0.040643759071826935, 0.08917538076639175, 0.013914999552071095, 0.0021803623531013727, 0.0027700630016624928, 0.0029211302753537893, 0.16511762142181396, 0.004039447288960218, 0.009586875326931477, 0.0352817177772522, 0.025929566472768784, 0.16555124521255493, 0.02143101766705513, 0.004030948970466852, 0.006320626474916935, 0.1658581644296646, 0.024978557601571083, 0.021680811420083046, 0.025931067764759064]], [[0.2327502965927124, 0.0027030189521610737, 0.033494170755147934, 0.04215104877948761, 0.012657545506954193, 0.01469850167632103, 0.002307143760845065, 0.02377953752875328, 0.0026050317101180553, 0.029600251466035843, 0.05334141105413437, 0.027876269072294235, 0.016785619780421257, 0.002605130197480321, 0.031796783208847046, 0.014521358534693718, 0.047525204718112946, 0.002605120185762644, 0.04305936023592949, 0.0875273048877716, 0.2756098806858063], [0.07548815757036209, 0.01606146991252899, 0.03404466435313225, 0.06665104627609253, 0.05679531767964363, 0.09142441302537918, 0.034031882882118225, 0.04332511126995087, 0.016054455190896988, 0.04014242812991142, 0.05925450846552849, 0.03932832181453705, 0.08539517968893051, 0.01604645885527134, 0.05563221499323845, 0.03773179650306702, 0.06104115769267082, 0.016039028763771057, 0.03684306517243385, 0.05663729086518288, 0.0620320588350296], [0.015420823357999325, 0.1846810132265091, 0.05935417860746384, 0.049523744732141495, 0.011573261581361294, 0.006670958362519741, 0.0005461450782604516, 0.00927681289613247, 0.17746275663375854, 0.0024932054802775383, 0.041138287633657455, 0.027596676722168922, 0.007646698039025068, 0.1771063208580017, 0.003941916860640049, 0.00273869838565588, 0.007927746511995792, 0.17723405361175537, 0.0047109294682741165, 0.009557675570249557, 0.0233981404453516], [0.01210862584412098, 0.008055916987359524, 0.2738412320613861, 0.2632550001144409, 0.05407130345702171, 0.004234533756971359, 0.0007218625978566706, 0.016031229868531227, 0.007791753392666578, 0.0017518701497465372, 0.07708984613418579, 0.1461922526359558, 0.03711776062846184, 0.007775474805384874, 0.007598884869366884, 0.006291684228926897, 0.026211988180875778, 0.00777757354080677, 0.0028510671108961105, 0.011079971678555012, 0.028150184080004692], [0.004356761928647757, 0.2032046914100647, 0.030761616304516792, 0.08492011576890945, 0.02470860816538334, 0.0010596731444820762, 0.0002748836122918874, 0.0072411480359733105, 0.19525377452373505, 0.0002209215163020417, 0.023999108001589775, 0.018316522240638733, 0.00472610630095005, 0.19460341334342957, 0.0014048280427232385, 0.001294345478527248, 0.0022951019927859306, 0.19494882225990295, 0.0003207890840712935, 0.0015752364415675402, 0.004513544496148825], [0.0035149280447512865, 0.23544903099536896, 0.0021404833532869816, 0.0020046622958034277, 0.0011196148116141558, 0.01966720260679722, 0.006947644520550966, 0.02003687620162964, 0.23060862720012665, 0.001552083995193243, 0.0013206977164372802, 0.0012783451238647103, 0.0009497752762399614, 0.23077285289764404, 0.0018018496921285987, 0.002283710055053234, 0.003689730539917946, 0.23091837763786316, 0.0008646824862807989, 0.0017328393878415227, 0.0013460386544466019], [0.026377398520708084, 0.12473410367965698, 0.028843382373452187, 0.00758108077570796, 0.009319481439888477, 0.25867965817451477, 0.011185334995388985, 0.03247223049402237, 0.12177366763353348, 0.03225300461053848, 0.0193162988871336, 0.012162581086158752, 0.008873872458934784, 0.12175378203392029, 0.016430381685495377, 0.003346939105540514, 0.009493784978985786, 0.12177985161542892, 0.00571772875264287, 0.012588294222950935, 0.015317092649638653], [0.01941324956715107, 0.1289958357810974, 0.0059447865933179855, 0.009660843759775162, 0.006652739364653826, 0.3155241012573242, 0.007460770197212696, 0.07625812292098999, 0.12499187886714935, 0.010574137791991234, 0.0071804095059633255, 0.0033353709150105715, 0.006424659863114357, 0.12499075382947922, 0.0057940552942454815, 0.002930349437519908, 0.004715106450021267, 0.12495236843824387, 0.0010633299825713038, 0.006566014606505632, 0.006571118254214525], [0.0753018781542778, 0.016527317464351654, 0.03378032520413399, 0.06587713211774826, 0.05733847618103027, 0.09156251698732376, 0.03387758880853653, 0.043513402342796326, 0.016521716490387917, 0.040327489376068115, 0.05922774225473404, 0.03882356360554695, 0.08573275804519653, 0.016513407230377197, 0.05520272254943848, 0.03760655224323273, 0.06087525188922882, 0.016505688428878784, 0.0365743413567543, 0.05636347085237503, 0.0619465596973896], [0.022396065294742584, 0.1160922572016716, 0.02190230041742325, 0.014634677208960056, 0.03421543538570404, 0.10254516452550888, 0.05972427874803543, 0.10546516627073288, 0.11271484196186066, 0.0810406431555748, 0.01369613315910101, 0.006521185860037804, 0.009584806859493256, 0.11257865279912949, 0.008573071099817753, 0.005194677039980888, 0.009951606392860413, 0.11257178336381912, 0.008512688800692558, 0.013644058257341385, 0.028440503403544426], [0.03395926207304001, 0.0006603594520129263, 0.06373672932386398, 0.33136820793151855, 0.01704997755587101, 0.013828273862600327, 0.004008687566965818, 0.025055892765522003, 0.000641927239485085, 0.01231144368648529, 0.03479710593819618, 0.12435975670814514, 0.06707344949245453, 0.0006436497787944973, 0.02679908089339733, 0.014417797327041626, 0.044199198484420776, 0.0006433733506128192, 0.025805233046412468, 0.05093906447291374, 0.10770151019096375], [0.011616100557148457, 0.15935951471328735, 0.038196224719285965, 0.037378013134002686, 0.003996069077402353, 0.0035396155435591936, 0.0002592489472590387, 0.008857752196490765, 0.15369679033756256, 0.0016478544566780329, 0.06238067150115967, 0.10101629048585892, 0.025735268369317055, 0.15365122258663177, 0.008390129543840885, 0.004421996884047985, 0.022755475714802742, 0.15366359055042267, 0.0053788707591593266, 0.014950594864785671, 0.029108796268701553], [0.0038723372854292393, 0.21916788816452026, 0.009889875538647175, 0.018101569265127182, 0.003206613240763545, 0.0002358807105338201, 5.6247390602948144e-05, 0.001881134114228189, 0.2112099528312683, 0.00016314782260451466, 0.030575528740882874, 0.0377153605222702, 0.015332533977925777, 0.21124832332134247, 0.0032738863956183195, 0.00171799270901829, 0.005447052419185638, 0.21136309206485748, 0.0008368297712877393, 0.003861900418996811, 0.010842868126928806], [0.07539528608322144, 0.016536517068743706, 0.03373536467552185, 0.06578001379966736, 0.05733709782361984, 0.09145687520503998, 0.03372970595955849, 0.04348912090063095, 0.01653100736439228, 0.040180087089538574, 0.05921819433569908, 0.038818445056676865, 0.08590243756771088, 0.01652275212109089, 0.05521755665540695, 0.03769166022539139, 0.06097276881337166, 0.016515037044882774, 0.0365750752389431, 0.056402288377285004, 0.06199273467063904], [0.06320535391569138, 0.0165865421295166, 0.014184342697262764, 0.02789022959768772, 0.005909535568207502, 0.015220017172396183, 0.002719562267884612, 0.034434590488672256, 0.01628558523952961, 0.00233595073223114, 0.03588820993900299, 0.03781617805361748, 0.0522477850317955, 0.016327686607837677, 0.1033354252576828, 0.10364104807376862, 0.1900710016489029, 0.016334710642695427, 0.04163525998592377, 0.1416274607181549, 0.062303557991981506], [0.038223281502723694, 0.15163648128509521, 0.005399772431701422, 0.009025074541568756, 0.0019126636907458305, 0.029522983357310295, 0.00025729555636644363, 0.02231028862297535, 0.14754508435726166, 0.0011573471128940582, 0.01088595949113369, 0.007187108043581247, 0.020126191899180412, 0.14794304966926575, 0.05300728231668472, 0.03867794945836067, 0.08709461987018585, 0.14800266921520233, 0.007865101099014282, 0.04371442273259163, 0.028505457565188408], [0.04466569051146507, 0.08203616738319397, 0.0135343661531806, 0.038993049412965775, 0.00877396110445261, 0.051591262221336365, 0.0008714781142771244, 0.02483087219297886, 0.08004043996334076, 0.004909828770905733, 0.041898731142282486, 0.024170037358999252, 0.04941732808947563, 0.08009114116430283, 0.13444998860359192, 0.057529889047145844, 0.0691959485411644, 0.08007892221212387, 0.010619085282087326, 0.06181740388274193, 0.040484435856342316], [0.07536057382822037, 0.01652604155242443, 0.03373521938920021, 0.06579317152500153, 0.057384032756090164, 0.09151045978069305, 0.033754173666238785, 0.04351969063282013, 0.016520576551556587, 0.04022086411714554, 0.05918734520673752, 0.038795679807662964, 0.08586779236793518, 0.016512298956513405, 0.055196475237607956, 0.037682272493839264, 0.06096823140978813, 0.01650458760559559, 0.036573559045791626, 0.05640125647187233, 0.06198570877313614], [0.05111214891076088, 0.04135232791304588, 0.021895520389080048, 0.020972002297639847, 0.00796275120228529, 0.017837150022387505, 0.0054154833778738976, 0.03896975517272949, 0.04019681736826897, 0.01604294963181019, 0.03950246050953865, 0.0334940105676651, 0.02997497096657753, 0.04018595442175865, 0.1339167058467865, 0.10742282122373581, 0.08016357570886612, 0.040182702243328094, 0.0648895800113678, 0.06872472167015076, 0.09978553652763367], [0.020065760239958763, 0.17920160293579102, 0.00578466197475791, 0.008534827269613743, 0.0027100250590592623, 0.00904097966849804, 0.0011922199046239257, 0.01893814094364643, 0.17376013100147247, 0.004189587198197842, 0.016519911587238312, 0.0074220686219632626, 0.01199977844953537, 0.17376983165740967, 0.05611482635140419, 0.03004179708659649, 0.028039706870913506, 0.1737641990184784, 0.011019999161362648, 0.0424126461148262, 0.025477275252342224], [0.041973553597927094, 0.09881595522165298, 0.04178258031606674, 0.06734061241149902, 0.011672732420265675, 0.017812853679060936, 0.002894086530432105, 0.024549230933189392, 0.09613648802042007, 0.013124116696417332, 0.04519074410200119, 0.06587566435337067, 0.03780397027730942, 0.09618055075407028, 0.03492503985762596, 0.01784241758286953, 0.03571488335728645, 0.09621313959360123, 0.02591470070183277, 0.0503956638276577, 0.07784098386764526]], [[0.1632193624973297, 0.018076051026582718, 0.021997053176164627, 0.006619287189096212, 0.020123209804296494, 0.03907296061515808, 0.005957723129540682, 0.0686679482460022, 0.018054312095046043, 0.08152279257774353, 0.009447441436350346, 0.010783503763377666, 0.014582548290491104, 0.018075982108712196, 0.0867852196097374, 0.048900194466114044, 0.10030985623598099, 0.01806417852640152, 0.08151078224182129, 0.12730753421783447, 0.04092203080654144], [0.049602776765823364, 0.00992518663406372, 0.04349174350500107, 0.030536415055394173, 0.07371089607477188, 0.04025663435459137, 0.025030560791492462, 0.14727237820625305, 0.009824635460972786, 0.021260438486933708, 0.038004837930202484, 0.04099239781498909, 0.07108688354492188, 0.009827518835663795, 0.04646328091621399, 0.03570278361439705, 0.12744997441768646, 0.009824422188103199, 0.01851569302380085, 0.0467512309551239, 0.10446930676698685], [0.017157182097434998, 0.17422114312648773, 0.07502235472202301, 0.019161712378263474, 0.015179571695625782, 0.011981070972979069, 0.009606036357581615, 0.015683121979236603, 0.16963325440883636, 0.02517302893102169, 0.04032695293426514, 0.020221134647727013, 0.010938681662082672, 0.1691453605890274, 0.007402149029076099, 0.007685510441660881, 0.005468819290399551, 0.16918709874153137, 0.011419312097132206, 0.006932305637747049, 0.018454235047101974], [0.014660476706922054, 0.06559368222951889, 0.28189754486083984, 0.04095334932208061, 0.0586840882897377, 0.00782979279756546, 0.004989491309970617, 0.039046648889780045, 0.06375043094158173, 0.041646819561719894, 0.03659671172499657, 0.04430850222706795, 0.018077125772833824, 0.0637020394206047, 0.018062831833958626, 0.02075452357530594, 0.01424399483948946, 0.06372198462486267, 0.026639806106686592, 0.03473804146051407, 0.040102146565914154], [0.0041754343546926975, 0.07289750874042511, 0.0498633049428463, 0.39429807662963867, 0.11042844504117966, 0.005057747475802898, 0.0012482687598094344, 0.05404650792479515, 0.07066887617111206, 0.002697730204090476, 0.008781115524470806, 0.029287133365869522, 0.01621083728969097, 0.07045689970254898, 0.002245391719043255, 0.003400065004825592, 0.0051343319937586784, 0.07057885825634003, 0.00445636035874486, 0.008278115652501583, 0.0157889686524868], [0.00013432500418275595, 0.24550805985927582, 0.0002596453414298594, 0.0006990015972405672, 0.009055995382368565, 0.013081224635243416, 0.0005990477511659265, 0.0030295776668936014, 0.24099300801753998, 0.0005181303713470697, 0.000303653854643926, 0.00013309868518263102, 0.0018257932970300317, 0.24069155752658844, 0.0007459334447048604, 0.00014836693299002945, 0.0006117837619967759, 0.24097152054309845, 0.00011125663877464831, 0.00024078313435893506, 0.0003382543509360403], [0.00019467220408841968, 0.01029706560075283, 0.0006659469217993319, 0.00018975847342517227, 0.002413730137050152, 0.9370079040527344, 0.010600854642689228, 0.0026551668997853994, 0.00994966272264719, 0.0008895981009118259, 0.0003477386198937893, 0.0003072675899602473, 0.00048610675730742514, 0.009935321286320686, 0.002881246618926525, 0.000377440796000883, 0.00010496461618458852, 0.009938277304172516, 0.0001538916549179703, 0.00041417486499994993, 0.00018921562877949327], [0.0024582657497376204, 0.07893431186676025, 0.004492432344704866, 0.0025821253657341003, 0.0022009036038070917, 0.02163938246667385, 0.53061842918396, 0.03573957085609436, 0.07847437262535095, 0.019613074138760567, 0.0006656346959061921, 0.0021335326600819826, 0.0005442586843855679, 0.07832552492618561, 0.025611162185668945, 0.027118761092424393, 0.002472030697390437, 0.07842016965150833, 0.004289262928068638, 0.002339771715924144, 0.001326982514001429], [0.04925544187426567, 0.010023180395364761, 0.04329893738031387, 0.030685758218169212, 0.07418710738420486, 0.04040990024805069, 0.024830320850014687, 0.14686113595962524, 0.009922393597662449, 0.021302292123436928, 0.038497067987918854, 0.041061870753765106, 0.07122375816106796, 0.009925170801579952, 0.0464249812066555, 0.03573452681303024, 0.12736569344997406, 0.009922060184180737, 0.01847609132528305, 0.046606097370386124, 0.1039862185716629], [0.005464300513267517, 0.14505097270011902, 0.006763491313904524, 0.0020919274538755417, 0.017957746982574463, 0.08133592456579208, 0.05551822483539581, 0.050507813692092896, 0.14308199286460876, 0.11858750134706497, 0.01651936210691929, 0.0014547043247148395, 0.002422785386443138, 0.14267852902412415, 0.016368664801120758, 0.014123048633337021, 0.00886424258351326, 0.14289020001888275, 0.014384032227098942, 0.010360963642597198, 0.0035735396668314934], [0.012632114812731743, 0.07008762657642365, 0.026994433254003525, 0.004647867754101753, 0.03351471200585365, 0.0025672914925962687, 0.012255714274942875, 0.19322875142097473, 0.07024678587913513, 0.19405768811702728, 0.0013285441091284156, 0.008282006718218327, 0.023949960246682167, 0.07020604610443115, 0.03915810585021973, 0.02382837049663067, 0.07923942059278488, 0.07021085172891617, 0.015049759298563004, 0.01823062263429165, 0.030283305794000626], [0.03337165713310242, 0.1032881885766983, 0.05785099044442177, 0.01514875516295433, 0.007094573695212603, 0.00666799396276474, 0.006694653537124395, 0.02355336956679821, 0.10194716602563858, 0.043974850326776505, 0.16103509068489075, 0.06279676407575607, 0.025302374735474586, 0.10177910327911377, 0.03499476611614227, 0.03216758742928505, 0.02188573032617569, 0.10172544419765472, 0.021228117868304253, 0.013310834765434265, 0.024182075634598732], [0.008282910101115704, 0.08302327245473862, 0.08903393894433975, 0.01896696537733078, 0.017626123502850533, 0.0027969195507466793, 0.001789054716937244, 0.05828715115785599, 0.08153457194566727, 0.025550758466124535, 0.014697954058647156, 0.17334723472595215, 0.06325499713420868, 0.08151346445083618, 0.03684552386403084, 0.027927303686738014, 0.05977882072329521, 0.08154194056987762, 0.02110493928194046, 0.026205334812402725, 0.026890819892287254], [0.04923838749527931, 0.01004374772310257, 0.04331337660551071, 0.03062036819756031, 0.0741230919957161, 0.04045477882027626, 0.0248128492385149, 0.14644385874271393, 0.009942502714693546, 0.021275483071804047, 0.03857727721333504, 0.04113208130002022, 0.07135104387998581, 0.009945319034159184, 0.04652870073914528, 0.03578755632042885, 0.1273212432861328, 0.009942194446921349, 0.018499160185456276, 0.04661577567458153, 0.10403111577033997], [0.001506744883954525, 0.21419832110404968, 0.002993309870362282, 0.0006823505973443389, 0.008338836953043938, 0.04009276628494263, 0.00144079455640167, 0.008921664208173752, 0.21065618097782135, 0.003995161969214678, 0.007001528050750494, 0.003727222327142954, 0.022895609959959984, 0.2108580768108368, 0.03195589408278465, 0.004113479517400265, 0.008376427926123142, 0.21072931587696075, 0.0027791077736765146, 0.0023860321380198, 0.0023511333856731653], [0.0021694370079785585, 0.17913396656513214, 0.0015120599418878555, 0.0014025698183104396, 0.002481654053553939, 0.025904277339577675, 0.0039522782899439335, 0.0050552464090287685, 0.17742088437080383, 0.006189316511154175, 0.0011984271695837379, 0.0028307423926889896, 0.005484284833073616, 0.17774875462055206, 0.18608368933200836, 0.02354220114648342, 0.00580955995246768, 0.17761564254760742, 0.008210644125938416, 0.004088372923433781, 0.0021659350022673607], [0.004446563310921192, 0.03438505157828331, 0.008956954814493656, 0.0019218811066821218, 0.0023127379827201366, 0.0040938956663012505, 0.007646369282156229, 0.019832460209727287, 0.03413056582212448, 0.014391228556632996, 0.002293121302500367, 0.011030349880456924, 0.004794381093233824, 0.03414922207593918, 0.43808501958847046, 0.21201404929161072, 0.08043321222066879, 0.034127041697502136, 0.03816830739378929, 0.00808483175933361, 0.004702759440988302], [0.04921792820096016, 0.01002553477883339, 0.043338410556316376, 0.030609270557761192, 0.07414529472589493, 0.04047395661473274, 0.024795668199658394, 0.1463766247034073, 0.009924366138875484, 0.021288931369781494, 0.03857792168855667, 0.04113059863448143, 0.07131678611040115, 0.009927173145115376, 0.04651906341314316, 0.035794276744127274, 0.12732087075710297, 0.009924056008458138, 0.018528712913393974, 0.04665162041783333, 0.10411302000284195], [0.005798256956040859, 0.12780249118804932, 0.004906679503619671, 0.0013644968857988715, 0.004963725805282593, 0.01865326426923275, 0.003079112619161606, 0.007519448176026344, 0.1274145245552063, 0.017394939437508583, 0.008187668398022652, 0.004547969438135624, 0.0073579223826527596, 0.12744583189487457, 0.1383306384086609, 0.03141718730330467, 0.05229710415005684, 0.12736225128173828, 0.16271047294139862, 0.017810190096497536, 0.0036358607467263937], [0.007591004483401775, 0.07862847298383713, 0.008273343555629253, 0.0008877123473212123, 0.003419525921344757, 0.005872682668268681, 0.0045246221125125885, 0.011846581473946571, 0.07825745642185211, 0.046116217970848083, 0.006681469269096851, 0.005727097857743502, 0.00696555944159627, 0.078284852206707, 0.15272289514541626, 0.11205416172742844, 0.04933571070432663, 0.0782725140452385, 0.2202633172273636, 0.03734475374221802, 0.006930026691406965], [0.025903189554810524, 0.07402189821004868, 0.043009866029024124, 0.005041650030761957, 0.011508090421557426, 0.014940433204174042, 0.023760365322232246, 0.03965026140213013, 0.07381065934896469, 0.07798834890127182, 0.0073363687843084335, 0.021586824208498, 0.01072059664875269, 0.0738142654299736, 0.0779254138469696, 0.06526324152946472, 0.04118901118636131, 0.07381940633058548, 0.16600379347801208, 0.05272333696484566, 0.019982855767011642]]]], \"left_text\": [\"[CLS]\", \"\\u0627\\u0644+\", \"\\u062d\\u0642\", \"\\u0645\\u0634\", \"\\u0639\\u0644\\u0649\", \"\\u0644+\", \"\\u062c\\u0646\", \"+\\u0647\", \"\\u0627\\u0644+\", \"\\u062a\\u062d\\u0643\\u064a\\u0645\", \"\\u0627\\u0644+\", \"\\u062d\\u0642\", \"\\u0639\\u0644\\u0649\", \"\\u0627\\u0644+\", \"\\u0627\\u063a\\u0628\", \"##\\u064a\", \"##\\u0647\", \"\\u0627\\u0644+\", \"\\u0645\\u0634\\u062a\\u0631\\u0643\", \"+\\u064a\\u0646\", \"[SEP]\"], \"right_text\": [\"[CLS]\", \"\\u0627\\u0644+\", \"\\u062d\\u0642\", \"\\u0645\\u0634\", \"\\u0639\\u0644\\u0649\", \"\\u0644+\", \"\\u062c\\u0646\", \"+\\u0647\", \"\\u0627\\u0644+\", \"\\u062a\\u062d\\u0643\\u064a\\u0645\", \"\\u0627\\u0644+\", \"\\u062d\\u0642\", \"\\u0639\\u0644\\u0649\", \"\\u0627\\u0644+\", \"\\u0627\\u063a\\u0628\", \"##\\u064a\", \"##\\u0647\", \"\\u0627\\u0644+\", \"\\u0645\\u0634\\u062a\\u0631\\u0643\", \"+\\u064a\\u0646\", \"[SEP]\"]}}, \"default_filter\": \"all\"}" + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "display_data", + "data": { + "application/javascript": [ + "/**\n", + " * @fileoverview Transformer Visualization D3 javascript code.\n", + " *\n", + " *\n", + " * Based on: https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/visualization/attention.js\n", + " *\n", + " * Change log:\n", + " *\n", + " * 12/19/18 Jesse Vig Assorted cleanup. Changed orientation of attention matrices.\n", + " */\n", + "\n", + "requirejs(['jquery', 'd3'], function($, d3) {\n", + "\n", + "const TEXT_SIZE = 15;\n", + "const BOXWIDTH = 110;\n", + "const BOXHEIGHT = 22.5;\n", + "const MATRIX_WIDTH = 115;\n", + "const CHECKBOX_SIZE = 20;\n", + "const TEXT_TOP = 30;\n", + "const HEAD_COLORS = d3.scale.category10();\n", + "\n", + "var params = window.params;\n", + "var config = {};\n", + "initialize();\n", + "\n", + "function lighten(color) {\n", + " var c = d3.hsl(color);\n", + " var increment = (1 - c.l) * 0.6;\n", + " c.l += increment;\n", + " c.s -= increment;\n", + " return c;\n", + "}\n", + "\n", + "function transpose(mat) {\n", + " return mat[0].map(function(col, i) {\n", + " return mat.map(function(row) {\n", + " return row[i];\n", + " });\n", + " });\n", + "}\n", + "\n", + "function zip(a, b) {\n", + " return a.map(function (e, i) {\n", + " return [e, b[i]];\n", + " });\n", + "}\n", + "\n", + "function render() {\n", + "\n", + " var attnData = config.attention[config.filter];\n", + " var leftText = attnData.left_text;\n", + " var rightText = attnData.right_text;\n", + " var attentionHeads = attnData.attn[config.layer];\n", + "\n", + " $(\"#vis svg\").empty();\n", + " $(\"#vis\").empty();\n", + "\n", + " var height = config.initialTextLength * BOXHEIGHT + TEXT_TOP;\n", + " var svg = d3.select(\"#vis\")\n", + " .append('svg')\n", + " .attr(\"width\", \"100%\")\n", + " .attr(\"height\", height + \"px\");\n", + "\n", + " var attData = [];\n", + " for (var i=0; i < config.nHeads; i++) {\n", + " var att = attentionHeads[i];\n", + " var att_trans = transpose(att);\n", + " attData.push(zip(att_trans, att));\n", + " }\n", + "\n", + " renderText(svg, leftText, true, attData, 0);\n", + " renderText(svg, rightText, false, attData, MATRIX_WIDTH + BOXWIDTH);\n", + "\n", + " renderAttentionHighlights(svg, attData);\n", + "\n", + " svg.append(\"g\").classed(\"attentionHeads\", true);\n", + "\n", + " renderAttention(svg, attentionHeads);\n", + "\n", + " drawCheckboxes(0, svg, attentionHeads);\n", + "\n", + "}\n", + "\n", + "function renderText(svg, text, isLeft, attData, leftPos) {\n", + " // attData: list of tuples (att, att_trans), one for each layer. att and att_trans are attention matrics for each layer.\n", + " // att is of shape [nHeads, source_len, target_len)\n", + " var id = isLeft ? \"left\" : \"right\";\n", + " var textContainer = svg.append(\"svg:g\")\n", + " .attr(\"id\", id);\n", + "\n", + " textContainer.append(\"g\").classed(\"attentionBoxes\", true)\n", + " .selectAll(\"g\")\n", + " .data(attData)\n", + " .enter()\n", + " .append(\"g\")\n", + " .selectAll(\"rect\")\n", + " .data(function(d) {return d;})\n", + " .enter()\n", + " .append(\"rect\")\n", + " .attr(\"x\", function(d, i, j) {\n", + " return leftPos + boxOffsets(j);\n", + " })\n", + " .attr(\"y\", function(d, i) {\n", + " return (+1) * BOXHEIGHT;\n", + " })\n", + " .attr(\"width\", BOXWIDTH / activeHeads())\n", + " .attr(\"height\", function() { return BOXHEIGHT; })\n", + " .attr(\"fill\", function(d, i, j) {\n", + " return HEAD_COLORS(j);\n", + " })\n", + " .style(\"opacity\", 0.0);\n", + "\n", + " var tokenContainer = textContainer.append(\"g\").selectAll(\"g\")\n", + " .data(text)\n", + " .enter()\n", + " .append(\"g\");\n", + "\n", + " tokenContainer.append(\"rect\")\n", + " .classed(\"background\", true)\n", + " .style(\"opacity\", 0.0)\n", + " .attr(\"fill\", \"lightgray\")\n", + " .attr(\"x\", leftPos)\n", + " .attr(\"y\", function(d, i) {\n", + " return TEXT_TOP + i * BOXHEIGHT;\n", + " })\n", + " .attr(\"width\", BOXWIDTH)\n", + " .attr(\"height\", BOXHEIGHT);\n", + "\n", + " var textEl = tokenContainer.append(\"text\")\n", + " .text(function(d) { return d; })\n", + " .attr(\"font-size\", TEXT_SIZE + \"px\")\n", + " .style(\"cursor\", \"default\")\n", + " .style(\"-webkit-user-select\", \"none\")\n", + " .attr(\"x\", leftPos)\n", + " .attr(\"y\", function(d, i) {\n", + " return TEXT_TOP + i * BOXHEIGHT;\n", + " });\n", + "\n", + " if (isLeft) {\n", + " textEl.style(\"text-anchor\", \"end\")\n", + " .attr(\"dx\", BOXWIDTH - 0.5 * TEXT_SIZE)\n", + " .attr(\"dy\", TEXT_SIZE);\n", + " } else {\n", + " textEl.style(\"text-anchor\", \"start\")\n", + " .attr(\"dx\", + 0.5 * TEXT_SIZE)\n", + " .attr(\"dy\", TEXT_SIZE);\n", + " }\n", + "\n", + " tokenContainer.on(\"mouseover\", function(d, index) {\n", + " textContainer.selectAll(\".background\")\n", + " .style(\"opacity\", function(d, i) {\n", + " return i == index ? 1.0 : 0.0;\n", + " });\n", + "\n", + " svg.selectAll(\".attentionHeads\").style(\"display\", \"none\");\n", + "\n", + " svg.selectAll(\".lineHeads\") // To get the nesting to work.\n", + " .selectAll(\".attLines\")\n", + " .attr(\"stroke-opacity\", function(d) {\n", + " return 1.0;\n", + " })\n", + " .attr(\"y1\", function(d, i) {\n", + " if (isLeft) {\n", + " return TEXT_TOP + index * BOXHEIGHT + (BOXHEIGHT/2);\n", + " } else {\n", + " return TEXT_TOP + i * BOXHEIGHT + (BOXHEIGHT/2);\n", + " }\n", + " })\n", + " .attr(\"x1\", BOXWIDTH)\n", + " .attr(\"y2\", function(d, i) {\n", + " if (isLeft) {\n", + " return TEXT_TOP + i * BOXHEIGHT + (BOXHEIGHT/2);\n", + " } else {\n", + " return TEXT_TOP + index * BOXHEIGHT + (BOXHEIGHT/2);\n", + " }\n", + " })\n", + " .attr(\"x2\", BOXWIDTH + MATRIX_WIDTH)\n", + " .attr(\"stroke-width\", 2)\n", + " .attr(\"stroke\", function(d, i, j) {\n", + " return HEAD_COLORS(j);\n", + " })\n", + " .attr(\"stroke-opacity\", function(d, i, j) {\n", + " if (isLeft) {d = d[0];} else {d = d[1];}\n", + " if (config.headVis[j]) {\n", + " if (d) {\n", + " return d[index];\n", + " } else {\n", + " return 0.0;\n", + " }\n", + " } else {\n", + " return 0.0;\n", + " }\n", + " });\n", + "\n", + " function updateAttentionBoxes() {\n", + " var id = isLeft ? \"right\" : \"left\";\n", + " var leftPos = isLeft ? MATRIX_WIDTH + BOXWIDTH : 0;\n", + " svg.select(\"#\" + id)\n", + " .selectAll(\".attentionBoxes\")\n", + " .selectAll(\"g\")\n", + " .selectAll(\"rect\")\n", + " .attr(\"x\", function(d, i, j) { return leftPos + boxOffsets(j); })\n", + " .attr(\"y\", function(d, i) { return TEXT_TOP + i * BOXHEIGHT; })\n", + " .attr(\"width\", BOXWIDTH/activeHeads())\n", + " .attr(\"height\", function() { return BOXHEIGHT; })\n", + " .style(\"opacity\", function(d, i, j) {\n", + " if (isLeft) {d = d[0];} else {d = d[1];}\n", + " if (config.headVis[j])\n", + " if (d) {\n", + " return d[index];\n", + " } else {\n", + " return 0.0;\n", + " }\n", + " else\n", + " return 0.0;\n", + " });\n", + " }\n", + "\n", + " updateAttentionBoxes();\n", + " });\n", + "\n", + " textContainer.on(\"mouseleave\", function() {\n", + " d3.select(this).selectAll(\".background\")\n", + " .style(\"opacity\", 0.0);\n", + " svg.selectAll(\".attLines\").attr(\"stroke-opacity\", 0.0);\n", + " svg.selectAll(\".attentionHeads\").style(\"display\", \"inline\");\n", + " svg.selectAll(\".attentionBoxes\")\n", + " .selectAll(\"g\")\n", + " .selectAll(\"rect\")\n", + " .style(\"opacity\", 0.0);\n", + " });\n", + "}\n", + "\n", + "function renderAttentionHighlights(svg, attention) {\n", + " var line_container = svg.append(\"g\");\n", + " line_container.selectAll(\"g\")\n", + " .data(attention)\n", + " .enter()\n", + " .append(\"g\")\n", + " .classed(\"lineHeads\", true)\n", + " .selectAll(\"line\")\n", + " .data(function(d){return d;})\n", + " .enter()\n", + " .append(\"line\").classed(\"attLines\", true);\n", + "}\n", + "\n", + "function renderAttention(svg, attentionHeads) {\n", + " var line_container = svg.selectAll(\".attentionHeads\");\n", + " line_container.html(null);\n", + " for(var h=0; h\").val(i).text(i));\n", + "}\n", + "\n", + "$(\"#layer\").on('change', function(e) {\n", + " config.layer = +e.currentTarget.value;\n", + " render();\n", + "});\n", + "\n", + "$(\"#filter\").on('change', function(e) {\n", + " config.filter = e.currentTarget.value;\n", + " render();\n", + "});\n", + "\n", + "render();\n", + "\n", + "});" + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "5_oFDZYZ5x-r", + "colab_type": "code", + "colab": { + "resources": { + "http://localhost:8080/static/components/requirejs/require.js": { + "data": "/** vim: et:ts=4:sw=4:sts=4
 * @license RequireJS 2.1.22 Copyright (c) 2010-2015, The Dojo Foundation All Rights Reserved.
 * Available via the MIT or new BSD license.
 * see: http://github.com/jrburke/requirejs for details
 */
//Not using strict: uneven strict support in browsers, #392, and causes
//problems with requirejs.exec()/transpiler plugins that may not be strict.
/*jslint regexp: true, nomen: true, sloppy: true */
/*global window, navigator, document, importScripts, setTimeout, opera */

var requirejs, require, define;
(function (global) {
    var req, s, head, baseElement, dataMain, src,
        interactiveScript, currentlyAddingScript, mainScript, subPath,
        version = '2.1.22',
        commentRegExp = /(\/\*([\s\S]*?)\*\/|([^:]|^)\/\/(.*)$)/mg,
        cjsRequireRegExp = /[^.]\s*require\s*\(\s*["']([^'"\s]+)["']\s*\)/g,
        jsSuffixRegExp = /\.js$/,
        currDirRegExp = /^\.\//,
        op = Object.prototype,
        ostring = op.toString,
        hasOwn = op.hasOwnProperty,
        ap = Array.prototype,
        isBrowser = !!(typeof window !== 'undefined' && typeof navigator !== 'undefined' && window.document),
        isWebWorker = !isBrowser && typeof importScripts !== 'undefined',
        //PS3 indicates loaded and complete, but need to wait for complete
        //specifically. Sequence is 'loading', 'loaded', execution,
        // then 'complete'. The UA check is unfortunate, but not sure how
        //to feature test w/o causing perf issues.
        readyRegExp = isBrowser && navigator.platform === 'PLAYSTATION 3' ?
                      /^complete$/ : /^(complete|loaded)$/,
        defContextName = '_',
        //Oh the tragedy, detecting opera. See the usage of isOpera for reason.
        isOpera = typeof opera !== 'undefined' && opera.toString() === '[object Opera]',
        contexts = {},
        cfg = {},
        globalDefQueue = [],
        useInteractive = false;

    function isFunction(it) {
        return ostring.call(it) === '[object Function]';
    }

    function isArray(it) {
        return ostring.call(it) === '[object Array]';
    }

    /**
     * Helper function for iterating over an array. If the func returns
     * a true value, it will break out of the loop.
     */
    function each(ary, func) {
        if (ary) {
            var i;
            for (i = 0; i < ary.length; i += 1) {
                if (ary[i] && func(ary[i], i, ary)) {
                    break;
                }
            }
        }
    }

    /**
     * Helper function for iterating over an array backwards. If the func
     * returns a true value, it will break out of the loop.
     */
    function eachReverse(ary, func) {
        if (ary) {
            var i;
            for (i = ary.length - 1; i > -1; i -= 1) {
                if (ary[i] && func(ary[i], i, ary)) {
                    break;
                }
            }
        }
    }

    function hasProp(obj, prop) {
        return hasOwn.call(obj, prop);
    }

    function getOwn(obj, prop) {
        return hasProp(obj, prop) && obj[prop];
    }

    /**
     * Cycles over properties in an object and calls a function for each
     * property value. If the function returns a truthy value, then the
     * iteration is stopped.
     */
    function eachProp(obj, func) {
        var prop;
        for (prop in obj) {
            if (hasProp(obj, prop)) {
                if (func(obj[prop], prop)) {
                    break;
                }
            }
        }
    }

    /**
     * Simple function to mix in properties from source into target,
     * but only if target does not already have a property of the same name.
     */
    function mixin(target, source, force, deepStringMixin) {
        if (source) {
            eachProp(source, function (value, prop) {
                if (force || !hasProp(target, prop)) {
                    if (deepStringMixin && typeof value === 'object' && value &&
                        !isArray(value) && !isFunction(value) &&
                        !(value instanceof RegExp)) {

                        if (!target[prop]) {
                            target[prop] = {};
                        }
                        mixin(target[prop], value, force, deepStringMixin);
                    } else {
                        target[prop] = value;
                    }
                }
            });
        }
        return target;
    }

    //Similar to Function.prototype.bind, but the 'this' object is specified
    //first, since it is easier to read/figure out what 'this' will be.
    function bind(obj, fn) {
        return function () {
            return fn.apply(obj, arguments);
        };
    }

    function scripts() {
        return document.getElementsByTagName('script');
    }

    function defaultOnError(err) {
        throw err;
    }

    //Allow getting a global that is expressed in
    //dot notation, like 'a.b.c'.
    function getGlobal(value) {
        if (!value) {
            return value;
        }
        var g = global;
        each(value.split('.'), function (part) {
            g = g[part];
        });
        return g;
    }

    /**
     * Constructs an error with a pointer to an URL with more information.
     * @param {String} id the error ID that maps to an ID on a web page.
     * @param {String} message human readable error.
     * @param {Error} [err] the original error, if there is one.
     *
     * @returns {Error}
     */
    function makeError(id, msg, err, requireModules) {
        var e = new Error(msg + '\nhttp://requirejs.org/docs/errors.html#' + id);
        e.requireType = id;
        e.requireModules = requireModules;
        if (err) {
            e.originalError = err;
        }
        return e;
    }

    if (typeof define !== 'undefined') {
        //If a define is already in play via another AMD loader,
        //do not overwrite.
        return;
    }

    if (typeof requirejs !== 'undefined') {
        if (isFunction(requirejs)) {
            //Do not overwrite an existing requirejs instance.
            return;
        }
        cfg = requirejs;
        requirejs = undefined;
    }

    //Allow for a require config object
    if (typeof require !== 'undefined' && !isFunction(require)) {
        //assume it is a config object.
        cfg = require;
        require = undefined;
    }

    function newContext(contextName) {
        var inCheckLoaded, Module, context, handlers,
            checkLoadedTimeoutId,
            config = {
                //Defaults. Do not set a default for map
                //config to speed up normalize(), which
                //will run faster if there is no default.
                waitSeconds: 7,
                baseUrl: './',
                paths: {},
                bundles: {},
                pkgs: {},
                shim: {},
                config: {}
            },
            registry = {},
            //registry of just enabled modules, to speed
            //cycle breaking code when lots of modules
            //are registered, but not activated.
            enabledRegistry = {},
            undefEvents = {},
            defQueue = [],
            defined = {},
            urlFetched = {},
            bundlesMap = {},
            requireCounter = 1,
            unnormalizedCounter = 1;

        /**
         * Trims the . and .. from an array of path segments.
         * It will keep a leading path segment if a .. will become
         * the first path segment, to help with module name lookups,
         * which act like paths, but can be remapped. But the end result,
         * all paths that use this function should look normalized.
         * NOTE: this method MODIFIES the input array.
         * @param {Array} ary the array of path segments.
         */
        function trimDots(ary) {
            var i, part;
            for (i = 0; i < ary.length; i++) {
                part = ary[i];
                if (part === '.') {
                    ary.splice(i, 1);
                    i -= 1;
                } else if (part === '..') {
                    // If at the start, or previous value is still ..,
                    // keep them so that when converted to a path it may
                    // still work when converted to a path, even though
                    // as an ID it is less than ideal. In larger point
                    // releases, may be better to just kick out an error.
                    if (i === 0 || (i === 1 && ary[2] === '..') || ary[i - 1] === '..') {
                        continue;
                    } else if (i > 0) {
                        ary.splice(i - 1, 2);
                        i -= 2;
                    }
                }
            }
        }

        /**
         * Given a relative module name, like ./something, normalize it to
         * a real name that can be mapped to a path.
         * @param {String} name the relative name
         * @param {String} baseName a real name that the name arg is relative
         * to.
         * @param {Boolean} applyMap apply the map config to the value. Should
         * only be done if this normalization is for a dependency ID.
         * @returns {String} normalized name
         */
        function normalize(name, baseName, applyMap) {
            var pkgMain, mapValue, nameParts, i, j, nameSegment, lastIndex,
                foundMap, foundI, foundStarMap, starI, normalizedBaseParts,
                baseParts = (baseName && baseName.split('/')),
                map = config.map,
                starMap = map && map['*'];

            //Adjust any relative paths.
            if (name) {
                name = name.split('/');
                lastIndex = name.length - 1;

                // If wanting node ID compatibility, strip .js from end
                // of IDs. Have to do this here, and not in nameToUrl
                // because node allows either .js or non .js to map
                // to same file.
                if (config.nodeIdCompat && jsSuffixRegExp.test(name[lastIndex])) {
                    name[lastIndex] = name[lastIndex].replace(jsSuffixRegExp, '');
                }

                // Starts with a '.' so need the baseName
                if (name[0].charAt(0) === '.' && baseParts) {
                    //Convert baseName to array, and lop off the last part,
                    //so that . matches that 'directory' and not name of the baseName's
                    //module. For instance, baseName of 'one/two/three', maps to
                    //'one/two/three.js', but we want the directory, 'one/two' for
                    //this normalization.
                    normalizedBaseParts = baseParts.slice(0, baseParts.length - 1);
                    name = normalizedBaseParts.concat(name);
                }

                trimDots(name);
                name = name.join('/');
            }

            //Apply map config if available.
            if (applyMap && map && (baseParts || starMap)) {
                nameParts = name.split('/');

                outerLoop: for (i = nameParts.length; i > 0; i -= 1) {
                    nameSegment = nameParts.slice(0, i).join('/');

                    if (baseParts) {
                        //Find the longest baseName segment match in the config.
                        //So, do joins on the biggest to smallest lengths of baseParts.
                        for (j = baseParts.length; j > 0; j -= 1) {
                            mapValue = getOwn(map, baseParts.slice(0, j).join('/'));

                            //baseName segment has config, find if it has one for
                            //this name.
                            if (mapValue) {
                                mapValue = getOwn(mapValue, nameSegment);
                                if (mapValue) {
                                    //Match, update name to the new value.
                                    foundMap = mapValue;
                                    foundI = i;
                                    break outerLoop;
                                }
                            }
                        }
                    }

                    //Check for a star map match, but just hold on to it,
                    //if there is a shorter segment match later in a matching
                    //config, then favor over this star map.
                    if (!foundStarMap && starMap && getOwn(starMap, nameSegment)) {
                        foundStarMap = getOwn(starMap, nameSegment);
                        starI = i;
                    }
                }

                if (!foundMap && foundStarMap) {
                    foundMap = foundStarMap;
                    foundI = starI;
                }

                if (foundMap) {
                    nameParts.splice(0, foundI, foundMap);
                    name = nameParts.join('/');
                }
            }

            // If the name points to a package's name, use
            // the package main instead.
            pkgMain = getOwn(config.pkgs, name);

            return pkgMain ? pkgMain : name;
        }

        function removeScript(name) {
            if (isBrowser) {
                each(scripts(), function (scriptNode) {
                    if (scriptNode.getAttribute('data-requiremodule') === name &&
                            scriptNode.getAttribute('data-requirecontext') === context.contextName) {
                        scriptNode.parentNode.removeChild(scriptNode);
                        return true;
                    }
                });
            }
        }

        function hasPathFallback(id) {
            var pathConfig = getOwn(config.paths, id);
            if (pathConfig && isArray(pathConfig) && pathConfig.length > 1) {
                //Pop off the first array value, since it failed, and
                //retry
                pathConfig.shift();
                context.require.undef(id);

                //Custom require that does not do map translation, since
                //ID is "absolute", already mapped/resolved.
                context.makeRequire(null, {
                    skipMap: true
                })([id]);

                return true;
            }
        }

        //Turns a plugin!resource to [plugin, resource]
        //with the plugin being undefined if the name
        //did not have a plugin prefix.
        function splitPrefix(name) {
            var prefix,
                index = name ? name.indexOf('!') : -1;
            if (index > -1) {
                prefix = name.substring(0, index);
                name = name.substring(index + 1, name.length);
            }
            return [prefix, name];
        }

        /**
         * Creates a module mapping that includes plugin prefix, module
         * name, and path. If parentModuleMap is provided it will
         * also normalize the name via require.normalize()
         *
         * @param {String} name the module name
         * @param {String} [parentModuleMap] parent module map
         * for the module name, used to resolve relative names.
         * @param {Boolean} isNormalized: is the ID already normalized.
         * This is true if this call is done for a define() module ID.
         * @param {Boolean} applyMap: apply the map config to the ID.
         * Should only be true if this map is for a dependency.
         *
         * @returns {Object}
         */
        function makeModuleMap(name, parentModuleMap, isNormalized, applyMap) {
            var url, pluginModule, suffix, nameParts,
                prefix = null,
                parentName = parentModuleMap ? parentModuleMap.name : null,
                originalName = name,
                isDefine = true,
                normalizedName = '';

            //If no name, then it means it is a require call, generate an
            //internal name.
            if (!name) {
                isDefine = false;
                name = '_@r' + (requireCounter += 1);
            }

            nameParts = splitPrefix(name);
            prefix = nameParts[0];
            name = nameParts[1];

            if (prefix) {
                prefix = normalize(prefix, parentName, applyMap);
                pluginModule = getOwn(defined, prefix);
            }

            //Account for relative paths if there is a base name.
            if (name) {
                if (prefix) {
                    if (pluginModule && pluginModule.normalize) {
                        //Plugin is loaded, use its normalize method.
                        normalizedName = pluginModule.normalize(name, function (name) {
                            return normalize(name, parentName, applyMap);
                        });
                    } else {
                        // If nested plugin references, then do not try to
                        // normalize, as it will not normalize correctly. This
                        // places a restriction on resourceIds, and the longer
                        // term solution is not to normalize until plugins are
                        // loaded and all normalizations to allow for async
                        // loading of a loader plugin. But for now, fixes the
                        // common uses. Details in #1131
                        normalizedName = name.indexOf('!') === -1 ?
                                         normalize(name, parentName, applyMap) :
                                         name;
                    }
                } else {
                    //A regular module.
                    normalizedName = normalize(name, parentName, applyMap);

                    //Normalized name may be a plugin ID due to map config
                    //application in normalize. The map config values must
                    //already be normalized, so do not need to redo that part.
                    nameParts = splitPrefix(normalizedName);
                    prefix = nameParts[0];
                    normalizedName = nameParts[1];
                    isNormalized = true;

                    url = context.nameToUrl(normalizedName);
                }
            }

            //If the id is a plugin id that cannot be determined if it needs
            //normalization, stamp it with a unique ID so two matching relative
            //ids that may conflict can be separate.
            suffix = prefix && !pluginModule && !isNormalized ?
                     '_unnormalized' + (unnormalizedCounter += 1) :
                     '';

            return {
                prefix: prefix,
                name: normalizedName,
                parentMap: parentModuleMap,
                unnormalized: !!suffix,
                url: url,
                originalName: originalName,
                isDefine: isDefine,
                id: (prefix ?
                        prefix + '!' + normalizedName :
                        normalizedName) + suffix
            };
        }

        function getModule(depMap) {
            var id = depMap.id,
                mod = getOwn(registry, id);

            if (!mod) {
                mod = registry[id] = new context.Module(depMap);
            }

            return mod;
        }

        function on(depMap, name, fn) {
            var id = depMap.id,
                mod = getOwn(registry, id);

            if (hasProp(defined, id) &&
                    (!mod || mod.defineEmitComplete)) {
                if (name === 'defined') {
                    fn(defined[id]);
                }
            } else {
                mod = getModule(depMap);
                if (mod.error && name === 'error') {
                    fn(mod.error);
                } else {
                    mod.on(name, fn);
                }
            }
        }

        function onError(err, errback) {
            var ids = err.requireModules,
                notified = false;

            if (errback) {
                errback(err);
            } else {
                each(ids, function (id) {
                    var mod = getOwn(registry, id);
                    if (mod) {
                        //Set error on module, so it skips timeout checks.
                        mod.error = err;
                        if (mod.events.error) {
                            notified = true;
                            mod.emit('error', err);
                        }
                    }
                });

                if (!notified) {
                    req.onError(err);
                }
            }
        }

        /**
         * Internal method to transfer globalQueue items to this context's
         * defQueue.
         */
        function takeGlobalQueue() {
            //Push all the globalDefQueue items into the context's defQueue
            if (globalDefQueue.length) {
                each(globalDefQueue, function(queueItem) {
                    var id = queueItem[0];
                    if (typeof id === 'string') {
                        context.defQueueMap[id] = true;
                    }
                    defQueue.push(queueItem);
                });
                globalDefQueue = [];
            }
        }

        handlers = {
            'require': function (mod) {
                if (mod.require) {
                    return mod.require;
                } else {
                    return (mod.require = context.makeRequire(mod.map));
                }
            },
            'exports': function (mod) {
                mod.usingExports = true;
                if (mod.map.isDefine) {
                    if (mod.exports) {
                        return (defined[mod.map.id] = mod.exports);
                    } else {
                        return (mod.exports = defined[mod.map.id] = {});
                    }
                }
            },
            'module': function (mod) {
                if (mod.module) {
                    return mod.module;
                } else {
                    return (mod.module = {
                        id: mod.map.id,
                        uri: mod.map.url,
                        config: function () {
                            return getOwn(config.config, mod.map.id) || {};
                        },
                        exports: mod.exports || (mod.exports = {})
                    });
                }
            }
        };

        function cleanRegistry(id) {
            //Clean up machinery used for waiting modules.
            delete registry[id];
            delete enabledRegistry[id];
        }

        function breakCycle(mod, traced, processed) {
            var id = mod.map.id;

            if (mod.error) {
                mod.emit('error', mod.error);
            } else {
                traced[id] = true;
                each(mod.depMaps, function (depMap, i) {
                    var depId = depMap.id,
                        dep = getOwn(registry, depId);

                    //Only force things that have not completed
                    //being defined, so still in the registry,
                    //and only if it has not been matched up
                    //in the module already.
                    if (dep && !mod.depMatched[i] && !processed[depId]) {
                        if (getOwn(traced, depId)) {
                            mod.defineDep(i, defined[depId]);
                            mod.check(); //pass false?
                        } else {
                            breakCycle(dep, traced, processed);
                        }
                    }
                });
                processed[id] = true;
            }
        }

        function checkLoaded() {
            var err, usingPathFallback,
                waitInterval = config.waitSeconds * 1000,
                //It is possible to disable the wait interval by using waitSeconds of 0.
                expired = waitInterval && (context.startTime + waitInterval) < new Date().getTime(),
                noLoads = [],
                reqCalls = [],
                stillLoading = false,
                needCycleCheck = true;

            //Do not bother if this call was a result of a cycle break.
            if (inCheckLoaded) {
                return;
            }

            inCheckLoaded = true;

            //Figure out the state of all the modules.
            eachProp(enabledRegistry, function (mod) {
                var map = mod.map,
                    modId = map.id;

                //Skip things that are not enabled or in error state.
                if (!mod.enabled) {
                    return;
                }

                if (!map.isDefine) {
                    reqCalls.push(mod);
                }

                if (!mod.error) {
                    //If the module should be executed, and it has not
                    //been inited and time is up, remember it.
                    if (!mod.inited && expired) {
                        if (hasPathFallback(modId)) {
                            usingPathFallback = true;
                            stillLoading = true;
                        } else {
                            noLoads.push(modId);
                            removeScript(modId);
                        }
                    } else if (!mod.inited && mod.fetched && map.isDefine) {
                        stillLoading = true;
                        if (!map.prefix) {
                            //No reason to keep looking for unfinished
                            //loading. If the only stillLoading is a
                            //plugin resource though, keep going,
                            //because it may be that a plugin resource
                            //is waiting on a non-plugin cycle.
                            return (needCycleCheck = false);
                        }
                    }
                }
            });

            if (expired && noLoads.length) {
                //If wait time expired, throw error of unloaded modules.
                err = makeError('timeout', 'Load timeout for modules: ' + noLoads, null, noLoads);
                err.contextName = context.contextName;
                return onError(err);
            }

            //Not expired, check for a cycle.
            if (needCycleCheck) {
                each(reqCalls, function (mod) {
                    breakCycle(mod, {}, {});
                });
            }

            //If still waiting on loads, and the waiting load is something
            //other than a plugin resource, or there are still outstanding
            //scripts, then just try back later.
            if ((!expired || usingPathFallback) && stillLoading) {
                //Something is still waiting to load. Wait for it, but only
                //if a timeout is not already in effect.
                if ((isBrowser || isWebWorker) && !checkLoadedTimeoutId) {
                    checkLoadedTimeoutId = setTimeout(function () {
                        checkLoadedTimeoutId = 0;
                        checkLoaded();
                    }, 50);
                }
            }

            inCheckLoaded = false;
        }

        Module = function (map) {
            this.events = getOwn(undefEvents, map.id) || {};
            this.map = map;
            this.shim = getOwn(config.shim, map.id);
            this.depExports = [];
            this.depMaps = [];
            this.depMatched = [];
            this.pluginMaps = {};
            this.depCount = 0;

            /* this.exports this.factory
               this.depMaps = [],
               this.enabled, this.fetched
            */
        };

        Module.prototype = {
            init: function (depMaps, factory, errback, options) {
                options = options || {};

                //Do not do more inits if already done. Can happen if there
                //are multiple define calls for the same module. That is not
                //a normal, common case, but it is also not unexpected.
                if (this.inited) {
                    return;
                }

                this.factory = factory;

                if (errback) {
                    //Register for errors on this module.
                    this.on('error', errback);
                } else if (this.events.error) {
                    //If no errback already, but there are error listeners
                    //on this module, set up an errback to pass to the deps.
                    errback = bind(this, function (err) {
                        this.emit('error', err);
                    });
                }

                //Do a copy of the dependency array, so that
                //source inputs are not modified. For example
                //"shim" deps are passed in here directly, and
                //doing a direct modification of the depMaps array
                //would affect that config.
                this.depMaps = depMaps && depMaps.slice(0);

                this.errback = errback;

                //Indicate this module has be initialized
                this.inited = true;

                this.ignore = options.ignore;

                //Could have option to init this module in enabled mode,
                //or could have been previously marked as enabled. However,
                //the dependencies are not known until init is called. So
                //if enabled previously, now trigger dependencies as enabled.
                if (options.enabled || this.enabled) {
                    //Enable this module and dependencies.
                    //Will call this.check()
                    this.enable();
                } else {
                    this.check();
                }
            },

            defineDep: function (i, depExports) {
                //Because of cycles, defined callback for a given
                //export can be called more than once.
                if (!this.depMatched[i]) {
                    this.depMatched[i] = true;
                    this.depCount -= 1;
                    this.depExports[i] = depExports;
                }
            },

            fetch: function () {
                if (this.fetched) {
                    return;
                }
                this.fetched = true;

                context.startTime = (new Date()).getTime();

                var map = this.map;

                //If the manager is for a plugin managed resource,
                //ask the plugin to load it now.
                if (this.shim) {
                    context.makeRequire(this.map, {
                        enableBuildCallback: true
                    })(this.shim.deps || [], bind(this, function () {
                        return map.prefix ? this.callPlugin() : this.load();
                    }));
                } else {
                    //Regular dependency.
                    return map.prefix ? this.callPlugin() : this.load();
                }
            },

            load: function () {
                var url = this.map.url;

                //Regular dependency.
                if (!urlFetched[url]) {
                    urlFetched[url] = true;
                    context.load(this.map.id, url);
                }
            },

            /**
             * Checks if the module is ready to define itself, and if so,
             * define it.
             */
            check: function () {
                if (!this.enabled || this.enabling) {
                    return;
                }

                var err, cjsModule,
                    id = this.map.id,
                    depExports = this.depExports,
                    exports = this.exports,
                    factory = this.factory;

                if (!this.inited) {
                    // Only fetch if not already in the defQueue.
                    if (!hasProp(context.defQueueMap, id)) {
                        this.fetch();
                    }
                } else if (this.error) {
                    this.emit('error', this.error);
                } else if (!this.defining) {
                    //The factory could trigger another require call
                    //that would result in checking this module to
                    //define itself again. If already in the process
                    //of doing that, skip this work.
                    this.defining = true;

                    if (this.depCount < 1 && !this.defined) {
                        if (isFunction(factory)) {
                            try {
                                exports = context.execCb(id, factory, depExports, exports);
                            } catch (e) {
                                err = e;
                            }

                            // Favor return value over exports. If node/cjs in play,
                            // then will not have a return value anyway. Favor
                            // module.exports assignment over exports object.
                            if (this.map.isDefine && exports === undefined) {
                                cjsModule = this.module;
                                if (cjsModule) {
                                    exports = cjsModule.exports;
                                } else if (this.usingExports) {
                                    //exports already set the defined value.
                                    exports = this.exports;
                                }
                            }

                            if (err) {
                                // If there is an error listener, favor passing
                                // to that instead of throwing an error. However,
                                // only do it for define()'d  modules. require
                                // errbacks should not be called for failures in
                                // their callbacks (#699). However if a global
                                // onError is set, use that.
                                if ((this.events.error && this.map.isDefine) ||
                                    req.onError !== defaultOnError) {
                                    err.requireMap = this.map;
                                    err.requireModules = this.map.isDefine ? [this.map.id] : null;
                                    err.requireType = this.map.isDefine ? 'define' : 'require';
                                    return onError((this.error = err));
                                } else if (typeof console !== 'undefined' &&
                                           console.error) {
                                    // Log the error for debugging. If promises could be
                                    // used, this would be different, but making do.
                                    console.error(err);
                                } else {
                                    // Do not want to completely lose the error. While this
                                    // will mess up processing and lead to similar results
                                    // as bug 1440, it at least surfaces the error.
                                    req.onError(err);
                                }
                            }
                        } else {
                            //Just a literal value
                            exports = factory;
                        }

                        this.exports = exports;

                        if (this.map.isDefine && !this.ignore) {
                            defined[id] = exports;

                            if (req.onResourceLoad) {
                                var resLoadMaps = [];
                                each(this.depMaps, function (depMap) {
                                    resLoadMaps.push(depMap.normalizedMap || depMap);
                                });
                                req.onResourceLoad(context, this.map, resLoadMaps);
                            }
                        }

                        //Clean up
                        cleanRegistry(id);

                        this.defined = true;
                    }

                    //Finished the define stage. Allow calling check again
                    //to allow define notifications below in the case of a
                    //cycle.
                    this.defining = false;

                    if (this.defined && !this.defineEmitted) {
                        this.defineEmitted = true;
                        this.emit('defined', this.exports);
                        this.defineEmitComplete = true;
                    }

                }
            },

            callPlugin: function () {
                var map = this.map,
                    id = map.id,
                    //Map already normalized the prefix.
                    pluginMap = makeModuleMap(map.prefix);

                //Mark this as a dependency for this plugin, so it
                //can be traced for cycles.
                this.depMaps.push(pluginMap);

                on(pluginMap, 'defined', bind(this, function (plugin) {
                    var load, normalizedMap, normalizedMod,
                        bundleId = getOwn(bundlesMap, this.map.id),
                        name = this.map.name,
                        parentName = this.map.parentMap ? this.map.parentMap.name : null,
                        localRequire = context.makeRequire(map.parentMap, {
                            enableBuildCallback: true
                        });

                    //If current map is not normalized, wait for that
                    //normalized name to load instead of continuing.
                    if (this.map.unnormalized) {
                        //Normalize the ID if the plugin allows it.
                        if (plugin.normalize) {
                            name = plugin.normalize(name, function (name) {
                                return normalize(name, parentName, true);
                            }) || '';
                        }

                        //prefix and name should already be normalized, no need
                        //for applying map config again either.
                        normalizedMap = makeModuleMap(map.prefix + '!' + name,
                                                      this.map.parentMap);
                        on(normalizedMap,
                            'defined', bind(this, function (value) {
                                this.map.normalizedMap = normalizedMap;
                                this.init([], function () { return value; }, null, {
                                    enabled: true,
                                    ignore: true
                                });
                            }));

                        normalizedMod = getOwn(registry, normalizedMap.id);
                        if (normalizedMod) {
                            //Mark this as a dependency for this plugin, so it
                            //can be traced for cycles.
                            this.depMaps.push(normalizedMap);

                            if (this.events.error) {
                                normalizedMod.on('error', bind(this, function (err) {
                                    this.emit('error', err);
                                }));
                            }
                            normalizedMod.enable();
                        }

                        return;
                    }

                    //If a paths config, then just load that file instead to
                    //resolve the plugin, as it is built into that paths layer.
                    if (bundleId) {
                        this.map.url = context.nameToUrl(bundleId);
                        this.load();
                        return;
                    }

                    load = bind(this, function (value) {
                        this.init([], function () { return value; }, null, {
                            enabled: true
                        });
                    });

                    load.error = bind(this, function (err) {
                        this.inited = true;
                        this.error = err;
                        err.requireModules = [id];

                        //Remove temp unnormalized modules for this module,
                        //since they will never be resolved otherwise now.
                        eachProp(registry, function (mod) {
                            if (mod.map.id.indexOf(id + '_unnormalized') === 0) {
                                cleanRegistry(mod.map.id);
                            }
                        });

                        onError(err);
                    });

                    //Allow plugins to load other code without having to know the
                    //context or how to 'complete' the load.
                    load.fromText = bind(this, function (text, textAlt) {
                        /*jslint evil: true */
                        var moduleName = map.name,
                            moduleMap = makeModuleMap(moduleName),
                            hasInteractive = useInteractive;

                        //As of 2.1.0, support just passing the text, to reinforce
                        //fromText only being called once per resource. Still
                        //support old style of passing moduleName but discard
                        //that moduleName in favor of the internal ref.
                        if (textAlt) {
                            text = textAlt;
                        }

                        //Turn off interactive script matching for IE for any define
                        //calls in the text, then turn it back on at the end.
                        if (hasInteractive) {
                            useInteractive = false;
                        }

                        //Prime the system by creating a module instance for
                        //it.
                        getModule(moduleMap);

                        //Transfer any config to this other module.
                        if (hasProp(config.config, id)) {
                            config.config[moduleName] = config.config[id];
                        }

                        try {
                            req.exec(text);
                        } catch (e) {
                            return onError(makeError('fromtexteval',
                                             'fromText eval for ' + id +
                                            ' failed: ' + e,
                                             e,
                                             [id]));
                        }

                        if (hasInteractive) {
                            useInteractive = true;
                        }

                        //Mark this as a dependency for the plugin
                        //resource
                        this.depMaps.push(moduleMap);

                        //Support anonymous modules.
                        context.completeLoad(moduleName);

                        //Bind the value of that module to the value for this
                        //resource ID.
                        localRequire([moduleName], load);
                    });

                    //Use parentName here since the plugin's name is not reliable,
                    //could be some weird string with no path that actually wants to
                    //reference the parentName's path.
                    plugin.load(map.name, localRequire, load, config);
                }));

                context.enable(pluginMap, this);
                this.pluginMaps[pluginMap.id] = pluginMap;
            },

            enable: function () {
                enabledRegistry[this.map.id] = this;
                this.enabled = true;

                //Set flag mentioning that the module is enabling,
                //so that immediate calls to the defined callbacks
                //for dependencies do not trigger inadvertent load
                //with the depCount still being zero.
                this.enabling = true;

                //Enable each dependency
                each(this.depMaps, bind(this, function (depMap, i) {
                    var id, mod, handler;

                    if (typeof depMap === 'string') {
                        //Dependency needs to be converted to a depMap
                        //and wired up to this module.
                        depMap = makeModuleMap(depMap,
                                               (this.map.isDefine ? this.map : this.map.parentMap),
                                               false,
                                               !this.skipMap);
                        this.depMaps[i] = depMap;

                        handler = getOwn(handlers, depMap.id);

                        if (handler) {
                            this.depExports[i] = handler(this);
                            return;
                        }

                        this.depCount += 1;

                        on(depMap, 'defined', bind(this, function (depExports) {
                            if (this.undefed) {
                                return;
                            }
                            this.defineDep(i, depExports);
                            this.check();
                        }));

                        if (this.errback) {
                            on(depMap, 'error', bind(this, this.errback));
                        } else if (this.events.error) {
                            // No direct errback on this module, but something
                            // else is listening for errors, so be sure to
                            // propagate the error correctly.
                            on(depMap, 'error', bind(this, function(err) {
                                this.emit('error', err);
                            }));
                        }
                    }

                    id = depMap.id;
                    mod = registry[id];

                    //Skip special modules like 'require', 'exports', 'module'
                    //Also, don't call enable if it is already enabled,
                    //important in circular dependency cases.
                    if (!hasProp(handlers, id) && mod && !mod.enabled) {
                        context.enable(depMap, this);
                    }
                }));

                //Enable each plugin that is used in
                //a dependency
                eachProp(this.pluginMaps, bind(this, function (pluginMap) {
                    var mod = getOwn(registry, pluginMap.id);
                    if (mod && !mod.enabled) {
                        context.enable(pluginMap, this);
                    }
                }));

                this.enabling = false;

                this.check();
            },

            on: function (name, cb) {
                var cbs = this.events[name];
                if (!cbs) {
                    cbs = this.events[name] = [];
                }
                cbs.push(cb);
            },

            emit: function (name, evt) {
                each(this.events[name], function (cb) {
                    cb(evt);
                });
                if (name === 'error') {
                    //Now that the error handler was triggered, remove
                    //the listeners, since this broken Module instance
                    //can stay around for a while in the registry.
                    delete this.events[name];
                }
            }
        };

        function callGetModule(args) {
            //Skip modules already defined.
            if (!hasProp(defined, args[0])) {
                getModule(makeModuleMap(args[0], null, true)).init(args[1], args[2]);
            }
        }

        function removeListener(node, func, name, ieName) {
            //Favor detachEvent because of IE9
            //issue, see attachEvent/addEventListener comment elsewhere
            //in this file.
            if (node.detachEvent && !isOpera) {
                //Probably IE. If not it will throw an error, which will be
                //useful to know.
                if (ieName) {
                    node.detachEvent(ieName, func);
                }
            } else {
                node.removeEventListener(name, func, false);
            }
        }

        /**
         * Given an event from a script node, get the requirejs info from it,
         * and then removes the event listeners on the node.
         * @param {Event} evt
         * @returns {Object}
         */
        function getScriptData(evt) {
            //Using currentTarget instead of target for Firefox 2.0's sake. Not
            //all old browsers will be supported, but this one was easy enough
            //to support and still makes sense.
            var node = evt.currentTarget || evt.srcElement;

            //Remove the listeners once here.
            removeListener(node, context.onScriptLoad, 'load', 'onreadystatechange');
            removeListener(node, context.onScriptError, 'error');

            return {
                node: node,
                id: node && node.getAttribute('data-requiremodule')
            };
        }

        function intakeDefines() {
            var args;

            //Any defined modules in the global queue, intake them now.
            takeGlobalQueue();

            //Make sure any remaining defQueue items get properly processed.
            while (defQueue.length) {
                args = defQueue.shift();
                if (args[0] === null) {
                    return onError(makeError('mismatch', 'Mismatched anonymous define() module: ' +
                        args[args.length - 1]));
                } else {
                    //args are id, deps, factory. Should be normalized by the
                    //define() function.
                    callGetModule(args);
                }
            }
            context.defQueueMap = {};
        }

        context = {
            config: config,
            contextName: contextName,
            registry: registry,
            defined: defined,
            urlFetched: urlFetched,
            defQueue: defQueue,
            defQueueMap: {},
            Module: Module,
            makeModuleMap: makeModuleMap,
            nextTick: req.nextTick,
            onError: onError,

            /**
             * Set a configuration for the context.
             * @param {Object} cfg config object to integrate.
             */
            configure: function (cfg) {
                //Make sure the baseUrl ends in a slash.
                if (cfg.baseUrl) {
                    if (cfg.baseUrl.charAt(cfg.baseUrl.length - 1) !== '/') {
                        cfg.baseUrl += '/';
                    }
                }

                //Save off the paths since they require special processing,
                //they are additive.
                var shim = config.shim,
                    objs = {
                        paths: true,
                        bundles: true,
                        config: true,
                        map: true
                    };

                eachProp(cfg, function (value, prop) {
                    if (objs[prop]) {
                        if (!config[prop]) {
                            config[prop] = {};
                        }
                        mixin(config[prop], value, true, true);
                    } else {
                        config[prop] = value;
                    }
                });

                //Reverse map the bundles
                if (cfg.bundles) {
                    eachProp(cfg.bundles, function (value, prop) {
                        each(value, function (v) {
                            if (v !== prop) {
                                bundlesMap[v] = prop;
                            }
                        });
                    });
                }

                //Merge shim
                if (cfg.shim) {
                    eachProp(cfg.shim, function (value, id) {
                        //Normalize the structure
                        if (isArray(value)) {
                            value = {
                                deps: value
                            };
                        }
                        if ((value.exports || value.init) && !value.exportsFn) {
                            value.exportsFn = context.makeShimExports(value);
                        }
                        shim[id] = value;
                    });
                    config.shim = shim;
                }

                //Adjust packages if necessary.
                if (cfg.packages) {
                    each(cfg.packages, function (pkgObj) {
                        var location, name;

                        pkgObj = typeof pkgObj === 'string' ? {name: pkgObj} : pkgObj;

                        name = pkgObj.name;
                        location = pkgObj.location;
                        if (location) {
                            config.paths[name] = pkgObj.location;
                        }

                        //Save pointer to main module ID for pkg name.
                        //Remove leading dot in main, so main paths are normalized,
                        //and remove any trailing .js, since different package
                        //envs have different conventions: some use a module name,
                        //some use a file name.
                        config.pkgs[name] = pkgObj.name + '/' + (pkgObj.main || 'main')
                                     .replace(currDirRegExp, '')
                                     .replace(jsSuffixRegExp, '');
                    });
                }

                //If there are any "waiting to execute" modules in the registry,
                //update the maps for them, since their info, like URLs to load,
                //may have changed.
                eachProp(registry, function (mod, id) {
                    //If module already has init called, since it is too
                    //late to modify them, and ignore unnormalized ones
                    //since they are transient.
                    if (!mod.inited && !mod.map.unnormalized) {
                        mod.map = makeModuleMap(id, null, true);
                    }
                });

                //If a deps array or a config callback is specified, then call
                //require with those args. This is useful when require is defined as a
                //config object before require.js is loaded.
                if (cfg.deps || cfg.callback) {
                    context.require(cfg.deps || [], cfg.callback);
                }
            },

            makeShimExports: function (value) {
                function fn() {
                    var ret;
                    if (value.init) {
                        ret = value.init.apply(global, arguments);
                    }
                    return ret || (value.exports && getGlobal(value.exports));
                }
                return fn;
            },

            makeRequire: function (relMap, options) {
                options = options || {};

                function localRequire(deps, callback, errback) {
                    var id, map, requireMod;

                    if (options.enableBuildCallback && callback && isFunction(callback)) {
                        callback.__requireJsBuild = true;
                    }

                    if (typeof deps === 'string') {
                        if (isFunction(callback)) {
                            //Invalid call
                            return onError(makeError('requireargs', 'Invalid require call'), errback);
                        }

                        //If require|exports|module are requested, get the
                        //value for them from the special handlers. Caveat:
                        //this only works while module is being defined.
                        if (relMap && hasProp(handlers, deps)) {
                            return handlers[deps](registry[relMap.id]);
                        }

                        //Synchronous access to one module. If require.get is
                        //available (as in the Node adapter), prefer that.
                        if (req.get) {
                            return req.get(context, deps, relMap, localRequire);
                        }

                        //Normalize module name, if it contains . or ..
                        map = makeModuleMap(deps, relMap, false, true);
                        id = map.id;

                        if (!hasProp(defined, id)) {
                            return onError(makeError('notloaded', 'Module name "' +
                                        id +
                                        '" has not been loaded yet for context: ' +
                                        contextName +
                                        (relMap ? '' : '. Use require([])')));
                        }
                        return defined[id];
                    }

                    //Grab defines waiting in the global queue.
                    intakeDefines();

                    //Mark all the dependencies as needing to be loaded.
                    context.nextTick(function () {
                        //Some defines could have been added since the
                        //require call, collect them.
                        intakeDefines();

                        requireMod = getModule(makeModuleMap(null, relMap));

                        //Store if map config should be applied to this require
                        //call for dependencies.
                        requireMod.skipMap = options.skipMap;

                        requireMod.init(deps, callback, errback, {
                            enabled: true
                        });

                        checkLoaded();
                    });

                    return localRequire;
                }

                mixin(localRequire, {
                    isBrowser: isBrowser,

                    /**
                     * Converts a module name + .extension into an URL path.
                     * *Requires* the use of a module name. It does not support using
                     * plain URLs like nameToUrl.
                     */
                    toUrl: function (moduleNamePlusExt) {
                        var ext,
                            index = moduleNamePlusExt.lastIndexOf('.'),
                            segment = moduleNamePlusExt.split('/')[0],
                            isRelative = segment === '.' || segment === '..';

                        //Have a file extension alias, and it is not the
                        //dots from a relative path.
                        if (index !== -1 && (!isRelative || index > 1)) {
                            ext = moduleNamePlusExt.substring(index, moduleNamePlusExt.length);
                            moduleNamePlusExt = moduleNamePlusExt.substring(0, index);
                        }

                        return context.nameToUrl(normalize(moduleNamePlusExt,
                                                relMap && relMap.id, true), ext,  true);
                    },

                    defined: function (id) {
                        return hasProp(defined, makeModuleMap(id, relMap, false, true).id);
                    },

                    specified: function (id) {
                        id = makeModuleMap(id, relMap, false, true).id;
                        return hasProp(defined, id) || hasProp(registry, id);
                    }
                });

                //Only allow undef on top level require calls
                if (!relMap) {
                    localRequire.undef = function (id) {
                        //Bind any waiting define() calls to this context,
                        //fix for #408
                        takeGlobalQueue();

                        var map = makeModuleMap(id, relMap, true),
                            mod = getOwn(registry, id);

                        mod.undefed = true;
                        removeScript(id);

                        delete defined[id];
                        delete urlFetched[map.url];
                        delete undefEvents[id];

                        //Clean queued defines too. Go backwards
                        //in array so that the splices do not
                        //mess up the iteration.
                        eachReverse(defQueue, function(args, i) {
                            if (args[0] === id) {
                                defQueue.splice(i, 1);
                            }
                        });
                        delete context.defQueueMap[id];

                        if (mod) {
                            //Hold on to listeners in case the
                            //module will be attempted to be reloaded
                            //using a different config.
                            if (mod.events.defined) {
                                undefEvents[id] = mod.events;
                            }

                            cleanRegistry(id);
                        }
                    };
                }

                return localRequire;
            },

            /**
             * Called to enable a module if it is still in the registry
             * awaiting enablement. A second arg, parent, the parent module,
             * is passed in for context, when this method is overridden by
             * the optimizer. Not shown here to keep code compact.
             */
            enable: function (depMap) {
                var mod = getOwn(registry, depMap.id);
                if (mod) {
                    getModule(depMap).enable();
                }
            },

            /**
             * Internal method used by environment adapters to complete a load event.
             * A load event could be a script load or just a load pass from a synchronous
             * load call.
             * @param {String} moduleName the name of the module to potentially complete.
             */
            completeLoad: function (moduleName) {
                var found, args, mod,
                    shim = getOwn(config.shim, moduleName) || {},
                    shExports = shim.exports;

                takeGlobalQueue();

                while (defQueue.length) {
                    args = defQueue.shift();
                    if (args[0] === null) {
                        args[0] = moduleName;
                        //If already found an anonymous module and bound it
                        //to this name, then this is some other anon module
                        //waiting for its completeLoad to fire.
                        if (found) {
                            break;
                        }
                        found = true;
                    } else if (args[0] === moduleName) {
                        //Found matching define call for this script!
                        found = true;
                    }

                    callGetModule(args);
                }
                context.defQueueMap = {};

                //Do this after the cycle of callGetModule in case the result
                //of those calls/init calls changes the registry.
                mod = getOwn(registry, moduleName);

                if (!found && !hasProp(defined, moduleName) && mod && !mod.inited) {
                    if (config.enforceDefine && (!shExports || !getGlobal(shExports))) {
                        if (hasPathFallback(moduleName)) {
                            return;
                        } else {
                            return onError(makeError('nodefine',
                                             'No define call for ' + moduleName,
                                             null,
                                             [moduleName]));
                        }
                    } else {
                        //A script that does not call define(), so just simulate
                        //the call for it.
                        callGetModule([moduleName, (shim.deps || []), shim.exportsFn]);
                    }
                }

                checkLoaded();
            },

            /**
             * Converts a module name to a file path. Supports cases where
             * moduleName may actually be just an URL.
             * Note that it **does not** call normalize on the moduleName,
             * it is assumed to have already been normalized. This is an
             * internal API, not a public one. Use toUrl for the public API.
             */
            nameToUrl: function (moduleName, ext, skipExt) {
                var paths, syms, i, parentModule, url,
                    parentPath, bundleId,
                    pkgMain = getOwn(config.pkgs, moduleName);

                if (pkgMain) {
                    moduleName = pkgMain;
                }

                bundleId = getOwn(bundlesMap, moduleName);

                if (bundleId) {
                    return context.nameToUrl(bundleId, ext, skipExt);
                }

                //If a colon is in the URL, it indicates a protocol is used and it is just
                //an URL to a file, or if it starts with a slash, contains a query arg (i.e. ?)
                //or ends with .js, then assume the user meant to use an url and not a module id.
                //The slash is important for protocol-less URLs as well as full paths.
                if (req.jsExtRegExp.test(moduleName)) {
                    //Just a plain path, not module name lookup, so just return it.
                    //Add extension if it is included. This is a bit wonky, only non-.js things pass
                    //an extension, this method probably needs to be reworked.
                    url = moduleName + (ext || '');
                } else {
                    //A module that needs to be converted to a path.
                    paths = config.paths;

                    syms = moduleName.split('/');
                    //For each module name segment, see if there is a path
                    //registered for it. Start with most specific name
                    //and work up from it.
                    for (i = syms.length; i > 0; i -= 1) {
                        parentModule = syms.slice(0, i).join('/');

                        parentPath = getOwn(paths, parentModule);
                        if (parentPath) {
                            //If an array, it means there are a few choices,
                            //Choose the one that is desired
                            if (isArray(parentPath)) {
                                parentPath = parentPath[0];
                            }
                            syms.splice(0, i, parentPath);
                            break;
                        }
                    }

                    //Join the path parts together, then figure out if baseUrl is needed.
                    url = syms.join('/');
                    url += (ext || (/^data\:|\?/.test(url) || skipExt ? '' : '.js'));
                    url = (url.charAt(0) === '/' || url.match(/^[\w\+\.\-]+:/) ? '' : config.baseUrl) + url;
                }

                return config.urlArgs ? url +
                                        ((url.indexOf('?') === -1 ? '?' : '&') +
                                         config.urlArgs) : url;
            },

            //Delegates to req.load. Broken out as a separate function to
            //allow overriding in the optimizer.
            load: function (id, url) {
                req.load(context, id, url);
            },

            /**
             * Executes a module callback function. Broken out as a separate function
             * solely to allow the build system to sequence the files in the built
             * layer in the right sequence.
             *
             * @private
             */
            execCb: function (name, callback, args, exports) {
                return callback.apply(exports, args);
            },

            /**
             * callback for script loads, used to check status of loading.
             *
             * @param {Event} evt the event from the browser for the script
             * that was loaded.
             */
            onScriptLoad: function (evt) {
                //Using currentTarget instead of target for Firefox 2.0's sake. Not
                //all old browsers will be supported, but this one was easy enough
                //to support and still makes sense.
                if (evt.type === 'load' ||
                        (readyRegExp.test((evt.currentTarget || evt.srcElement).readyState))) {
                    //Reset interactive script so a script node is not held onto for
                    //to long.
                    interactiveScript = null;

                    //Pull out the name of the module and the context.
                    var data = getScriptData(evt);
                    context.completeLoad(data.id);
                }
            },

            /**
             * Callback for script errors.
             */
            onScriptError: function (evt) {
                var data = getScriptData(evt);
                if (!hasPathFallback(data.id)) {
                    var parents = [];
                    eachProp(registry, function(value, key) {
                        if (key.indexOf('_@r') !== 0) {
                            each(value.depMaps, function(depMap) {
                                if (depMap.id === data.id) {
                                    parents.push(key);
                                }
                                return true;
                            });
                        }
                    });
                    return onError(makeError('scripterror', 'Script error for "' + data.id +
                                             (parents.length ?
                                             '", needed by: ' + parents.join(', ') :
                                             '"'), evt, [data.id]));
                }
            }
        };

        context.require = context.makeRequire();
        return context;
    }

    /**
     * Main entry point.
     *
     * If the only argument to require is a string, then the module that
     * is represented by that string is fetched for the appropriate context.
     *
     * If the first argument is an array, then it will be treated as an array
     * of dependency string names to fetch. An optional function callback can
     * be specified to execute when all of those dependencies are available.
     *
     * Make a local req variable to help Caja compliance (it assumes things
     * on a require that are not standardized), and to give a short
     * name for minification/local scope use.
     */
    req = requirejs = function (deps, callback, errback, optional) {

        //Find the right context, use default
        var context, config,
            contextName = defContextName;

        // Determine if have config object in the call.
        if (!isArray(deps) && typeof deps !== 'string') {
            // deps is a config object
            config = deps;
            if (isArray(callback)) {
                // Adjust args if there are dependencies
                deps = callback;
                callback = errback;
                errback = optional;
            } else {
                deps = [];
            }
        }

        if (config && config.context) {
            contextName = config.context;
        }

        context = getOwn(contexts, contextName);
        if (!context) {
            context = contexts[contextName] = req.s.newContext(contextName);
        }

        if (config) {
            context.configure(config);
        }

        return context.require(deps, callback, errback);
    };

    /**
     * Support require.config() to make it easier to cooperate with other
     * AMD loaders on globally agreed names.
     */
    req.config = function (config) {
        return req(config);
    };

    /**
     * Execute something after the current tick
     * of the event loop. Override for other envs
     * that have a better solution than setTimeout.
     * @param  {Function} fn function to execute later.
     */
    req.nextTick = typeof setTimeout !== 'undefined' ? function (fn) {
        setTimeout(fn, 4);
    } : function (fn) { fn(); };

    /**
     * Export require as a global, but only if it does not already exist.
     */
    if (!require) {
        require = req;
    }

    req.version = version;

    //Used to filter out dependencies that are already paths.
    req.jsExtRegExp = /^\/|:|\?|\.js$/;
    req.isBrowser = isBrowser;
    s = req.s = {
        contexts: contexts,
        newContext: newContext
    };

    //Create default context.
    req({});

    //Exports some context-sensitive methods on global require.
    each([
        'toUrl',
        'undef',
        'defined',
        'specified'
    ], function (prop) {
        //Reference from contexts instead of early binding to default context,
        //so that during builds, the latest instance of the default context
        //with its config gets used.
        req[prop] = function () {
            var ctx = contexts[defContextName];
            return ctx.require[prop].apply(ctx, arguments);
        };
    });

    if (isBrowser) {
        head = s.head = document.getElementsByTagName('head')[0];
        //If BASE tag is in play, using appendChild is a problem for IE6.
        //When that browser dies, this can be removed. Details in this jQuery bug:
        //http://dev.jquery.com/ticket/2709
        baseElement = document.getElementsByTagName('base')[0];
        if (baseElement) {
            head = s.head = baseElement.parentNode;
        }
    }

    /**
     * Any errors that require explicitly generates will be passed to this
     * function. Intercept/override it if you want custom error handling.
     * @param {Error} err the error object.
     */
    req.onError = defaultOnError;

    /**
     * Creates the node for the load command. Only used in browser envs.
     */
    req.createNode = function (config, moduleName, url) {
        var node = config.xhtml ?
                document.createElementNS('http://www.w3.org/1999/xhtml', 'html:script') :
                document.createElement('script');
        node.type = config.scriptType || 'text/javascript';
        node.charset = 'utf-8';
        node.async = true;
        return node;
    };

    /**
     * Does the request to load a module for the browser case.
     * Make this a separate function to allow other environments
     * to override it.
     *
     * @param {Object} context the require context to find state.
     * @param {String} moduleName the name of the module.
     * @param {Object} url the URL to the module.
     */
    req.load = function (context, moduleName, url) {
        var config = (context && context.config) || {},
            node;
        if (isBrowser) {
            //In the browser so use a script tag
            node = req.createNode(config, moduleName, url);
            if (config.onNodeCreated) {
                config.onNodeCreated(node, config, moduleName, url);
            }

            node.setAttribute('data-requirecontext', context.contextName);
            node.setAttribute('data-requiremodule', moduleName);

            //Set up load listener. Test attachEvent first because IE9 has
            //a subtle issue in its addEventListener and script onload firings
            //that do not match the behavior of all other browsers with
            //addEventListener support, which fire the onload event for a
            //script right after the script execution. See:
            //https://connect.microsoft.com/IE/feedback/details/648057/script-onload-event-is-not-fired-immediately-after-script-execution
            //UNFORTUNATELY Opera implements attachEvent but does not follow the script
            //script execution mode.
            if (node.attachEvent &&
                    //Check if node.attachEvent is artificially added by custom script or
                    //natively supported by browser
                    //read https://github.com/jrburke/requirejs/issues/187
                    //if we can NOT find [native code] then it must NOT natively supported.
                    //in IE8, node.attachEvent does not have toString()
                    //Note the test for "[native code" with no closing brace, see:
                    //https://github.com/jrburke/requirejs/issues/273
                    !(node.attachEvent.toString && node.attachEvent.toString().indexOf('[native code') < 0) &&
                    !isOpera) {
                //Probably IE. IE (at least 6-8) do not fire
                //script onload right after executing the script, so
                //we cannot tie the anonymous define call to a name.
                //However, IE reports the script as being in 'interactive'
                //readyState at the time of the define call.
                useInteractive = true;

                node.attachEvent('onreadystatechange', context.onScriptLoad);
                //It would be great to add an error handler here to catch
                //404s in IE9+. However, onreadystatechange will fire before
                //the error handler, so that does not help. If addEventListener
                //is used, then IE will fire error before load, but we cannot
                //use that pathway given the connect.microsoft.com issue
                //mentioned above about not doing the 'script execute,
                //then fire the script load event listener before execute
                //next script' that other browsers do.
                //Best hope: IE10 fixes the issues,
                //and then destroys all installs of IE 6-9.
                //node.attachEvent('onerror', context.onScriptError);
            } else {
                node.addEventListener('load', context.onScriptLoad, false);
                node.addEventListener('error', context.onScriptError, false);
            }
            node.src = url;

            //For some cache cases in IE 6-8, the script executes before the end
            //of the appendChild execution, so to tie an anonymous define
            //call to the module name (which is stored on the node), hold on
            //to a reference to this node, but clear after the DOM insertion.
            currentlyAddingScript = node;
            if (baseElement) {
                head.insertBefore(node, baseElement);
            } else {
                head.appendChild(node);
            }
            currentlyAddingScript = null;

            return node;
        } else if (isWebWorker) {
            try {
                //In a web worker, use importScripts. This is not a very
                //efficient use of importScripts, importScripts will block until
                //its script is downloaded and evaluated. However, if web workers
                //are in play, the expectation is that a build has been done so
                //that only one script needs to be loaded anyway. This may need
                //to be reevaluated if other use cases become common.
                importScripts(url);

                //Account for anonymous modules
                context.completeLoad(moduleName);
            } catch (e) {
                context.onError(makeError('importscripts',
                                'importScripts failed for ' +
                                    moduleName + ' at ' + url,
                                e,
                                [moduleName]));
            }
        }
    };

    function getInteractiveScript() {
        if (interactiveScript && interactiveScript.readyState === 'interactive') {
            return interactiveScript;
        }

        eachReverse(scripts(), function (script) {
            if (script.readyState === 'interactive') {
                return (interactiveScript = script);
            }
        });
        return interactiveScript;
    }

    //Look for a data-main script attribute, which could also adjust the baseUrl.
    if (isBrowser && !cfg.skipDataMain) {
        //Figure out baseUrl. Get it from the script tag with require.js in it.
        eachReverse(scripts(), function (script) {
            //Set the 'head' where we can append children by
            //using the script's parent.
            if (!head) {
                head = script.parentNode;
            }

            //Look for a data-main attribute to set main script for the page
            //to load. If it is there, the path to data main becomes the
            //baseUrl, if it is not already set.
            dataMain = script.getAttribute('data-main');
            if (dataMain) {
                //Preserve dataMain in case it is a path (i.e. contains '?')
                mainScript = dataMain;

                //Set final baseUrl if there is not already an explicit one.
                if (!cfg.baseUrl) {
                    //Pull off the directory of data-main for use as the
                    //baseUrl.
                    src = mainScript.split('/');
                    mainScript = src.pop();
                    subPath = src.length ? src.join('/')  + '/' : './';

                    cfg.baseUrl = subPath;
                }

                //Strip off any trailing .js since mainScript is now
                //like a module name.
                mainScript = mainScript.replace(jsSuffixRegExp, '');

                //If mainScript is still a path, fall back to dataMain
                if (req.jsExtRegExp.test(mainScript)) {
                    mainScript = dataMain;
                }

                //Put the data-main script in the files to load.
                cfg.deps = cfg.deps ? cfg.deps.concat(mainScript) : [mainScript];

                return true;
            }
        });
    }

    /**
     * The function that handles definitions of modules. Differs from
     * require() in that a string for the module should be the first argument,
     * and the function to execute after dependencies are loaded should
     * return a value to define the module corresponding to the first argument's
     * name.
     */
    define = function (name, deps, callback) {
        var node, context;

        //Allow for anonymous modules
        if (typeof name !== 'string') {
            //Adjust args appropriately
            callback = deps;
            deps = name;
            name = null;
        }

        //This module may not have dependencies
        if (!isArray(deps)) {
            callback = deps;
            deps = null;
        }

        //If no name, and callback is a function, then figure out if it a
        //CommonJS thing with dependencies.
        if (!deps && isFunction(callback)) {
            deps = [];
            //Remove comments from the callback string,
            //look for require calls, and pull them into the dependencies,
            //but only if there are function args.
            if (callback.length) {
                callback
                    .toString()
                    .replace(commentRegExp, '')
                    .replace(cjsRequireRegExp, function (match, dep) {
                        deps.push(dep);
                    });

                //May be a CommonJS thing even without require calls, but still
                //could use exports, and module. Avoid doing exports and module
                //work though if it just needs require.
                //REQUIRES the function to expect the CommonJS variables in the
                //order listed below.
                deps = (callback.length === 1 ? ['require'] : ['require', 'exports', 'module']).concat(deps);
            }
        }

        //If in IE 6-8 and hit an anonymous define() call, do the interactive
        //work.
        if (useInteractive) {
            node = currentlyAddingScript || getInteractiveScript();
            if (node) {
                if (!name) {
                    name = node.getAttribute('data-requiremodule');
                }
                context = contexts[node.getAttribute('data-requirecontext')];
            }
        }

        //Always save off evaluating the def call until the script onload handler.
        //This allows multiple modules to be in a file without prematurely
        //tracing dependencies, and allows for anonymous module support,
        //where the module name is not known until the script onload event
        //occurs. If no context, use the global queue, and get it processed
        //in the onscript load callback.
        if (context) {
            context.defQueue.push([name, deps, callback]);
            context.defQueueMap[name] = true;
        } else {
            globalDefQueue.push([name, deps, callback]);
        }
    };

    define.amd = {
        jQuery: true
    };

    /**
     * Executes the text. Normally just uses eval, but can be modified
     * to use a better, environment-specific call. Only used for transpiling
     * loader plugins, not for plain JS modules.
     * @param {String} text the text to execute/evaluate.
     */
    req.exec = function (text) {
        /*jslint evil: true */
        return eval(text);
    };

    //Set up with config info.
    req(cfg);
}(this));
", + "ok": true, + "headers": [ + [ + "content-type", + "application/javascript" + ] + ], + "status": 200, + "status_text": "" + } + }, + "base_uri": "https://localhost:8080/", + "height": 1000 + }, + "outputId": "2fb445f1-200d-4644-f90c-6ca49e1dceaa" + }, + "source": [ + "call_html2()\n", + "model_view(attention,tokens)" + ], + "execution_count": 84, + "outputs": [ + { + "output_type": "display_data", + "data": { + "text/html": [ + "\n", + " \n", + " \n", + " " + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "display_data", + "data": { + "text/html": [ + "\n", + "
\n", + " " + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "display_data", + "data": { + "application/javascript": [ + "window.params = {\"attention\": {\"all\": {\"attn\": [[[[0.7710992693901062, 0.007431390229612589, 0.012493254616856575, 0.03150608018040657, 0.006556828040629625, 0.005912408698350191, 0.025385472923517227, 0.004400917328894138, 0.005617811344563961, 0.016971692442893982, 0.004981426056474447, 0.011446570977568626, 0.0073576136492192745, 0.005090898368507624, 0.03366187959909439, 0.003787121968343854, 0.006802836898714304, 0.004939413629472256, 0.018731387332081795, 0.0063441842794418335, 0.00948159396648407], [0.0012139129685238004, 0.1564280241727829, 0.011389520019292831, 0.012479482218623161, 0.04800644889473915, 0.043767329305410385, 0.017590714618563652, 0.036482471972703934, 0.11795476824045181, 0.020376799628138542, 0.10907015204429626, 0.010736634954810143, 0.03761713579297066, 0.1030392274260521, 0.01989257149398327, 0.03509576618671417, 0.041787002235651016, 0.1199057325720787, 0.014954467304050922, 0.01778322272002697, 0.02442855015397072], [0.01668146811425686, 0.016828930005431175, 0.050853945314884186, 0.17075413465499878, 0.02921043522655964, 0.01363370195031166, 0.06782571226358414, 0.02735363133251667, 0.013000166974961758, 0.14771515130996704, 0.015088699758052826, 0.05004625394940376, 0.022765060886740685, 0.013667333871126175, 0.09196311235427856, 0.025186866521835327, 0.02629084698855877, 0.013974406756460667, 0.13739819824695587, 0.021551676094532013, 0.02821037359535694], [0.003304755315184593, 0.10646568238735199, 0.05144830793142319, 0.08737780898809433, 0.015567043796181679, 0.01791641302406788, 0.08126281201839447, 0.034073054790496826, 0.06047000363469124, 0.09201665967702866, 0.06973610073328018, 0.038655441254377365, 0.009809881448745728, 0.053860895335674286, 0.08507600426673889, 0.022953027859330177, 0.023996369913220406, 0.0631914734840393, 0.03324568644165993, 0.018782025203108788, 0.030790498480200768], [0.008942798711359501, 0.05590403452515602, 0.05214541405439377, 0.1263810247182846, 0.03160115331411362, 0.03162061423063278, 0.04112548753619194, 0.05095912143588066, 0.03821004182100296, 0.08488624542951584, 0.0397942028939724, 0.04311443120241165, 0.022541094571352005, 0.03443175554275513, 0.04986272007226944, 0.026573332026600838, 0.04616404324769974, 0.038157813251018524, 0.06624161452054977, 0.04368596524000168, 0.06765706837177277], [0.005282411351799965, 0.060246437788009644, 0.049856919795274734, 0.11611097306013107, 0.04714473709464073, 0.04013703018426895, 0.04613618552684784, 0.06549622118473053, 0.042635854333639145, 0.06486262381076813, 0.042563296854496, 0.04474803805351257, 0.034059759229421616, 0.03765532001852989, 0.06655125319957733, 0.02356255240738392, 0.06259743124246597, 0.040488529950380325, 0.03964356333017349, 0.028342831879854202, 0.041878025978803635], [0.06502528488636017, 0.021741041913628578, 0.05553879588842392, 0.2212444543838501, 0.01691899448633194, 0.010959567502140999, 0.044875070452690125, 0.04206671193242073, 0.010631895624101162, 0.10499949753284454, 0.011095017194747925, 0.041366882622241974, 0.010502893477678299, 0.0100562684237957, 0.08510486781597137, 0.01796848326921463, 0.03249363973736763, 0.009033692069351673, 0.14619384706020355, 0.01074589416384697, 0.0314372219145298], [0.0052685183472931385, 0.030319394543766975, 0.030181799083948135, 0.17580287158489227, 0.022102205082774162, 0.026138203218579292, 0.08132302761077881, 0.05139261484146118, 0.019449064508080482, 0.12539902329444885, 0.02128193899989128, 0.02673310972750187, 0.01676972396671772, 0.018538227304816246, 0.07383502274751663, 0.02670859359204769, 0.07965037226676941, 0.021126076579093933, 0.05062708631157875, 0.06831768155097961, 0.02903544344007969], [0.0014025381533429027, 0.16717194020748138, 0.012945303693413734, 0.011327100917696953, 0.04592665657401085, 0.039500314742326736, 0.02120400033891201, 0.0335124135017395, 0.11334041506052017, 0.021439187228679657, 0.10292217135429382, 0.011785093694925308, 0.03705389052629471, 0.09879261255264282, 0.021898891776800156, 0.02760246768593788, 0.04853066802024841, 0.12256569415330887, 0.01646309532225132, 0.018598664551973343, 0.026016853749752045], [0.007480295840650797, 0.010546164587140083, 0.04680078104138374, 0.2054775357246399, 0.017862820997834206, 0.022950636222958565, 0.12217410653829575, 0.011287455447018147, 0.0071371751837432384, 0.14249534904956818, 0.0074410634115338326, 0.035283107310533524, 0.01134631596505642, 0.0059634665958583355, 0.11474574357271194, 0.019684134051203728, 0.01840650662779808, 0.0060194507241249084, 0.15740226209163666, 0.010410171933472157, 0.01908545009791851], [0.0012385270092636347, 0.16484230756759644, 0.012624058872461319, 0.012736182659864426, 0.041364479809999466, 0.03832239657640457, 0.020099131390452385, 0.032488200813531876, 0.11898979544639587, 0.02144039236009121, 0.104303739964962, 0.011380411684513092, 0.03267482668161392, 0.10174189507961273, 0.021809283643960953, 0.027317404747009277, 0.0486263707280159, 0.12489374727010727, 0.01767771691083908, 0.019751014187932014, 0.025678111240267754], [0.016725832596421242, 0.022707872092723846, 0.05062587559223175, 0.18296638131141663, 0.025460228323936462, 0.012230431661009789, 0.07181575149297714, 0.025590699166059494, 0.01681920327246189, 0.12731598317623138, 0.01848885603249073, 0.044583942741155624, 0.01841685362160206, 0.01684907078742981, 0.09453956037759781, 0.022346915677189827, 0.027044055983424187, 0.017495425418019295, 0.13056305050849915, 0.02234126254916191, 0.03507275879383087], [0.009825271554291248, 0.059993546456098557, 0.05078993737697601, 0.09625953435897827, 0.03107452020049095, 0.03106207773089409, 0.04472162574529648, 0.04569205269217491, 0.04645835980772972, 0.07093407213687897, 0.046122267842292786, 0.040722813457250595, 0.021321669220924377, 0.0391588993370533, 0.04278327897191048, 0.025938302278518677, 0.039420660585165024, 0.04374122992157936, 0.06640580296516418, 0.048026829957962036, 0.0995471253991127], [0.0009870065841823816, 0.17301489412784576, 0.011366868391633034, 0.009937834925949574, 0.03694033622741699, 0.03182290866971016, 0.020049087703227997, 0.02856285870075226, 0.12747631967067719, 0.01948125660419464, 0.11514916270971298, 0.010348329320549965, 0.029424017295241356, 0.1061188355088234, 0.018164746463298798, 0.02656256966292858, 0.03942694142460823, 0.13421274721622467, 0.017039461061358452, 0.018701910972595215, 0.025211863219738007], [0.0267613735049963, 0.015477367676794529, 0.09498054534196854, 0.08262697607278824, 0.03312281519174576, 0.02093879133462906, 0.10144864022731781, 0.03835199773311615, 0.015523516573011875, 0.09253976494073868, 0.015956547111272812, 0.08233797550201416, 0.024049121886491776, 0.01400867197662592, 0.10839132964611053, 0.03037670999765396, 0.020721416920423508, 0.014668241143226624, 0.09014896303415298, 0.009900448843836784, 0.06766887754201889], [0.013415745459496975, 0.05843079835176468, 0.026797013357281685, 0.2518993318080902, 0.026761628687381744, 0.01880362629890442, 0.039911672472953796, 0.023272879421710968, 0.03122783452272415, 0.095905601978302, 0.03145259618759155, 0.02078140899538994, 0.018084552139043808, 0.030200911685824394, 0.09627263993024826, 0.022887056693434715, 0.04659752547740936, 0.0281287282705307, 0.052564866840839386, 0.03396647796034813, 0.0326370932161808], [0.010576929897069931, 0.05452755093574524, 0.029663335531949997, 0.15302425622940063, 0.020880738273262978, 0.01698368415236473, 0.05703594163060188, 0.04570254683494568, 0.04240880906581879, 0.08106541633605957, 0.03945891931653023, 0.025087742134928703, 0.014744853600859642, 0.03877488151192665, 0.11094794422388077, 0.037713997066020966, 0.05179043859243393, 0.0366109199821949, 0.05831039324402809, 0.030096743255853653, 0.044593941420316696], [0.0009380686096847057, 0.15624751150608063, 0.01117912121117115, 0.01002613827586174, 0.04094638302922249, 0.03620520234107971, 0.020526446402072906, 0.02709525264799595, 0.12647566199302673, 0.016950909048318863, 0.11137975752353668, 0.010632862336933613, 0.034346722066402435, 0.11090442538261414, 0.018436027690768242, 0.02729887142777443, 0.04118024557828903, 0.13641829788684845, 0.01910947822034359, 0.018497107550501823, 0.025205522775650024], [0.013418570160865784, 0.03126716613769531, 0.049580514430999756, 0.1711718887090683, 0.028903568163514137, 0.021200893446803093, 0.0776311531662941, 0.03226882219314575, 0.025465872138738632, 0.11876435577869415, 0.026056189090013504, 0.042510926723480225, 0.021466195583343506, 0.023871582001447678, 0.06997731328010559, 0.029358256608247757, 0.033525191247463226, 0.024213461205363274, 0.10565865784883499, 0.014873589389026165, 0.038815826177597046], [0.00731737120077014, 0.07387734204530716, 0.02239653468132019, 0.06425481289625168, 0.06414946913719177, 0.05441754311323166, 0.046962205320596695, 0.0447973906993866, 0.06530612707138062, 0.04648547247052193, 0.060921527445316315, 0.020914269611239433, 0.05132607743144035, 0.05784102529287338, 0.05141271650791168, 0.03302067145705223, 0.05140000209212303, 0.06824043393135071, 0.04342734068632126, 0.027723323553800583, 0.043808240443468094], [0.005014785099774599, 0.11664313077926636, 0.03240465372800827, 0.07400638610124588, 0.04937584698200226, 0.03647908568382263, 0.05090635269880295, 0.04229127615690231, 0.04904844984412193, 0.04000137746334076, 0.04498879611492157, 0.02056809514760971, 0.037513598799705505, 0.04357369616627693, 0.05690052732825279, 0.036826543509960175, 0.10325829684734344, 0.05480153486132622, 0.030895128846168518, 0.04111715778708458, 0.03338539972901344]], [[0.06645824015140533, 0.04356861859560013, 0.033409908413887024, 0.035143423825502396, 0.06252430379390717, 0.05725596845149994, 0.013277655467391014, 0.06653550267219543, 0.05860620737075806, 0.04343121126294136, 0.04832492768764496, 0.03027505613863468, 0.07092955708503723, 0.05510738492012024, 0.03117443434894085, 0.042740631848573685, 0.06441423296928406, 0.039992764592170715, 0.026961201801896095, 0.0157491285353899, 0.09411956369876862], [0.05270601436495781, 0.17478379607200623, 0.1910378783941269, 0.17033906280994415, 0.16040247678756714, 0.09154282510280609, 0.02766512520611286, 0.04401986673474312, 0.024077069014310837, 0.00979473814368248, 0.008826316334307194, 0.004783904645591974, 0.009291458874940872, 0.008522825315594673, 0.0028322371654212475, 0.006965301930904388, 0.003864317201077938, 0.0029869573190808296, 0.002284060465171933, 0.002534142229706049, 0.0007395892753265798], [0.0006331161130219698, 0.04393134266138077, 0.013533619232475758, 0.7424533367156982, 0.07756298780441284, 0.05853385478258133, 0.023078206926584244, 0.011682824231684208, 0.007566627115011215, 0.007745410781353712, 0.0029479116201400757, 0.00039550932706333697, 0.0013717119581997395, 0.001325718010775745, 0.0013400947209447622, 0.0034732455387711525, 0.0003824421437457204, 0.00034729557228274643, 0.0011065270518884063, 0.0005111183854751289, 7.712307706242427e-05], [0.016956696286797523, 0.13023847341537476, 0.1294475942850113, 0.08877195417881012, 0.19963254034519196, 0.16931043565273285, 0.17901107668876648, 0.01811131462454796, 0.0208303090184927, 0.018795263022184372, 0.009890852496027946, 0.003497657598927617, 0.0011952283093705773, 0.001710887416265905, 0.0010297656990587711, 0.006765719503164291, 0.0030093647073954344, 0.0004965702537447214, 0.0009489596704952419, 0.00023530636099167168, 0.00011405937402741984], [0.0011118167312815785, 0.07709281146526337, 0.04695460945367813, 0.09434355050325394, 0.019560828804969788, 0.20192115008831024, 0.47004789113998413, 0.027830073609948158, 0.02516886033117771, 0.0038716888520866632, 0.018999114632606506, 0.0069166626781225204, 0.0004142277466598898, 0.0021499497815966606, 0.0003813941730186343, 0.0005640119779855013, 0.001523661077953875, 0.0008520294795744121, 0.00010172359179705381, 0.00011709731916198507, 7.699904381297529e-05], [0.0005670221871696413, 0.02710839733481407, 0.20062817633152008, 0.09149511903524399, 0.11461730301380157, 0.03461649641394615, 0.2819445729255676, 0.12192317843437195, 0.033596958965063095, 0.007028771564364433, 0.015073367394506931, 0.05471489578485489, 0.00993499718606472, 0.003053050022572279, 0.000740886083804071, 0.0007358737639151514, 0.0009494118858128786, 0.0006860484718345106, 0.00040804926538839936, 0.00010535221372265369, 7.208417810034007e-05], [0.002971296664327383, 0.006965056527405977, 0.021454650908708572, 0.27486398816108704, 0.03870389610528946, 0.052797142416238785, 0.03674953803420067, 0.07650092244148254, 0.024848995730280876, 0.42926454544067383, 0.007363686803728342, 0.007880686782300472, 0.0057778810150921345, 0.001989434938877821, 0.0061353230848908424, 0.003330167615786195, 0.0007365976343862712, 0.00023378926562145352, 0.0011054228525608778, 0.000302562810247764, 2.4325901904376224e-05], [0.0009703559917397797, 0.013527508825063705, 0.01783003844320774, 0.2652202546596527, 0.04934653639793396, 0.0883985236287117, 0.19583933055400848, 0.058084599673748016, 0.14176952838897705, 0.08642575144767761, 0.04597662016749382, 0.011375200003385544, 0.009143468923866749, 0.010133558884263039, 0.0026255312841385603, 0.0012354188365861773, 0.0004921479849144816, 0.0006191519787535071, 0.000674620212521404, 0.0002584570029284805, 5.3422892960952595e-05], [0.024127697572112083, 0.008500034920871258, 0.004328678362071514, 0.01716543361544609, 0.05822249874472618, 0.08323479443788528, 0.05936769023537636, 0.1019972562789917, 0.18457898497581482, 0.2145543396472931, 0.12903349101543427, 0.01908443123102188, 0.043487776070833206, 0.024962617084383965, 0.005607427563518286, 0.015005428344011307, 0.0034643332473933697, 0.0016474189469590783, 0.0008354638121090829, 0.00045433713239617646, 0.00033981111482717097], [0.03789334371685982, 0.002668539760634303, 0.007189579773694277, 0.00439505884423852, 0.020260661840438843, 0.017412951216101646, 0.6152043342590332, 0.014496179297566414, 0.037309225648641586, 0.026655422523617744, 0.05518222972750664, 0.09616583585739136, 0.04671429470181465, 0.010136916302144527, 0.0015268753049895167, 0.0037739041727036238, 0.0013672340428456664, 0.0008353171870112419, 0.0006765691796317697, 0.000101241581432987, 3.422083682380617e-05], [0.026764843612909317, 0.006604229100048542, 0.0030597106087952852, 0.004120402969419956, 0.018155071884393692, 0.046206533908843994, 0.032195691019296646, 0.07143056392669678, 0.09280233085155487, 0.11833830922842026, 0.16703470051288605, 0.07618746906518936, 0.18358562886714935, 0.06838785856962204, 0.011085533536970615, 0.04214784875512123, 0.017893105745315552, 0.009453995153307915, 0.0031336378306150436, 0.0009411369683220983, 0.00047139872913248837], [0.0012427059700712562, 0.006664086598902941, 0.0013280336279422045, 0.02878984808921814, 0.008774266578257084, 0.029430745169520378, 0.04390549659729004, 0.04980307072401047, 0.0732993483543396, 0.11554624140262604, 0.11356637626886368, 0.02872476913034916, 0.21198828518390656, 0.10823100060224533, 0.036030322313308716, 0.08983895182609558, 0.014716053381562233, 0.013116106390953064, 0.022760825231671333, 0.002004054142162204, 0.00023947423323988914], [0.0017489275196567178, 0.0064375209622085094, 0.004212767817080021, 0.0036617463920265436, 0.0008590272045694292, 0.010378425940871239, 0.0806489810347557, 0.02445843443274498, 0.09176887571811676, 0.022736310958862305, 0.1694979965686798, 0.12819820642471313, 0.03975552320480347, 0.28149232268333435, 0.027368802577257156, 0.024587484076619148, 0.04990498349070549, 0.025836607441306114, 0.003938250243663788, 0.0019196115899831057, 0.0005892557674087584], [0.03275073319673538, 0.003562056226655841, 0.0014664706541225314, 0.0022939296904951334, 0.00603077095001936, 0.006288258824497461, 0.003986909985542297, 0.012661821208894253, 0.0366191565990448, 0.053170256316661835, 0.07149867713451385, 0.02958936057984829, 0.16142189502716064, 0.17431886494159698, 0.05637402459979057, 0.22822219133377075, 0.062240276485681534, 0.031618230044841766, 0.015049181878566742, 0.007089859340339899, 0.0037470629904419184], [0.20381249487400055, 0.0041480292566120625, 0.0022852118127048016, 0.0020907847210764885, 0.007309781853109598, 0.007229856681078672, 0.006824984680861235, 0.003740539075806737, 0.010172190144658089, 0.01142856478691101, 0.03542162477970123, 0.029561728239059448, 0.10416927933692932, 0.06731099635362625, 0.015198852866888046, 0.28675636649131775, 0.11364684998989105, 0.04065365716814995, 0.030178362503647804, 0.013302859850227833, 0.004756970796734095], [0.0015844089211896062, 0.0023366021923720837, 0.0006466780905611813, 0.0035648727789521217, 0.0010451122652739286, 0.0011013190960511565, 0.006168412510305643, 0.0042455000802874565, 0.005579120013862848, 0.008367981761693954, 0.024487217888236046, 0.014834200963377953, 0.02071600966155529, 0.04929424077272415, 0.22667460143566132, 0.026371119543910027, 0.4618540108203888, 0.08131948858499527, 0.03998948261141777, 0.01621195860207081, 0.003607714781537652], [0.0026148229371756315, 0.0032174636144191027, 0.000490096106659621, 0.008885922841727734, 0.001714165904559195, 0.0015510186785832047, 0.007285951636731625, 0.0025309170596301556, 0.004311425611376762, 0.005347904749214649, 0.01653303951025009, 0.006600937806069851, 0.053787168115377426, 0.06077126786112785, 0.20448100566864014, 0.07711154967546463, 0.1132851392030716, 0.21208688616752625, 0.1406790167093277, 0.06978350132703781, 0.006930922158062458], [0.03476918488740921, 0.0025229300372302532, 0.0012664656387642026, 0.0006524368654936552, 0.001657382003031671, 0.0010533393360674381, 0.000655678566545248, 0.0023412953596562147, 0.002903182525187731, 0.0024443890433758497, 0.005552693735808134, 0.005256436299532652, 0.04274521768093109, 0.0477704219520092, 0.023995336145162582, 0.10765312612056732, 0.15280164778232574, 0.2120603322982788, 0.17044833302497864, 0.1102549210190773, 0.07119529694318771], [0.0004113046161364764, 0.0005192445241846144, 0.0013765711337327957, 0.0006779808318242431, 0.0007581885438412428, 0.0002820454246830195, 0.0022442855406552553, 0.00047638104297220707, 0.0006754880887456238, 0.004517127759754658, 0.0011808115523308516, 0.004978089593350887, 0.00667342497035861, 0.009276962839066982, 0.00800850335508585, 0.12032073736190796, 0.05072326958179474, 0.045029811561107635, 0.027027755975723267, 0.684750497341156, 0.030091390013694763], [0.0035930159501731396, 0.003448824631050229, 0.004062379244714975, 0.011514170095324516, 0.001989545999094844, 0.001369657926261425, 0.002334882505238056, 0.0003216938057448715, 0.0014350074343383312, 0.0015354466158896685, 0.003002278972417116, 0.004106259439140558, 0.002366551198065281, 0.009209267795085907, 0.0066179330460727215, 0.04980211332440376, 0.035649288445711136, 0.10122989863157272, 0.508131742477417, 0.07838761806488037, 0.16989241540431976], [0.05806734412908554, 0.0013449157122522593, 0.00018529796216171235, 0.0006333301425911486, 0.0013144525000825524, 0.0008669663220643997, 0.0003547933592926711, 0.0002754193847067654, 0.0007703971350565553, 0.00054799864301458, 0.0016101598739624023, 0.00042211663094349205, 0.0027824039570987225, 0.004837498534470797, 0.008112349547445774, 0.04068123921751976, 0.04332990571856499, 0.15129055082798004, 0.13650479912757874, 0.2832769751548767, 0.26279112696647644]], [[0.015189903788268566, 0.037412166595458984, 0.04525728151202202, 0.06551890075206757, 0.12555155158042908, 0.08164546638727188, 0.02664700150489807, 0.016032734885811806, 0.03391648828983307, 0.034393515437841415, 0.0387151800096035, 0.054621633142232895, 0.15806661546230316, 0.03793253004550934, 0.020032264292240143, 0.03355374187231064, 0.030270855873823166, 0.04065627604722977, 0.03735535219311714, 0.04865201935172081, 0.018578458577394485], [0.05760381370782852, 0.10174217820167542, 0.014614674262702465, 0.003651662264019251, 0.0012639987980946898, 0.0005312832654453814, 0.0793117880821228, 0.049384020268917084, 0.09626926481723785, 0.014386152848601341, 0.08853210508823395, 0.013121603056788445, 0.0010795887792482972, 0.09312894940376282, 0.010583891533315182, 0.035194043070077896, 0.036794841289520264, 0.059476401656866074, 0.013016976416110992, 0.011440079659223557, 0.21887272596359253], [0.057614490389823914, 0.04347003251314163, 0.04429458826780319, 0.032041996717453, 0.013349784538149834, 0.009446470066905022, 0.22944310307502747, 0.05678049474954605, 0.037986353039741516, 0.05068134143948555, 0.03926879167556763, 0.054095808416604996, 0.01357988454401493, 0.03596668690443039, 0.0324590802192688, 0.04215402528643608, 0.062141142785549164, 0.03166642785072327, 0.05888449400663376, 0.01210169680416584, 0.04257326200604439], [0.07436109334230423, 0.029052581638097763, 0.08086100220680237, 0.01571941189467907, 0.016311118379235268, 0.011112147010862827, 0.09326057881116867, 0.023929262533783913, 0.02473616786301136, 0.10966365039348602, 0.029650144279003143, 0.09776458889245987, 0.02219451032578945, 0.03336818516254425, 0.06840363144874573, 0.024663234129548073, 0.028544949367642403, 0.0324510894715786, 0.05222230777144432, 0.0859917625784874, 0.04573855549097061], [0.17535483837127686, 0.06500668078660965, 0.03758373111486435, 0.029399964958429337, 0.01627814583480358, 0.003685134695842862, 0.13884243369102478, 0.025515401735901833, 0.05634896829724312, 0.02369578368961811, 0.05364241078495979, 0.03293854743242264, 0.015394793823361397, 0.058066967874765396, 0.025712355971336365, 0.02246628701686859, 0.02354620024561882, 0.03824847564101219, 0.03114374727010727, 0.005408293101936579, 0.12172079086303711], [0.07582800835371017, 0.08552233129739761, 0.037782128900289536, 0.02603863552212715, 0.013151424936950207, 0.0032298527657985687, 0.07432235032320023, 0.030466020107269287, 0.0702536329627037, 0.021201184019446373, 0.0719398707151413, 0.03283210098743439, 0.011639313772320747, 0.0718083307147026, 0.020271126180887222, 0.04085787013173103, 0.045728228986263275, 0.04513777047395706, 0.034702401608228683, 0.008571257814764977, 0.17871618270874023], [0.020030682906508446, 0.04601201042532921, 0.06893002986907959, 0.03027796559035778, 0.006152010522782803, 0.011987823992967606, 0.14320969581604004, 0.02993505820631981, 0.03921695798635483, 0.12039151787757874, 0.052331726998090744, 0.08779086917638779, 0.005715291481465101, 0.04728209227323532, 0.10098956525325775, 0.02662801742553711, 0.030600348487496376, 0.04315316677093506, 0.03883543983101845, 0.023737480863928795, 0.02679225616157055], [0.13497883081436157, 0.075834721326828, 0.038603849709033966, 0.04554334282875061, 0.01532346848398447, 0.0022529996931552887, 0.09625931084156036, 0.016145577654242516, 0.05796876549720764, 0.03363163769245148, 0.06470193713903427, 0.034588128328323364, 0.011061008088290691, 0.0703292265534401, 0.03203994408249855, 0.02965848334133625, 0.01645384170114994, 0.04053838551044464, 0.03404613584280014, 0.010649645701050758, 0.13939081132411957], [0.1201765313744545, 0.09443395584821701, 0.012016644701361656, 0.0040981704369187355, 0.0010955968173220754, 0.0003960462927352637, 0.06811347603797913, 0.03930262103676796, 0.0856931135058403, 0.012028143741190434, 0.08209473639726639, 0.010681078769266605, 0.0009582136990502477, 0.09478873759508133, 0.009952953085303307, 0.0295077096670866, 0.0336432121694088, 0.056831832975149155, 0.009959213435649872, 0.00523727759718895, 0.2289908528327942], [0.0074065085500478745, 0.04300158843398094, 0.058808937668800354, 0.018623948097229004, 0.0037668400909751654, 0.008015361614525318, 0.06530176848173141, 0.05626409873366356, 0.04934246838092804, 0.04118123650550842, 0.06086164712905884, 0.0772610604763031, 0.0049209496937692165, 0.05198580399155617, 0.11251816898584366, 0.03544773906469345, 0.0862327367067337, 0.056351739913225174, 0.12461237609386444, 0.021276336163282394, 0.016818681731820107], [0.10365533083677292, 0.1024511530995369, 0.012869538739323616, 0.004098103381693363, 0.0010205773869529366, 0.00044404491200111806, 0.0689031183719635, 0.04273492842912674, 0.09645101428031921, 0.013841419480741024, 0.07777806371450424, 0.00971145462244749, 0.0008321119239553809, 0.09532518684864044, 0.010128095746040344, 0.030118314549326897, 0.03479211404919624, 0.06071128696203232, 0.009681953117251396, 0.005841949954628944, 0.21861013770103455], [0.08528734743595123, 0.04563690721988678, 0.04547164961695671, 0.038178566843271255, 0.011950880289077759, 0.008944807574152946, 0.19311417639255524, 0.04438674822449684, 0.04151555895805359, 0.06554665416479111, 0.036544304341077805, 0.04312937706708908, 0.00991741195321083, 0.036481425166130066, 0.037389714270830154, 0.03949851170182228, 0.04925794526934624, 0.03287334740161896, 0.07061577588319778, 0.01035934966057539, 0.053899601101875305], [0.14263014495372772, 0.05398447811603546, 0.047628894448280334, 0.030197134241461754, 0.02029174380004406, 0.004984264262020588, 0.14030024409294128, 0.02709091641008854, 0.05007324740290642, 0.033744797110557556, 0.04545894265174866, 0.04014318808913231, 0.014289856888353825, 0.04678328335285187, 0.02618805505335331, 0.03262387216091156, 0.023287763819098473, 0.033109650015830994, 0.0409829244017601, 0.008523346856236458, 0.13768331706523895], [0.09094887971878052, 0.09286462515592575, 0.012872728519141674, 0.003941589500755072, 0.0011136035900563002, 0.0004234490916132927, 0.06571308523416519, 0.04031096026301384, 0.08970466256141663, 0.014974960125982761, 0.08438827097415924, 0.011653841473162174, 0.0009596485178917646, 0.08207129687070847, 0.008165039122104645, 0.03034568950533867, 0.038279443979263306, 0.06291014701128006, 0.011593237519264221, 0.0064055584371089935, 0.2503592371940613], [0.074823297560215, 0.013475385494530201, 0.0755755677819252, 0.04389107972383499, 0.01847176067531109, 0.011189387179911137, 0.06107570603489876, 0.02801327407360077, 0.015440165065228939, 0.13247859477996826, 0.018699444830417633, 0.11515407264232635, 0.025647159665822983, 0.01646643504500389, 0.11379031836986542, 0.0308169387280941, 0.03654512017965317, 0.018811248242855072, 0.0695004090666771, 0.03738560155034065, 0.04274909570813179], [0.0901864618062973, 0.057284317910671234, 0.0314268134534359, 0.04552925378084183, 0.016377419233322144, 0.003832784481346607, 0.09403395652770996, 0.03600611910223961, 0.06200148165225983, 0.02476349286735058, 0.06651382148265839, 0.03285782039165497, 0.018076520413160324, 0.0754798874258995, 0.03994525223970413, 0.023577848449349403, 0.02049347199499607, 0.0609731562435627, 0.043633799999952316, 0.02713572233915329, 0.12987057864665985], [0.07943395525217056, 0.02298455871641636, 0.06177275627851486, 0.032262708991765976, 0.019640354439616203, 0.004215285647660494, 0.10028941184282303, 0.021792562678456306, 0.024957800284028053, 0.07414896041154861, 0.026020755991339684, 0.06549307703971863, 0.020217478275299072, 0.036088719964027405, 0.06300924718379974, 0.02375742234289646, 0.014643939211964607, 0.027323001995682716, 0.07170707732439041, 0.064541295170784, 0.14569969475269318], [0.09919241070747375, 0.07509765774011612, 0.012836423702538013, 0.0037454685661941767, 0.0010270181810483336, 0.00041413470171391964, 0.07391640543937683, 0.04841388389468193, 0.07865427434444427, 0.01627684012055397, 0.0725768581032753, 0.01214448269456625, 0.0008976437384262681, 0.08568528294563293, 0.009594770148396492, 0.037789762020111084, 0.038654714822769165, 0.0518546961247921, 0.012414897792041302, 0.007435648236423731, 0.2613767683506012], [0.016697542741894722, 0.013633813709020615, 0.06855906546115875, 0.03163691610097885, 0.013948498293757439, 0.010905752889811993, 0.041038282215595245, 0.08181281387805939, 0.015518740750849247, 0.04229943826794624, 0.016591088846325874, 0.07759507745504379, 0.014848764054477215, 0.016493573784828186, 0.09225989133119583, 0.057510387152433395, 0.06823702156543732, 0.01889694482088089, 0.25045478343963623, 0.019958244636654854, 0.031103286892175674], [0.11037098616361618, 0.06026361882686615, 0.03996696695685387, 0.019826184958219528, 0.009758814238011837, 0.0029142892453819513, 0.0923258513212204, 0.03797517716884613, 0.06872522085905075, 0.04361804202198982, 0.0610555075109005, 0.04135178029537201, 0.010631660930812359, 0.07656572014093399, 0.029608894139528275, 0.03678992763161659, 0.02651924267411232, 0.05775654315948486, 0.053746629506349564, 0.011250996962189674, 0.10897797346115112], [0.054020870476961136, 0.1236966922879219, 0.030248766764998436, 0.009463459253311157, 0.0034493026323616505, 0.000405243830755353, 0.0682789757847786, 0.028041046112775803, 0.077629953622818, 0.07522203028202057, 0.08299647271633148, 0.028279971331357956, 0.0047163707204163074, 0.09563618153333664, 0.016126025468111038, 0.023677559569478035, 0.02862348034977913, 0.10289867967367172, 0.06702003628015518, 0.02805185876786709, 0.05151696875691414]], [[0.08970491588115692, 0.013781948946416378, 0.025197762995958328, 0.06511135399341583, 0.07839496433734894, 0.018154092133045197, 0.10092559456825256, 0.021308500319719315, 0.014302638359367847, 0.08702608197927475, 0.016040174290537834, 0.029767170548439026, 0.08535715937614441, 0.0146657545119524, 0.1960676610469818, 0.04053735360503197, 0.030960990116000175, 0.015074065886437893, 0.02269425056874752, 0.016372311860322952, 0.01855536177754402], [0.002731268061324954, 0.0790499746799469, 0.00858265720307827, 0.003941231872886419, 0.008086315356194973, 0.04847197234630585, 0.011075279675424099, 0.22508318722248077, 0.07517646998167038, 0.006254746578633785, 0.07160837948322296, 0.0072196233086287975, 0.005936851724982262, 0.06683725118637085, 0.0050146011635661125, 0.0189759973436594, 0.04557046666741371, 0.06904909014701843, 0.0073750815354287624, 0.12369940429925919, 0.11026021838188171], [0.11911577731370926, 0.00977415218949318, 0.05968206375837326, 0.1294211596250534, 0.02543225884437561, 0.017778754234313965, 0.04663710668683052, 0.009012223221361637, 0.012069916352629662, 0.08684968948364258, 0.01213475689291954, 0.06503557413816452, 0.02575884945690632, 0.011796392500400543, 0.1871882677078247, 0.03560134768486023, 0.04184296727180481, 0.010110118426382542, 0.056493259966373444, 0.005936042405664921, 0.03232928737998009], [0.01240476407110691, 0.03631821274757385, 0.03625839948654175, 0.04344233125448227, 0.04518718644976616, 0.030158888548612595, 0.11913445591926575, 0.049532920122146606, 0.042180366814136505, 0.06314969062805176, 0.04132504388689995, 0.038577914237976074, 0.0271541066467762, 0.032739464193582535, 0.24257400631904602, 0.015178793109953403, 0.01367484126240015, 0.028005778789520264, 0.04270249232649803, 0.02091383934020996, 0.01938645914196968], [0.03901524841785431, 0.037751808762550354, 0.043654054403305054, 0.04807973653078079, 0.028573965653777122, 0.03131507709622383, 0.05498836562037468, 0.039943426847457886, 0.036958836019039154, 0.03516389802098274, 0.03762445226311684, 0.04310254752635956, 0.025448700413107872, 0.037818945944309235, 0.1766732931137085, 0.03957603871822357, 0.05098960921168327, 0.03593970090150833, 0.07813679426908493, 0.02056206949055195, 0.058683354407548904], [0.04021637141704559, 0.04350670427083969, 0.03065694123506546, 0.025309288874268532, 0.030950356274843216, 0.03974378854036331, 0.027462664991617203, 0.08547361940145493, 0.040923163294792175, 0.020123647525906563, 0.03973303362727165, 0.028047233819961548, 0.026031218469142914, 0.04051285237073898, 0.06326805055141449, 0.036943066865205765, 0.0953550785779953, 0.04187973961234093, 0.03312654793262482, 0.052726782858371735, 0.158009871840477], [0.029253900051116943, 0.019114218652248383, 0.060869548469781876, 0.08208981901407242, 0.021665310487151146, 0.018014997243881226, 0.14738549292087555, 0.012113160453736782, 0.019411461427807808, 0.06389834731817245, 0.020635413005948067, 0.0752173662185669, 0.023824825882911682, 0.021894829347729683, 0.15378537774085999, 0.01996070332825184, 0.02223161607980728, 0.02158304490149021, 0.10958074778318405, 0.01661750301718712, 0.040852367877960205], [0.03201970458030701, 0.05369870737195015, 0.038687270134687424, 0.16690245270729065, 0.02632211335003376, 0.023626849055290222, 0.04627788066864014, 0.01494679506868124, 0.04237576574087143, 0.042242877185344696, 0.045581430196762085, 0.039838895201683044, 0.02336215227842331, 0.042681995779275894, 0.1325521320104599, 0.024004600942134857, 0.02447074092924595, 0.04129921644926071, 0.0975663959980011, 0.00749734602868557, 0.034044597297906876], [0.00249299593269825, 0.06810645014047623, 0.0077432855032384396, 0.00362763530574739, 0.009095127694308758, 0.04880162701010704, 0.009245617315173149, 0.22107426822185516, 0.059133317321538925, 0.005984040908515453, 0.05830679461359978, 0.0065100365318357944, 0.006853837054222822, 0.056571777909994125, 0.003620509058237076, 0.019740857183933258, 0.045111965388059616, 0.06231263279914856, 0.007899776101112366, 0.15247346460819244, 0.1452939510345459], [0.08332259207963943, 0.007589917629957199, 0.019453002139925957, 0.029691843315958977, 0.023138267919421196, 0.021490691229701042, 0.1524498611688614, 0.01240196917206049, 0.007499741390347481, 0.24298040568828583, 0.008943584747612476, 0.020110737532377243, 0.0274346936494112, 0.009136902168393135, 0.13046382367610931, 0.040141962468624115, 0.03617676720023155, 0.008262055926024914, 0.01944870315492153, 0.02411138080060482, 0.07575111836194992], [0.0019620151724666357, 0.06871208548545837, 0.006354471668601036, 0.0033137549180537462, 0.007989097386598587, 0.04648199677467346, 0.008901635184884071, 0.21989168226718903, 0.06162593141198158, 0.005321645177900791, 0.05848350003361702, 0.005341935902833939, 0.006257324479520321, 0.057539939880371094, 0.0033798380754888058, 0.020584508776664734, 0.04788607358932495, 0.06488116085529327, 0.007308632135391235, 0.1654631346464157, 0.13231970369815826], [0.1092357262969017, 0.008269059471786022, 0.061965227127075195, 0.127214714884758, 0.028498662635684013, 0.02019161358475685, 0.04807175323367119, 0.009915603324770927, 0.011324524879455566, 0.0948997214436531, 0.011308806948363781, 0.06829720735549927, 0.030035123229026794, 0.011028127744793892, 0.14437799155712128, 0.042146675288677216, 0.04722769930958748, 0.00975150614976883, 0.06202631816267967, 0.009522434324026108, 0.044691476970911026], [0.04288158565759659, 0.028225500136613846, 0.04340824484825134, 0.04174409806728363, 0.031133832409977913, 0.034140657633543015, 0.051919203251600266, 0.03931457921862602, 0.03281870856881142, 0.04336152598261833, 0.03498271852731705, 0.04940563067793846, 0.029043979942798615, 0.03399982303380966, 0.1452062726020813, 0.04558590054512024, 0.047652143985033035, 0.03331439197063446, 0.0860520750284195, 0.02496889978647232, 0.08084027469158173], [0.002451234729960561, 0.06141199916601181, 0.007733847014605999, 0.0040012141689658165, 0.010700773447751999, 0.052041854709386826, 0.009367278777062893, 0.21472974121570587, 0.05793021246790886, 0.006858283653855324, 0.05725456029176712, 0.006948551628738642, 0.008081098087131977, 0.05346952751278877, 0.004141622222959995, 0.02202831208705902, 0.04836931824684143, 0.06190738081932068, 0.007540443446487188, 0.1599990576505661, 0.1430336833000183], [0.010455857962369919, 0.04741053655743599, 0.04493651166558266, 0.07141698896884918, 0.01621123217046261, 0.03823576122522354, 0.1137089654803276, 0.045542772859334946, 0.03623257949948311, 0.12023193389177322, 0.0369349904358387, 0.043887730687856674, 0.013678510673344135, 0.03307854011654854, 0.0693688839673996, 0.030344216153025627, 0.03940722346305847, 0.038956448435783386, 0.05451587215065956, 0.05983259901404381, 0.035611823201179504], [0.041251879185438156, 0.023210760205984116, 0.014421451836824417, 0.10672435164451599, 0.041156306862831116, 0.016958795487880707, 0.05838499963283539, 0.028108295053243637, 0.023469218984246254, 0.06248052790760994, 0.025911003351211548, 0.016815144568681717, 0.03375888243317604, 0.024295423179864883, 0.25269195437431335, 0.010944916866719723, 0.04514668881893158, 0.026440124958753586, 0.04767858609557152, 0.01852363534271717, 0.0816269963979721], [0.01761498861014843, 0.02933928556740284, 0.020170079544186592, 0.0624835342168808, 0.027481568977236748, 0.017163049429655075, 0.09267046302556992, 0.03857995569705963, 0.0286241564899683, 0.09456874430179596, 0.02912546694278717, 0.023779727518558502, 0.024789193645119667, 0.02973216213285923, 0.21661292016506195, 0.015852171927690506, 0.01693861186504364, 0.03041575849056244, 0.08068370819091797, 0.03680463507771492, 0.06656984239816666], [0.002048252848908305, 0.05251273140311241, 0.006945652887225151, 0.0032769369427114725, 0.009999704547226429, 0.047635532915592194, 0.007755544036626816, 0.20650991797447205, 0.0552377924323082, 0.006181144155561924, 0.05423883721232414, 0.00643459428101778, 0.008218314498662949, 0.05301712825894356, 0.0035198740661144257, 0.023010317236185074, 0.0485808402299881, 0.060320544987916946, 0.008298228494822979, 0.18467313051223755, 0.1515849530696869], [0.04520066827535629, 0.006888509262353182, 0.08572596311569214, 0.06324291974306107, 0.03402147814631462, 0.041944533586502075, 0.1361512839794159, 0.009325696155428886, 0.011461099609732628, 0.16645577549934387, 0.013626721687614918, 0.12305821478366852, 0.0394253209233284, 0.010347303003072739, 0.05385357514023781, 0.045005105435848236, 0.021935973316431046, 0.013969472609460354, 0.028006890788674355, 0.0203457772731781, 0.030007803812623024], [0.013638485223054886, 0.03783899173140526, 0.03940887376666069, 0.08812451362609863, 0.027645690366625786, 0.031931329518556595, 0.037750244140625, 0.0806635394692421, 0.03932853788137436, 0.03322746604681015, 0.03917936235666275, 0.042220696806907654, 0.02430996298789978, 0.04177135229110718, 0.05152454972267151, 0.04524001106619835, 0.0568518191576004, 0.045553579926490784, 0.08412764221429825, 0.05659644678235054, 0.08306684345006943], [0.013642104342579842, 0.0223105289041996, 0.014753867872059345, 0.007441243622452021, 0.02770572155714035, 0.04634677618741989, 0.020139381289482117, 0.14626145362854004, 0.02559460699558258, 0.01631329022347927, 0.026097102090716362, 0.01566266641020775, 0.0274591576308012, 0.02624150924384594, 0.01562618464231491, 0.04597306624054909, 0.06330599635839462, 0.02936498634517193, 0.01805884949862957, 0.21604211628437042, 0.1756593883037567]], [[0.06927703320980072, 0.0021434295922517776, 0.01291055977344513, 0.17847205698490143, 0.01092533953487873, 0.005730856209993362, 0.10962928831577301, 0.009850988164544106, 0.0022221074905246496, 0.11722785234451294, 0.0025870974641293287, 0.013114473782479763, 0.008928125724196434, 0.002470567589625716, 0.29891178011894226, 0.08743345737457275, 0.01780983991920948, 0.002073501003906131, 0.02129260264337063, 0.009767805226147175, 0.017221303656697273], [0.134322389960289, 0.004599311389029026, 0.0411841943860054, 0.0324237234890461, 0.08622871339321136, 0.0929654911160469, 0.028061753138899803, 0.07900646328926086, 0.004501880146563053, 0.026824098080396652, 0.004325679037719965, 0.04767841473221779, 0.09509709477424622, 0.004221868701279163, 0.02535155601799488, 0.023328669369220734, 0.06227608397603035, 0.004359633661806583, 0.024491798132658005, 0.05583144724369049, 0.12291979044675827], [0.06264139711856842, 0.024179238826036453, 0.04096287488937378, 0.04592617228627205, 0.10635189712047577, 0.0653616413474083, 0.041361935436725616, 0.02921247109770775, 0.026525260880589485, 0.09433393180370331, 0.02983519248664379, 0.05459858104586601, 0.10137853771448135, 0.027532631531357765, 0.08844155073165894, 0.022811761125922203, 0.029861031100153923, 0.01918025128543377, 0.03229953721165657, 0.023218227550387383, 0.033985838294029236], [0.26209405064582825, 0.004469613078981638, 0.025467798113822937, 0.07112811505794525, 0.03728426247835159, 0.009471754543483257, 0.06909508258104324, 0.03918926417827606, 0.0054906378500163555, 0.03778868168592453, 0.00653923861682415, 0.02887677401304245, 0.040246300399303436, 0.006065986584872007, 0.04825540632009506, 0.08856601268053055, 0.06067871302366257, 0.004987929482012987, 0.057139962911605835, 0.0704619362950325, 0.026702454313635826], [0.10162415355443954, 0.0063263168558478355, 0.04512898996472359, 0.12603916227817535, 0.06680453568696976, 0.044854290783405304, 0.05357770994305611, 0.029057230800390244, 0.006846803240478039, 0.06613599509000778, 0.006957978010177612, 0.04669245705008507, 0.06633669137954712, 0.006803421303629875, 0.12394441664218903, 0.05477922782301903, 0.03867539390921593, 0.004569776356220245, 0.020169002935290337, 0.03531975299119949, 0.049356721341609955], [0.11126937717199326, 0.005238230340182781, 0.058664869517087936, 0.0425165630877018, 0.10584750026464462, 0.08625837415456772, 0.03320442885160446, 0.047143757343292236, 0.005060148891061544, 0.05212146416306496, 0.005442121997475624, 0.06710657477378845, 0.11603835970163345, 0.005526683293282986, 0.042905427515506744, 0.02342936582863331, 0.04208969697356224, 0.004634222947061062, 0.02619762159883976, 0.045137301087379456, 0.07416796684265137], [0.05276070907711983, 0.018406501039862633, 0.03839964047074318, 0.06213965639472008, 0.09153691679239273, 0.07796548306941986, 0.06294593960046768, 0.015914244577288628, 0.018526716157794, 0.04504375532269478, 0.020757703110575676, 0.04177054390311241, 0.08106700330972672, 0.02043321169912815, 0.0879044458270073, 0.08703332394361496, 0.03701554611325264, 0.01609356701374054, 0.021632449701428413, 0.02569705620408058, 0.07695552706718445], [0.13044387102127075, 0.004775786306709051, 0.04879148676991463, 0.06042403355240822, 0.058490801602602005, 0.07769599556922913, 0.05556861311197281, 0.03775351122021675, 0.005072591360658407, 0.04279313609004021, 0.004635278135538101, 0.04675571247935295, 0.05054328963160515, 0.004162427503615618, 0.058235522359609604, 0.019469883292913437, 0.04897052049636841, 0.0037760483101010323, 0.0373506098985672, 0.04254123196005821, 0.1617497056722641], [0.1676214337348938, 0.0033509063068777323, 0.04563809186220169, 0.025425629690289497, 0.07426609098911285, 0.0887392982840538, 0.024544833227992058, 0.06344883888959885, 0.003225501161068678, 0.02083265222609043, 0.0032320814207196236, 0.05194687843322754, 0.08863312751054764, 0.003189437324181199, 0.02274232544004917, 0.01797766238451004, 0.0604901984333992, 0.003365937154740095, 0.028069647029042244, 0.05352981016039848, 0.14972954988479614], [0.1550912857055664, 0.012692475691437721, 0.03425712138414383, 0.04972979053854942, 0.03546895086765289, 0.06310141831636429, 0.11051462590694427, 0.033351488411426544, 0.010152650997042656, 0.11245770752429962, 0.010178607888519764, 0.03793824836611748, 0.03201249614357948, 0.009172520600259304, 0.037440963089466095, 0.010856060311198235, 0.027652980759739876, 0.010321803390979767, 0.035582367330789566, 0.03674878552556038, 0.13527759909629822], [0.16917464137077332, 0.003362908260896802, 0.04742377623915672, 0.02272195741534233, 0.08313508331775665, 0.07501651346683502, 0.02455618605017662, 0.08348841965198517, 0.0033770285081118345, 0.02046748250722885, 0.003282455727458, 0.052381303161382675, 0.09967449307441711, 0.0033024477306753397, 0.020760638639330864, 0.014597220346331596, 0.06364315748214722, 0.0032713990658521652, 0.027487605810165405, 0.059292271733284, 0.11958301812410355], [0.07481622695922852, 0.018582254648208618, 0.050934117287397385, 0.0373820923268795, 0.0991903692483902, 0.0630669817328453, 0.04019549861550331, 0.02984480746090412, 0.021976573392748833, 0.09006599336862564, 0.02432902529835701, 0.06608482450246811, 0.09638658165931702, 0.022869877517223358, 0.09999074041843414, 0.018521301448345184, 0.032125551253557205, 0.016030248254537582, 0.03689056262373924, 0.024852309376001358, 0.03586408495903015], [0.09556519240140915, 0.0066548665054142475, 0.04049009084701538, 0.11726221442222595, 0.06108441203832626, 0.04726177453994751, 0.054081231355667114, 0.02287406288087368, 0.008380829356610775, 0.06447119265794754, 0.008607545867562294, 0.04519069194793701, 0.06232980638742447, 0.008413474075496197, 0.15116369724273682, 0.05157310888171196, 0.03832562640309334, 0.005716847721487284, 0.021194010972976685, 0.037884607911109924, 0.051474735140800476], [0.15830357372760773, 0.004456678405404091, 0.046255044639110565, 0.027043038979172707, 0.07593424618244171, 0.0783664658665657, 0.029689624905586243, 0.07022372633218765, 0.004688961897045374, 0.02280600368976593, 0.004674003459513187, 0.05320492386817932, 0.09046360850334167, 0.004553040023893118, 0.025242339819669724, 0.017557458952069283, 0.06759443134069443, 0.0046651121228933334, 0.028362931683659554, 0.05883636325597763, 0.12707838416099548], [0.2998843193054199, 0.004026027861982584, 0.035402316600084305, 0.044260717928409576, 0.01251701544970274, 0.04047694057226181, 0.08671694993972778, 0.014848857186734676, 0.004424418322741985, 0.02850901149213314, 0.004363956395536661, 0.045076463371515274, 0.014406837522983551, 0.003073743311688304, 0.03515635430812836, 0.005391872022300959, 0.026484720408916473, 0.0035796319134533405, 0.031266048550605774, 0.014330723322927952, 0.2458031326532364], [0.06410661339759827, 0.007180455606430769, 0.04492999240756035, 0.030040614306926727, 0.14130569994449615, 0.1004372239112854, 0.02582532912492752, 0.041477642953395844, 0.009338079020380974, 0.04505200311541557, 0.010394466109573841, 0.05961208790540695, 0.13179326057434082, 0.009160032495856285, 0.09733664244413376, 0.010639437474310398, 0.043444517999887466, 0.007885156199336052, 0.037225477397441864, 0.0424935519695282, 0.040321819484233856], [0.13994061946868896, 0.009496761485934258, 0.04263928532600403, 0.051128990948200226, 0.03641129285097122, 0.06303246319293976, 0.0383622981607914, 0.04694327712059021, 0.01119614765048027, 0.023560743778944016, 0.009811291471123695, 0.04081728309392929, 0.03057963028550148, 0.009023678489029408, 0.10802050679922104, 0.026201952248811722, 0.06064959615468979, 0.010718354023993015, 0.05176885426044464, 0.08550126850605011, 0.10419580340385437], [0.21444037556648254, 0.0026279320009052753, 0.04445890709757805, 0.02301877923309803, 0.06800416111946106, 0.06255196034908295, 0.029839489609003067, 0.07553756982088089, 0.0028248659800738096, 0.019524237141013145, 0.0027559525333344936, 0.05050479248166084, 0.08245866745710373, 0.0027827234007418156, 0.021048372611403465, 0.01466310489922762, 0.06654733419418335, 0.002816728549078107, 0.028903678059577942, 0.05814296379685402, 0.12654748558998108], [0.08797501027584076, 0.028708674013614655, 0.03525556996464729, 0.0339047908782959, 0.0261154156178236, 0.024091387167572975, 0.03196787089109421, 0.043884020298719406, 0.030228275805711746, 0.06615569442510605, 0.029979940503835678, 0.03793399780988693, 0.025356438010931015, 0.028103133663535118, 0.0956445038318634, 0.03545457124710083, 0.03549391031265259, 0.030582642182707787, 0.17110592126846313, 0.05336471274495125, 0.048693496733903885], [0.060107991099357605, 0.0074041131883859634, 0.042027052491903305, 0.060079723596572876, 0.06892067193984985, 0.10762099176645279, 0.031771376729011536, 0.042030107229948044, 0.012484313920140266, 0.03717648237943649, 0.011297821998596191, 0.0487966388463974, 0.06964625418186188, 0.010735026560723782, 0.0967443436384201, 0.03562553599476814, 0.059547215700149536, 0.009506446309387684, 0.03141956031322479, 0.046116169542074203, 0.11094221472740173], [0.23071207106113434, 0.002920889761298895, 0.04162026569247246, 0.07456956058740616, 0.05589085817337036, 0.0453840047121048, 0.052433352917432785, 0.03431582823395729, 0.0027536593843251467, 0.03300260379910469, 0.002771294442936778, 0.041474029421806335, 0.05778181925415993, 0.002809782512485981, 0.05424932762980461, 0.02141623944044113, 0.03880153223872185, 0.0026120112743228674, 0.03484100103378296, 0.026379214599728584, 0.14326068758964539]], [[0.02364543080329895, 0.05223768576979637, 0.028091633692383766, 0.03728030249476433, 0.06725500524044037, 0.05811578780412674, 0.05963194742798805, 0.076190285384655, 0.060718074440956116, 0.024196086451411247, 0.06171862781047821, 0.02989446558058262, 0.05412735044956207, 0.058018967509269714, 0.017244618386030197, 0.060527656227350235, 0.06504644453525543, 0.055163949728012085, 0.03172880783677101, 0.059097614139318466, 0.020069289952516556], [0.4492316246032715, 0.014240425080060959, 0.018750103190541267, 0.006701601669192314, 0.0670565515756607, 0.03599974140524864, 0.015266169793903828, 0.058346524834632874, 0.016951488330960274, 0.005381061229854822, 0.01506701111793518, 0.018486548215150833, 0.05805584043264389, 0.015238750725984573, 0.0101380730047822, 0.05408613383769989, 0.05097281560301781, 0.015230846591293812, 0.0044285887852311134, 0.058038681745529175, 0.012331569567322731], [0.1350458413362503, 0.019724255427718163, 0.02656843140721321, 0.045629870146512985, 0.022501140832901, 0.012971656396985054, 0.12844601273536682, 0.006631467025727034, 0.012029621750116348, 0.30835282802581787, 0.011505217291414738, 0.024181047454476357, 0.027911212295293808, 0.010968010872602463, 0.05910361185669899, 0.01738511025905609, 0.015412256121635437, 0.011586138978600502, 0.04545842111110687, 0.012580746784806252, 0.04600716009736061], [0.20397146046161652, 0.030013831332325935, 0.053077854216098785, 0.015377067029476166, 0.04532250389456749, 0.0320931002497673, 0.11136266589164734, 0.024568554013967514, 0.026350632309913635, 0.031874995678663254, 0.02525479719042778, 0.04678471013903618, 0.04004671424627304, 0.02504751645028591, 0.09295570850372314, 0.039562661200761795, 0.02505909837782383, 0.027621066197752953, 0.046016059815883636, 0.037545036524534225, 0.020093943923711777], [0.1995973289012909, 0.0357837900519371, 0.027473730966448784, 0.020867807790637016, 0.022731617093086243, 0.02950272522866726, 0.06437940150499344, 0.09529328346252441, 0.03563476726412773, 0.055355317890644073, 0.030362863093614578, 0.028673309832811356, 0.028808480128645897, 0.03376614674925804, 0.04024600610136986, 0.04063645377755165, 0.0500028170645237, 0.035501498728990555, 0.02372181974351406, 0.04423851892352104, 0.057422347366809845], [0.07150956243276596, 0.05760936811566353, 0.04104181006550789, 0.02101549506187439, 0.027575694024562836, 0.01562706008553505, 0.06583254039287567, 0.12872904539108276, 0.059900786727666855, 0.03560994565486908, 0.04887848719954491, 0.03383992612361908, 0.03391792252659798, 0.054375339299440384, 0.03534582629799843, 0.03656735271215439, 0.08133957535028458, 0.05206623300909996, 0.019494077190756798, 0.03780513256788254, 0.0419187992811203], [0.06105586513876915, 0.026808151975274086, 0.06435500830411911, 0.02857976406812668, 0.025732100009918213, 0.026572203263640404, 0.07762711495161057, 0.026747481897473335, 0.025359049439430237, 0.07066840678453445, 0.023464186117053032, 0.06770247220993042, 0.027953321114182472, 0.029392318800091743, 0.2687127888202667, 0.01689700037240982, 0.03241785615682602, 0.02472263015806675, 0.03173261135816574, 0.027834605425596237, 0.015665069222450256], [0.156497985124588, 0.032161399722099304, 0.04255668446421623, 0.05315355584025383, 0.05890585109591484, 0.05744216591119766, 0.03843303769826889, 0.03227510303258896, 0.03311362862586975, 0.038486018776893616, 0.028562894091010094, 0.035843659192323685, 0.055466920137405396, 0.03257942944765091, 0.033650100231170654, 0.045372724533081055, 0.048688631504774094, 0.03005087748169899, 0.03820361569523811, 0.0717775821685791, 0.03677821159362793], [0.36752191185951233, 0.01801350899040699, 0.025228125974535942, 0.008436278440058231, 0.07087322324514389, 0.04151473194360733, 0.01759917661547661, 0.07542377710342407, 0.021161377429962158, 0.010143154300749302, 0.019125917926430702, 0.025290274992585182, 0.0613967590034008, 0.019074751064181328, 0.01117644552141428, 0.05602942407131195, 0.06031258776783943, 0.019666073843836784, 0.008259572088718414, 0.04582773521542549, 0.0179250817745924], [0.05736412853002548, 0.013783586211502552, 0.1728469878435135, 0.009081006050109863, 0.0056703295558691025, 0.005765089299529791, 0.13176943361759186, 0.009614062495529652, 0.013881667517125607, 0.18298977613449097, 0.01282078679651022, 0.12837526202201843, 0.006536364555358887, 0.009492332115769386, 0.03919219970703125, 0.01142815500497818, 0.018990589305758476, 0.011253566481173038, 0.04640718922019005, 0.013706836849451065, 0.09903060644865036], [0.4087603688240051, 0.01751788705587387, 0.02807655930519104, 0.009870395064353943, 0.05634424462914467, 0.03506242111325264, 0.02255614660680294, 0.06858444958925247, 0.022181279957294464, 0.010812845081090927, 0.017685644328594208, 0.025526821613311768, 0.04871772229671478, 0.017736822366714478, 0.012588564306497574, 0.05015977472066879, 0.05667809024453163, 0.019204869866371155, 0.008905963972210884, 0.046819765120744705, 0.01620924100279808], [0.08399657905101776, 0.01635337434709072, 0.028721937909722328, 0.05052971467375755, 0.017685189843177795, 0.012587056495249271, 0.1276664435863495, 0.005637656897306442, 0.01228263508528471, 0.33841672539711, 0.010883420705795288, 0.024582020938396454, 0.02032499574124813, 0.010215775109827518, 0.07621883600950241, 0.013306757435202599, 0.012873816303908825, 0.01134173572063446, 0.06635130196809769, 0.009646234102547169, 0.050377897918224335], [0.1394716501235962, 0.034630633890628815, 0.029028845950961113, 0.022190289571881294, 0.026047397404909134, 0.04154328256845474, 0.06346207112073898, 0.0898740366101265, 0.042155034840106964, 0.059198956936597824, 0.03676453232765198, 0.0320109985768795, 0.02889397367835045, 0.036334678530693054, 0.05317843332886696, 0.034735336899757385, 0.03615516424179077, 0.03867509216070175, 0.034303490072488785, 0.04285412281751633, 0.07849188894033432], [0.3444921672344208, 0.017858728766441345, 0.02550686150789261, 0.009641354903578758, 0.071160688996315, 0.0461929552257061, 0.02007000520825386, 0.07747964560985565, 0.023858701810240746, 0.01054744515568018, 0.020916959270834923, 0.025583762675523758, 0.059765834361314774, 0.01873817853629589, 0.014379278756678104, 0.05910350754857063, 0.056825898587703705, 0.020899029448628426, 0.009735929779708385, 0.04934179410338402, 0.0179013479501009], [0.10715482383966446, 0.06843751668930054, 0.026597052812576294, 0.022829243913292885, 0.0050165681168437, 0.009775920771062374, 0.11377336084842682, 0.034165333956480026, 0.06574736535549164, 0.006939774379134178, 0.05412598326802254, 0.025320837274193764, 0.005575196351855993, 0.060153745114803314, 0.12876258790493011, 0.01803644932806492, 0.026662830263376236, 0.06400620937347412, 0.0180528424680233, 0.009916477836668491, 0.1289498656988144], [0.15103799104690552, 0.01831180788576603, 0.030670534819364548, 0.06125951558351517, 0.04022277146577835, 0.0456932969391346, 0.059256091713905334, 0.049134086817502975, 0.02708134986460209, 0.022148314863443375, 0.02381547912955284, 0.038258954882621765, 0.043542567640542984, 0.023565828800201416, 0.1254514902830124, 0.03017442114651203, 0.08179191499948502, 0.02580193430185318, 0.032131753861904144, 0.036359578371047974, 0.0342903807759285], [0.05310463532805443, 0.014742244966328144, 0.04967953637242317, 0.027950918301939964, 0.1281827986240387, 0.10713902860879898, 0.027485966682434082, 0.008827832527458668, 0.019618447870016098, 0.06171394884586334, 0.016830962151288986, 0.044137902557849884, 0.1109859049320221, 0.018283864483237267, 0.07093343138694763, 0.06232012063264847, 0.02229251153767109, 0.01860663667321205, 0.01730930246412754, 0.11500833183526993, 0.004845733754336834], [0.34480032324790955, 0.01628303900361061, 0.02434915490448475, 0.008734352886676788, 0.06955733150243759, 0.043312638998031616, 0.019091418012976646, 0.07328347861766815, 0.022627796977758408, 0.011596551164984703, 0.02023163251578808, 0.026369059458374977, 0.06059284508228302, 0.019816892221570015, 0.016002820804715157, 0.0592520497739315, 0.05891828238964081, 0.02007383480668068, 0.009832385927438736, 0.05637051910161972, 0.01890355534851551], [0.017785008996725082, 0.02962603233754635, 0.07478585839271545, 0.018939705565571785, 0.014461595565080643, 0.019759830087423325, 0.06399212032556534, 0.04994574561715126, 0.04142723232507706, 0.14985087513923645, 0.03610709682106972, 0.0772935301065445, 0.014190608635544777, 0.03264589607715607, 0.04459559917449951, 0.03852396830916405, 0.034655842930078506, 0.037379711866378784, 0.1181323379278183, 0.019027160480618477, 0.06687434017658234], [0.06983454525470734, 0.03436226397752762, 0.03053497150540352, 0.0419250950217247, 0.027438905090093613, 0.027427705004811287, 0.08131253719329834, 0.08888588100671768, 0.04843917489051819, 0.04744192957878113, 0.042165566235780716, 0.03290027379989624, 0.025716328993439674, 0.037487149238586426, 0.04888078570365906, 0.0397476963698864, 0.14125500619411469, 0.03822864219546318, 0.05023300275206566, 0.01839555613696575, 0.027386929839849472], [0.3439157009124756, 0.025465942919254303, 0.014139973558485508, 0.0505269356071949, 0.03346177563071251, 0.03203125298023224, 0.04076694697141647, 0.06372793763875961, 0.030924007296562195, 0.013536520302295685, 0.027588706463575363, 0.014469689689576626, 0.032860931009054184, 0.02426559291779995, 0.03686526045203209, 0.04023383557796478, 0.060240015387535095, 0.03232309967279434, 0.024136485531926155, 0.02282053232192993, 0.03569892421364784]], [[0.06077029928565025, 0.01177099160850048, 0.038168516010046005, 0.17845283448696136, 0.031917374581098557, 0.014584647491574287, 0.04138187691569328, 0.024820763617753983, 0.016451772302389145, 0.04983927682042122, 0.01812616176903248, 0.055000439286231995, 0.03618423268198967, 0.017571814358234406, 0.07079807668924332, 0.05261940509080887, 0.06529320776462555, 0.017719605937600136, 0.05717030540108681, 0.053948331624269485, 0.08740998804569244], [0.05606342479586601, 0.04608827084302902, 0.106960229575634, 0.03606686368584633, 0.06836362183094025, 0.058998625725507736, 0.048740457743406296, 0.04844517633318901, 0.050185855478048325, 0.020919332280755043, 0.02945730648934841, 0.07556623965501785, 0.04549479857087135, 0.034284137189388275, 0.023089183494448662, 0.025119587779045105, 0.029003432020545006, 0.025278912857174873, 0.010819428600370884, 0.012776072137057781, 0.1482790857553482], [0.046571262180805206, 0.04036581888794899, 0.0654299333691597, 0.1408437341451645, 0.021917616948485374, 0.03385620564222336, 0.0656052976846695, 0.04840658977627754, 0.036946289241313934, 0.08139455318450928, 0.02723139524459839, 0.04534907266497612, 0.017807265743613243, 0.023254606872797012, 0.05805596709251404, 0.03199226036667824, 0.05885893478989601, 0.02322615124285221, 0.03881791606545448, 0.039039913564920425, 0.055029235780239105], [0.016895554959774017, 0.01625911518931389, 0.13156501948833466, 0.16519246995449066, 0.09181265532970428, 0.08662253618240356, 0.07687702029943466, 0.06454663723707199, 0.015554019249975681, 0.06866269558668137, 0.008569317869842052, 0.04730271175503731, 0.02147861197590828, 0.006840146612375975, 0.0511133149266243, 0.016271153464913368, 0.03814232721924782, 0.006394993048161268, 0.019204868003726006, 0.015361894853413105, 0.03533291816711426], [0.08735361695289612, 0.023032207041978836, 0.07679560780525208, 0.05504994094371796, 0.0719827264547348, 0.043401088565588, 0.03651813417673111, 0.05201414227485657, 0.029576685279607773, 0.042076341807842255, 0.023705163970589638, 0.07183608412742615, 0.06556017696857452, 0.021652037277817726, 0.05893460288643837, 0.020802460610866547, 0.041402868926525116, 0.020960897207260132, 0.031706761568784714, 0.026501847431063652, 0.09913661330938339], [0.06811673939228058, 0.022937551140785217, 0.07172232121229172, 0.06983260810375214, 0.05487670376896858, 0.08734742552042007, 0.0679563507437706, 0.03878270089626312, 0.02792372740805149, 0.052375804632902145, 0.02346702292561531, 0.0815809816122055, 0.05683409422636032, 0.0207967609167099, 0.05897020548582077, 0.016184447333216667, 0.035163912922143936, 0.018092913553118706, 0.03753422200679779, 0.01808406226336956, 0.07141935080289841], [0.0249179620295763, 0.020828617736697197, 0.10949090123176575, 0.10630778968334198, 0.036588795483112335, 0.022493254393339157, 0.17604131996631622, 0.0487925224006176, 0.022995078936219215, 0.04227106273174286, 0.019538603723049164, 0.09688863158226013, 0.019563816487789154, 0.014028756879270077, 0.045446526259183884, 0.0626358613371849, 0.05902654305100441, 0.013414417393505573, 0.028099944815039635, 0.013820210471749306, 0.016809413209557533], [0.08933898061513901, 0.020842811092734337, 0.053443361073732376, 0.058686260133981705, 0.03892193362116814, 0.03345465660095215, 0.1025325134396553, 0.057790607213974, 0.02894812822341919, 0.04202628880739212, 0.024202147498726845, 0.07085654139518738, 0.05483194813132286, 0.022751713171601295, 0.05638280510902405, 0.04287964105606079, 0.0552464984357357, 0.022496074438095093, 0.03331220522522926, 0.025983372703194618, 0.06507157534360886], [0.07862942665815353, 0.027654187753796577, 0.07598820328712463, 0.02042163349688053, 0.05325978249311447, 0.04771638289093971, 0.05385706573724747, 0.054407332092523575, 0.03879862278699875, 0.036861103028059006, 0.029627181589603424, 0.07869414240121841, 0.04797355458140373, 0.028271088376641273, 0.032621532678604126, 0.03370154649019241, 0.031911060214042664, 0.024410219863057137, 0.021935727447271347, 0.01799704134464264, 0.16526314616203308], [0.042384568601846695, 0.029843885451555252, 0.062482334673404694, 0.05910079553723335, 0.008887444622814655, 0.004427018109709024, 0.13214096426963806, 0.02057207003235817, 0.03742916136980057, 0.05130739137530327, 0.041216179728507996, 0.12612350285053253, 0.020767109468579292, 0.041447676718235016, 0.06078049913048744, 0.041341230273246765, 0.025378694757819176, 0.03857804462313652, 0.08935140073299408, 0.043415144085884094, 0.02302492782473564], [0.10500731319189072, 0.025228381156921387, 0.06445454061031342, 0.020020654425024986, 0.0432068407535553, 0.04096310958266258, 0.0484965555369854, 0.042761221528053284, 0.03599398955702782, 0.03487396985292435, 0.03190300613641739, 0.08267443627119064, 0.04529154673218727, 0.028086066246032715, 0.03060615248978138, 0.03475314378738403, 0.035173218697309494, 0.026368992403149605, 0.02365882508456707, 0.01685653254389763, 0.18362155556678772], [0.0583551861345768, 0.03063601441681385, 0.046332426369190216, 0.09346947818994522, 0.01661689020693302, 0.02512475848197937, 0.06365624815225601, 0.04919913411140442, 0.030834810808300972, 0.08572182804346085, 0.031887054443359375, 0.05299796164035797, 0.020177407190203667, 0.02483866550028324, 0.06147201731801033, 0.04475408419966698, 0.06435336917638779, 0.02633434161543846, 0.056127529591321945, 0.054569512605667114, 0.06254126131534576], [0.06291081011295319, 0.02616436779499054, 0.055318377912044525, 0.03655356913805008, 0.06460635364055634, 0.043208975344896317, 0.027613895013928413, 0.05406314507126808, 0.034092389047145844, 0.03214959427714348, 0.03115958906710148, 0.06550291180610657, 0.08698759227991104, 0.03292763605713844, 0.05283001437783241, 0.026395555585622787, 0.04000438377261162, 0.03135891631245613, 0.03705640137195587, 0.040062177926301956, 0.1190333366394043], [0.07373150438070297, 0.032938528805971146, 0.05905706062912941, 0.018610915169119835, 0.04015404358506203, 0.04096939414739609, 0.034882985055446625, 0.03703368827700615, 0.04136669263243675, 0.026742760092020035, 0.03525152802467346, 0.06654714047908783, 0.047351233661174774, 0.04119090363383293, 0.029371587559580803, 0.03348058834671974, 0.029420513659715652, 0.03580073267221451, 0.02854977175593376, 0.023782070726156235, 0.22376634180545807], [0.16454476118087769, 0.012305974960327148, 0.04044615104794502, 0.06889066100120544, 0.039124272763729095, 0.021653911098837852, 0.05856594070792198, 0.01386351604014635, 0.0087509173899889, 0.08821593225002289, 0.010228537023067474, 0.03485531732439995, 0.027149569243192673, 0.011656900867819786, 0.23419630527496338, 0.039593663066625595, 0.023577451705932617, 0.009318210184574127, 0.05829296261072159, 0.01797223649919033, 0.016796797513961792], [0.02839772403240204, 0.014728064648807049, 0.04203379899263382, 0.13828587532043457, 0.027908943593502045, 0.026343664154410362, 0.08346405625343323, 0.032397039234638214, 0.018276946619153023, 0.03809962049126625, 0.017978636547923088, 0.06184271350502968, 0.04245150089263916, 0.016778742894530296, 0.09562978893518448, 0.058617569506168365, 0.12368690967559814, 0.018778130412101746, 0.018359467387199402, 0.030308621004223824, 0.06563219428062439], [0.006481626536697149, 0.00342316715978086, 0.031171312555670738, 0.15333198010921478, 0.02881898172199726, 0.014712546952068806, 0.08791020512580872, 0.06884116679430008, 0.005763874854892492, 0.0311181228607893, 0.0038779969327151775, 0.03201126679778099, 0.038626618683338165, 0.0042239222675561905, 0.06756416708230972, 0.0710534080862999, 0.21995505690574646, 0.005426518153399229, 0.021714068949222565, 0.04035375267267227, 0.06362020969390869], [0.1469159871339798, 0.022656235843896866, 0.04984358325600624, 0.015096268616616726, 0.025327948853373528, 0.02735831029713154, 0.03578297793865204, 0.02445553056895733, 0.025286611169576645, 0.023434685543179512, 0.024073729291558266, 0.05785960704088211, 0.029413461685180664, 0.027461834251880646, 0.030485974624753, 0.033904582262039185, 0.0322575643658638, 0.030274266377091408, 0.029949916526675224, 0.02034781686961651, 0.28781306743621826], [0.09427638351917267, 0.006780342664569616, 0.04583641141653061, 0.04269285500049591, 0.04278989136219025, 0.016165753826498985, 0.043421413749456406, 0.06034332886338234, 0.009678992442786694, 0.048884980380535126, 0.009304878301918507, 0.06873881816864014, 0.05835477635264397, 0.013574443757534027, 0.06386622786521912, 0.0715649425983429, 0.05050985515117645, 0.012811901047825813, 0.0480571985244751, 0.07538892328739166, 0.11695762723684311], [0.11730451881885529, 0.016890719532966614, 0.03039214387536049, 0.02982485108077526, 0.01865263842046261, 0.013250994496047497, 0.05311533063650131, 0.04807150363922119, 0.02069299854338169, 0.02961522340774536, 0.019923891872167587, 0.035592544823884964, 0.0277367252856493, 0.026584379374980927, 0.04554123058915138, 0.047714460641145706, 0.050921086221933365, 0.0314328558743, 0.0393136665225029, 0.06460894644260406, 0.23281924426555634], [0.3290671110153198, 0.010465866886079311, 0.05040915310382843, 0.0832400992512703, 0.01745026558637619, 0.02253061905503273, 0.06923086196184158, 0.022386224940419197, 0.008442671038210392, 0.03239813819527626, 0.009272423572838306, 0.055388811975717545, 0.01547741238027811, 0.008396039716899395, 0.04635969549417496, 0.035252414643764496, 0.049523353576660156, 0.01153077557682991, 0.04245763272047043, 0.01583726704120636, 0.06488306075334549]], [[0.045707736164331436, 0.016139568760991096, 0.01399163343012333, 0.2829452157020569, 0.02921128086745739, 0.011047094129025936, 0.04427354410290718, 0.01796497032046318, 0.017605407163500786, 0.04066174849867821, 0.02055387943983078, 0.012811969965696335, 0.02761191688477993, 0.014945071190595627, 0.18370884656906128, 0.012377752922475338, 0.030558621510863304, 0.01905149407684803, 0.07912001758813858, 0.03310727700591087, 0.046604931354522705], [0.007279102224856615, 0.0729474201798439, 0.024980071932077408, 0.01692407764494419, 0.08938226848840714, 0.18997295200824738, 0.03974892571568489, 0.021880656480789185, 0.07415758073329926, 0.008820057846605778, 0.06348156183958054, 0.0268818661570549, 0.0878436490893364, 0.06543183326721191, 0.008380750194191933, 0.019787751138210297, 0.021987736225128174, 0.06962661445140839, 0.009058122523128986, 0.055102940648794174, 0.026324095204472542], [0.00706455297768116, 0.06017883121967316, 0.024594467133283615, 0.05979978293180466, 0.03350355848670006, 0.04298126697540283, 0.050589583814144135, 0.03897419944405556, 0.0683412104845047, 0.04474473372101784, 0.06667008250951767, 0.029931629076600075, 0.03582606464624405, 0.0548260472714901, 0.02209661342203617, 0.029679162427783012, 0.05250249803066254, 0.06511025130748749, 0.025610970333218575, 0.09387920051813126, 0.09309525042772293], [0.0395083948969841, 0.049510400742292404, 0.04491209238767624, 0.10456747561693192, 0.0330074168741703, 0.03844604268670082, 0.04010462388396263, 0.017700135707855225, 0.03858577832579613, 0.09631824493408203, 0.04277177155017853, 0.03650987520813942, 0.029669567942619324, 0.04082910716533661, 0.1227724701166153, 0.009419887326657772, 0.019979260861873627, 0.04418640956282616, 0.046321459114551544, 0.012186575680971146, 0.09269287437200546], [0.00900354515761137, 0.054558005183935165, 0.01917152665555477, 0.09909377992153168, 0.07613527774810791, 0.077472023665905, 0.04577687755227089, 0.03549821674823761, 0.06121350824832916, 0.019305747002363205, 0.054231707006692886, 0.020270705223083496, 0.07233036309480667, 0.060437049716711044, 0.03495784476399422, 0.05386132001876831, 0.05291519686579704, 0.055616624653339386, 0.02088015526533127, 0.06284088641405106, 0.014429610222578049], [0.007779598701745272, 0.05472053959965706, 0.027844633907079697, 0.060460224747657776, 0.11931736022233963, 0.12743161618709564, 0.03869088366627693, 0.026291264221072197, 0.06025848165154457, 0.01541982963681221, 0.05325758829712868, 0.02770574763417244, 0.10201297700405121, 0.05508587509393692, 0.02458028867840767, 0.033003274351358414, 0.04321252554655075, 0.0525391660630703, 0.015440890565514565, 0.04016191512346268, 0.01478533260524273], [0.0010254584485664964, 0.03868197277188301, 0.01746809296309948, 0.02484971471130848, 0.044936180114746094, 0.04263003170490265, 0.0164176132529974, 0.09839800000190735, 0.05454098433256149, 0.013088992796838284, 0.05667547881603241, 0.023980645462870598, 0.049148838967084885, 0.05183466896414757, 0.0245021004229784, 0.034692827612161636, 0.05938239023089409, 0.052733395248651505, 0.03110864944756031, 0.0728989690542221, 0.1910049468278885], [0.008201546967029572, 0.044192615896463394, 0.020442495122551918, 0.09508322179317474, 0.08572341501712799, 0.1127338632941246, 0.045631710439920425, 0.042399097234010696, 0.05874019116163254, 0.013008357025682926, 0.045898210257291794, 0.02157936431467533, 0.07517101615667343, 0.04904397204518318, 0.021558044478297234, 0.05627337843179703, 0.05662970989942551, 0.044232215732336044, 0.026994094252586365, 0.060444146394729614, 0.016019415110349655], [0.01169727835804224, 0.060064610093832016, 0.0300888791680336, 0.019764669239521027, 0.09164693206548691, 0.19896432757377625, 0.052918825298547745, 0.02205568552017212, 0.06166692450642586, 0.01732621155679226, 0.048973001539707184, 0.032778169959783554, 0.0890837237238884, 0.057240042835474014, 0.01165330596268177, 0.028266748413443565, 0.028381112962961197, 0.053921982645988464, 0.011295318603515625, 0.05141345411539078, 0.020798860117793083], [0.005764502100646496, 0.04310515895485878, 0.056449923664331436, 0.06737084686756134, 0.0565231591463089, 0.05036269128322601, 0.03189368546009064, 0.04501313716173172, 0.052414942532777786, 0.05217331647872925, 0.04181504249572754, 0.07116434723138809, 0.07095378637313843, 0.05519978702068329, 0.07841546833515167, 0.030921896919608116, 0.03423413261771202, 0.03811316564679146, 0.02563946694135666, 0.06941311061382294, 0.023058541119098663], [0.011275256052613258, 0.057726114988327026, 0.0337093286216259, 0.01823233999311924, 0.08442122489213943, 0.19208605587482452, 0.06107404828071594, 0.02447781339287758, 0.0628739669919014, 0.017474113032221794, 0.04884226247668266, 0.03734483942389488, 0.08230343461036682, 0.05832377448678017, 0.012690090574324131, 0.032972998917102814, 0.029069483280181885, 0.0538007952272892, 0.011597353033721447, 0.05290999263525009, 0.016794687137007713], [0.009881312027573586, 0.04775471240282059, 0.030662860721349716, 0.06429650634527206, 0.026527512818574905, 0.03309014067053795, 0.06930923461914062, 0.044134579598903656, 0.057894304394721985, 0.06175655871629715, 0.054775409400463104, 0.03789116442203522, 0.028445851057767868, 0.04891982674598694, 0.03139081597328186, 0.03559025377035141, 0.060190826654434204, 0.0532861091196537, 0.03418027609586716, 0.08574330061674118, 0.08427847921848297], [0.00824318639934063, 0.04645821824669838, 0.01647457666695118, 0.10757295787334442, 0.07843001931905746, 0.07676731050014496, 0.057122908532619476, 0.034291259944438934, 0.05576939508318901, 0.0200971607118845, 0.0494072362780571, 0.018266955390572548, 0.07363135367631912, 0.055871687829494476, 0.04211316257715225, 0.05284177511930466, 0.05620419979095459, 0.05085189640522003, 0.021912116557359695, 0.06355259567499161, 0.014120029285550117], [0.01173827052116394, 0.05464647710323334, 0.030370935797691345, 0.02049565687775612, 0.08502665162086487, 0.18887071311473846, 0.062317024916410446, 0.023810088634490967, 0.059440698474645615, 0.018665757030248642, 0.04900939017534256, 0.035256143659353256, 0.08374059945344925, 0.05496244877576828, 0.014318201690912247, 0.02860679291188717, 0.02938411757349968, 0.054939158260822296, 0.013730025850236416, 0.05803265422582626, 0.02263820543885231], [0.03396843001246452, 0.032133352011442184, 0.08793742209672928, 0.05825655534863472, 0.013352841138839722, 0.01636483147740364, 0.04153470695018768, 0.03418225422501564, 0.03163515031337738, 0.09503281861543655, 0.03269599750638008, 0.09282226860523224, 0.01321339514106512, 0.03127656131982803, 0.06329256296157837, 0.03462037444114685, 0.04011020064353943, 0.03149425610899925, 0.06629085540771484, 0.02950137108564377, 0.12028375267982483], [0.009310907684266567, 0.036243416368961334, 0.022233081981539726, 0.13195425271987915, 0.03528687357902527, 0.022481484338641167, 0.053309086710214615, 0.07060157507658005, 0.05081329867243767, 0.04207869991660118, 0.04558790102601051, 0.025492576882243156, 0.03757903724908829, 0.04855464771389961, 0.1056826114654541, 0.04614207521080971, 0.051697127521038055, 0.04050332307815552, 0.054341066628694534, 0.049169763922691345, 0.020937258377671242], [0.011320714838802814, 0.0417756661772728, 0.02412676066160202, 0.11988835036754608, 0.13325802981853485, 0.09671982377767563, 0.03431585431098938, 0.025504378601908684, 0.04495833069086075, 0.010930205695331097, 0.03708074986934662, 0.023728130385279655, 0.1253635734319687, 0.040632326155900955, 0.03706736117601395, 0.03957271948456764, 0.031985342502593994, 0.03752947226166725, 0.02243281714618206, 0.03437619283795357, 0.02743319422006607], [0.018176931887865067, 0.045354366302490234, 0.025669360533356667, 0.02310774475336075, 0.09034520387649536, 0.18938368558883667, 0.07224856317043304, 0.023222384974360466, 0.052555520087480545, 0.015114485286176205, 0.041075367480516434, 0.03161105513572693, 0.0933523178100586, 0.0507284440100193, 0.014545327983796597, 0.03940574824810028, 0.033943843096494675, 0.04776770994067192, 0.01244905311614275, 0.05939272418618202, 0.020550137385725975], [0.011579698882997036, 0.02561088465154171, 0.02378380112349987, 0.026638874784111977, 0.04270419105887413, 0.06654109805822372, 0.07440409809350967, 0.0231804009526968, 0.035817015916109085, 0.16476023197174072, 0.03335871174931526, 0.027824390679597855, 0.04584026336669922, 0.0336962565779686, 0.17861786484718323, 0.015410056337714195, 0.007468060124665499, 0.03203568607568741, 0.0414985753595829, 0.06793691217899323, 0.021293029189109802], [0.009750922210514545, 0.04695950448513031, 0.021528711542487144, 0.03792417421936989, 0.05662298947572708, 0.10272233188152313, 0.04698051139712334, 0.05574152618646622, 0.060862354934215546, 0.013741211034357548, 0.05553799867630005, 0.028167570009827614, 0.06433070451021194, 0.06116921827197075, 0.02964252606034279, 0.05589109659194946, 0.05226501077413559, 0.05954898148775101, 0.03813766688108444, 0.07772442698478699, 0.024750618264079094], [0.01827070489525795, 0.06146097555756569, 0.025670137256383896, 0.05322721228003502, 0.09991167485713959, 0.11608203500509262, 0.027044570073485374, 0.027070892974734306, 0.05903021618723869, 0.024912185966968536, 0.05586138740181923, 0.02494417503476143, 0.096620112657547, 0.04863492026925087, 0.02161521650850773, 0.020750897005200386, 0.0272663626819849, 0.058874741196632385, 0.030942043289542198, 0.04019198194146156, 0.06161751225590706]], [[0.015177851542830467, 0.07238352298736572, 0.0350949764251709, 0.05309166759252548, 0.08393530547618866, 0.07502219825983047, 0.03151920437812805, 0.024768654257059097, 0.06401502341032028, 0.06260176002979279, 0.05762526020407677, 0.02817215956747532, 0.06862959265708923, 0.06152469664812088, 0.027189085260033607, 0.04927787929773331, 0.020928790792822838, 0.06141403689980507, 0.024573463946580887, 0.03603895753622055, 0.0470159649848938], [0.0018796301446855068, 0.0915028303861618, 0.023550929501652718, 0.21346279978752136, 0.22121144831180573, 0.20614171028137207, 0.013397285714745522, 0.01529359444975853, 0.051081810146570206, 0.004211351275444031, 0.04218931868672371, 0.0047007352113723755, 0.025543315336108208, 0.024647338315844536, 0.0025657047517597675, 0.012640020810067654, 0.005481256637722254, 0.012527788057923317, 0.0051861838437616825, 0.008996942080557346, 0.013787977397441864], [0.04177194833755493, 0.039840538054704666, 0.05952873080968857, 0.1623743772506714, 0.01098813395947218, 0.09956568479537964, 0.24967798590660095, 0.0454084537923336, 0.030745165422558784, 0.11111190170049667, 0.02887827157974243, 0.03110334649682045, 0.0015912121161818504, 0.017399288713932037, 0.014721822924911976, 0.006444524507969618, 0.0006078433361835778, 0.005288304295390844, 0.02772701345384121, 0.00747896870598197, 0.007746588904410601], [0.029644211754202843, 0.06526999920606613, 0.040456321090459824, 0.1555633395910263, 0.055179573595523834, 0.15632225573062897, 0.07459293305873871, 0.09773920476436615, 0.07077642530202866, 0.019881319254636765, 0.04024452716112137, 0.019174624234437943, 0.005761558655649424, 0.021346518769860268, 0.01145328301936388, 0.03816573694348335, 0.07759889215230942, 0.00592787703499198, 0.0004180658143013716, 0.007458115462213755, 0.007025195751339197], [0.04573396220803261, 0.02037518471479416, 0.0551399290561676, 0.09187500923871994, 0.004816560540348291, 0.2007196992635727, 0.27351415157318115, 0.1002303883433342, 0.03550294041633606, 0.023981159552931786, 0.016574781388044357, 0.05081712454557419, 0.0014567873440682888, 0.00969186332076788, 0.006104340311139822, 0.013096574693918228, 0.016050968319177628, 0.00417336355894804, 0.017461713403463364, 0.005733978468924761, 0.006949461065232754], [0.07345973700284958, 0.027020977810025215, 0.07350935786962509, 0.09944047033786774, 0.019888173788785934, 0.03984728083014488, 0.23498083651065826, 0.1324089914560318, 0.06867288798093796, 0.05364033579826355, 0.02594679221510887, 0.06854744255542755, 0.014163162559270859, 0.018145378679037094, 0.01181509904563427, 0.00512244226410985, 0.0033695483580231667, 0.006012814585119486, 0.01241886056959629, 0.004836098290979862, 0.006753315217792988], [0.0034498374443501234, 0.007173079065978527, 0.013597827404737473, 0.013389982283115387, 0.005215913988649845, 0.00846684630960226, 0.003363590221852064, 0.024430999532341957, 0.044506777077913284, 0.8123506903648376, 0.018298741430044174, 0.012408480979502201, 0.0035813204012811184, 0.007254692260175943, 0.0020133922807872295, 0.0008482803823426366, 0.0025149111170321703, 0.003382109571248293, 0.011036605574190617, 0.0018753675976768136, 0.0008405416156165302], [0.028818102553486824, 0.031352248042821884, 0.027190985158085823, 0.06325004249811172, 0.031321726739406586, 0.0628151074051857, 0.04764857143163681, 0.03906482830643654, 0.13863028585910797, 0.2249954491853714, 0.10182167589664459, 0.04489307478070259, 0.020178398117423058, 0.028521722182631493, 0.021720869466662407, 0.02084859274327755, 0.013353330083191395, 0.013041027821600437, 0.017453458160161972, 0.01171762216836214, 0.011362798511981964], [0.0024999482557177544, 0.03375517949461937, 0.0065162270329892635, 0.03538249433040619, 0.04803834483027458, 0.09758613258600235, 0.010472998954355717, 0.01701214723289013, 0.12019256502389908, 0.035810619592666626, 0.26604098081588745, 0.03303753212094307, 0.06896347552537918, 0.06822366267442703, 0.0063545843586325645, 0.061352770775556564, 0.026971492916345596, 0.03455125913023949, 0.005687138065695763, 0.008694978430867195, 0.012855530716478825], [0.0887686014175415, 0.03332378715276718, 0.030828706920146942, 0.07133254408836365, 0.00486880773678422, 0.02240789122879505, 0.08868038654327393, 0.041150402277708054, 0.06511715054512024, 0.05847170948982239, 0.15998345613479614, 0.15769943594932556, 0.012382704764604568, 0.07550995796918869, 0.009954549372196198, 0.00797353032976389, 0.004531623795628548, 0.02714844048023224, 0.02875528112053871, 0.00608188146725297, 0.005029098130762577], [0.002525253454223275, 0.03224073722958565, 0.005211873445659876, 0.01873478852212429, 0.03246248885989189, 0.06818021833896637, 0.012539218179881573, 0.012706363573670387, 0.05289893224835396, 0.00734470272436738, 0.11362048238515854, 0.034788828343153, 0.19945694506168365, 0.18179892003536224, 0.012079574167728424, 0.07303764671087265, 0.03484150394797325, 0.05839360132813454, 0.008453293703496456, 0.016980383545160294, 0.021704183891415596], [0.04492812231183052, 0.015144573524594307, 0.016969118267297745, 0.019322451204061508, 0.0010163476690649986, 0.016064831987023354, 0.17217840254306793, 0.03561076521873474, 0.028933892026543617, 0.08067234605550766, 0.033222272992134094, 0.0820237547159195, 0.00833082664757967, 0.13719242811203003, 0.10123149305582047, 0.038125257939100266, 0.0037214825861155987, 0.02949765883386135, 0.09451045840978622, 0.026022324338555336, 0.015281235799193382], [0.03903697803616524, 0.006074056029319763, 0.02162553369998932, 0.04087924584746361, 0.0012614382430911064, 0.024149881675839424, 0.04227139428257942, 0.02971215546131134, 0.019536752253770828, 0.023964479565620422, 0.015552982687950134, 0.07330931723117828, 0.005320574156939983, 0.05786538124084473, 0.07036717981100082, 0.11120525747537613, 0.13887307047843933, 0.019986705854535103, 0.11353584378957748, 0.07499528676271439, 0.07047658413648605], [0.00229180627502501, 0.024014994502067566, 0.0028721371199935675, 0.013306865468621254, 0.027190931141376495, 0.04653863236308098, 0.004154474940150976, 0.008449775166809559, 0.041840676218271255, 0.007948517799377441, 0.04955993965268135, 0.006961754057556391, 0.0526510588824749, 0.09468711912631989, 0.022955916821956635, 0.25209343433380127, 0.13492430746555328, 0.09288152307271957, 0.014846710488200188, 0.035753872245550156, 0.06407544761896133], [0.006107764784246683, 0.03171974793076515, 0.0038833164144307375, 0.007907398976385593, 0.0011749520199373364, 0.006437079049646854, 0.02750280313193798, 0.007676388137042522, 0.033954132348299026, 0.010693900287151337, 0.05794758349657059, 0.006857123225927353, 0.0017642054008319974, 0.045962970703840256, 0.031094824895262718, 0.16176219284534454, 0.3548910915851593, 0.15106889605522156, 0.005891032516956329, 0.02388877049088478, 0.021813906729221344], [0.022412404417991638, 0.02391122654080391, 0.006044319830834866, 0.010296577587723732, 0.0026365516241639853, 0.005234136246144772, 0.00416598143056035, 0.005049173254519701, 0.014235394075512886, 0.009278778918087482, 0.02179761230945587, 0.009189384989440441, 0.005744402762502432, 0.025697175413370132, 0.02186141535639763, 0.049726735800504684, 0.31251388788223267, 0.19680355489253998, 0.06395405530929565, 0.081680066883564, 0.10776712000370026], [0.0030543096363544464, 0.013139510527253151, 0.009362662211060524, 0.00700795091688633, 0.000975868315435946, 0.00599311338737607, 0.003128358395770192, 0.00252219894900918, 0.009153186343610287, 0.011117273010313511, 0.017691070213913918, 0.014808924868702888, 0.0041190399788320065, 0.0244319885969162, 0.006449729669839144, 0.18444955348968506, 0.07601889967918396, 0.16783572733402252, 0.04274095967411995, 0.25779417157173157, 0.138205423951149], [0.0018285438418388367, 0.015659281983971596, 0.002996347611770034, 0.009271829389035702, 0.012602146714925766, 0.012935690581798553, 0.00148674170486629, 0.0018664936069399118, 0.009393931366503239, 0.0012399667175486684, 0.016351785510778427, 0.0031813322566449642, 0.024864094331860542, 0.03845788910984993, 0.006679263897240162, 0.05250692740082741, 0.040075451135635376, 0.11835011839866638, 0.07258744537830353, 0.19012024998664856, 0.36754441261291504], [0.03706629201769829, 0.01038434449583292, 0.0031287595629692078, 0.012165640480816364, 0.0008814406464807689, 0.0024020120035856962, 0.008734534494578838, 0.005650755483657122, 0.006588612217456102, 0.007443854585289955, 0.014413594268262386, 0.006234576925635338, 0.0013399753952398896, 0.02798987366259098, 0.052061520516872406, 0.048757389187812805, 0.04436706006526947, 0.07632766664028168, 0.011875596828758717, 0.17988763749599457, 0.44229888916015625], [0.013794353231787682, 0.004231827799230814, 0.00332626118324697, 0.004042299930006266, 0.006202423479408026, 0.00829616654664278, 0.003715978469699621, 0.0016387918731197715, 0.002014926867559552, 0.0025422999169677496, 0.0037654165644198656, 0.004847369622439146, 0.004646955989301205, 0.007654243148863316, 0.014190557412803173, 0.037050917744636536, 0.06085820496082306, 0.023922836408019066, 0.1912769079208374, 0.08605913072824478, 0.5159221291542053], [0.013101033866405487, 0.02811328135430813, 0.0023130911868065596, 0.00470275292173028, 0.0028414481785148382, 0.017677683383226395, 0.00448173563927412, 0.004072172567248344, 0.014977118000388145, 0.0008772423025220633, 0.01494924258440733, 0.0025091550778597593, 0.002511815167963505, 0.031890932470560074, 0.008300310000777245, 0.0339764729142189, 0.02179851569235325, 0.179966539144516, 0.02225029282271862, 0.15331651270389557, 0.43537265062332153]], [[0.057378802448511124, 0.08208822458982468, 0.09395857900381088, 0.03326951712369919, 0.06588380038738251, 0.06023627519607544, 0.09604278951883316, 0.07674739509820938, 0.042601823806762695, 0.031156599521636963, 0.03327099233865738, 0.05078519135713577, 0.041792090982198715, 0.030078867450356483, 0.032362956553697586, 0.024492044001817703, 0.019888395443558693, 0.032681141048669815, 0.0373002327978611, 0.035437263548374176, 0.022546978667378426], [0.006372537463903427, 0.6098783016204834, 0.04470856860280037, 0.01762434095144272, 0.023433543741703033, 0.07667616754770279, 0.10646959394216537, 0.025367677211761475, 0.012377992272377014, 0.0065040127374231815, 0.006833055056631565, 0.004186905454844236, 0.005995137616991997, 0.0017009744187816978, 0.003517303615808487, 0.008438429795205593, 0.019781673327088356, 0.015949971973896027, 0.003403222421184182, 0.0006957274163141847, 8.484150021104142e-05], [0.0011048221495002508, 0.8726695775985718, 0.046933118253946304, 0.03901725262403488, 0.004711000248789787, 0.0056915865279734135, 0.005671303253620863, 0.012551049701869488, 0.0033946495968848467, 0.0004967921995557845, 0.0005246003274805844, 0.00015595160948578268, 0.0017695006681606174, 0.00022600531519856304, 5.551872163778171e-05, 5.131935540703125e-05, 0.0003875841211993247, 0.0030821594409644604, 0.0013104337267577648, 0.00019161697127856314, 4.173047727817902e-06], [0.02700936421751976, 0.1933390200138092, 0.5167403221130371, 0.2515038251876831, 0.0023046480491757393, 0.0006444790633395314, 0.002495103981345892, 0.0012832125648856163, 0.0021284620743244886, 0.0008302827482111752, 0.0001270405773539096, 8.386930858250707e-05, 9.942226461134851e-05, 0.0002463548444211483, 7.694855594309047e-05, 2.207182660640683e-06, 9.822413176152622e-07, 5.438733205664903e-05, 0.0008183300378732383, 0.00020732489065267146, 4.373031970317243e-06], [0.00010495124297449365, 0.0055508725345134735, 0.014460967853665352, 0.9587412476539612, 0.0143130486831069, 0.0014139848062768579, 0.00027762207901105285, 5.12739788973704e-05, 0.001301614218391478, 0.001950600417330861, 0.0013317691627889872, 4.221292329020798e-05, 5.841429810971022e-06, 0.00013826203939970583, 6.91204986651428e-05, 1.2771698493452277e-05, 6.789783810745575e-07, 5.4695528888260014e-06, 1.6036801753216423e-05, 0.00011862685641972348, 9.301907266490161e-05], [9.0245739556849e-05, 0.0017296622972935438, 0.0014127834001556039, 0.4750526547431946, 0.4779067933559418, 0.02488699182868004, 0.0077449181117117405, 0.00018643120711203665, 0.0008398413774557412, 0.0013093352317810059, 0.007657140493392944, 0.0004529937286861241, 9.343779674964026e-05, 0.000191775310668163, 9.070442320080474e-05, 0.00012764395796693861, 1.1652495231828652e-05, 7.468129297194537e-06, 1.586684675203287e-06, 1.0809383638843428e-05, 0.00019516424799803644], [0.0029127742163836956, 0.0004709026252385229, 0.0004672952927649021, 0.007604152429848909, 0.2117408663034439, 0.7366571426391602, 0.03053303435444832, 0.002233839128166437, 0.0003969281679019332, 0.0003614914894569665, 0.0013492628931999207, 0.002816023537889123, 0.0021128314547240734, 0.00010293628292856738, 4.601492764777504e-05, 7.025618106126785e-05, 9.72780617303215e-05, 1.5038347555673681e-05, 2.641836545080878e-06, 8.91122965640534e-07, 8.391089068027213e-06], [0.00015606204397045076, 0.003084977390244603, 0.0006807645549997687, 0.0015972753753885627, 0.004227527882903814, 0.19845455884933472, 0.736155092716217, 0.035471610724925995, 0.01121931429952383, 0.00030287267873063684, 0.0007941771182231605, 0.0015356680378317833, 0.00361042283475399, 0.0022739465348422527, 0.00020975984807591885, 5.039034294895828e-05, 3.5034201573580503e-05, 0.0001278541167266667, 1.1164323950652033e-05, 6.263343834689294e-07, 9.408304322278127e-07], [0.00041248174966312945, 0.002329600043594837, 0.0015026511391624808, 0.0016803499311208725, 0.0010987702989950776, 0.013309515081346035, 0.31297430396080017, 0.3896484375, 0.2617805004119873, 0.004854375030845404, 0.0006928364164195955, 0.0003721218672581017, 0.0033127409406006336, 0.004448897670954466, 0.000967810454312712, 0.00033339502988383174, 0.00011818172788480297, 0.00011286220978945494, 4.441347118699923e-05, 5.266221251076786e-06, 4.342722661476728e-07], [0.009028330445289612, 0.0008415790507569909, 0.0038970578461885452, 0.007174700498580933, 0.0008868930744938552, 0.0009867772459983826, 0.012679193168878555, 0.1133640930056572, 0.7537204027175903, 0.08769827336072922, 0.0036064551677554846, 0.0003438321582507342, 0.00021499482681974769, 0.0016478159232065082, 0.0022651301696896553, 0.0011370406718924642, 0.00016131048323586583, 8.146333857439458e-05, 0.00022693972277920693, 3.49490437656641e-05, 2.784623347906745e-06], [0.0005535178352147341, 0.00035447507980279624, 0.0006407461478374898, 0.0047744098119437695, 0.008982300758361816, 0.00410426314920187, 0.004588268231600523, 0.004309580195695162, 0.1893996000289917, 0.5602415204048157, 0.20458093285560608, 0.0049268160946667194, 0.001104229362681508, 0.0004932516603730619, 0.0026849100831896067, 0.006219176575541496, 0.001568992855027318, 0.0002606608613859862, 0.00012542992772068828, 7.338701107073575e-05, 1.3421939002000727e-05], [0.000789647048804909, 0.0003754906647372991, 0.00013049400877207518, 0.0016175454948097467, 0.015684565529227257, 0.01601315848529339, 0.001887093880213797, 0.0009418849949724972, 0.007640970405191183, 0.06609965860843658, 0.7883743047714233, 0.06485574692487717, 0.02684817649424076, 0.0003947167715523392, 0.0003249628935009241, 0.0015928572975099087, 0.004240947309881449, 0.0018590609543025494, 0.00023685774067416787, 5.481231346493587e-05, 3.698466025525704e-05], [0.000272188161034137, 0.0008275399450212717, 0.00018672925943974406, 0.00014681868196930736, 0.0001007969694910571, 0.0020764966029673815, 0.0046076541766524315, 0.0003424365713726729, 0.001943452749401331, 0.005222744308412075, 0.34567511081695557, 0.5671220421791077, 0.05450696125626564, 0.008541473187506199, 0.00011820242798421532, 0.00011941670527448878, 0.0005246851942501962, 0.007018088363111019, 0.0006174524314701557, 1.9285180314909667e-05, 1.0420842045277823e-05], [0.00021516482229344547, 0.00013344912440516055, 0.00018090085359290242, 0.00013595871860161424, 0.00017789864796213806, 0.0007553608156740665, 0.0032988477032631636, 0.001238059950992465, 0.0010336064733564854, 0.0002674946445040405, 0.0031040001194924116, 0.0399111732840538, 0.8844565749168396, 0.06124135106801987, 0.001302082440815866, 0.0003389818302821368, 0.00020000730000901967, 0.0008668951340951025, 0.0009288168512284756, 0.00019340316066518426, 2.0184055756544694e-05], [0.4774499237537384, 0.00014760166232008487, 0.002195273758843541, 0.0023479401133954525, 0.0005480508552864194, 0.0004997942014597356, 0.0024259150959551334, 0.0060876598581671715, 0.005351756699383259, 0.006294854450970888, 0.0009277077042497694, 0.014932346530258656, 0.16093002259731293, 0.2424291968345642, 0.05032594874501228, 0.00897428672760725, 0.000867815047968179, 0.0007528304704464972, 0.012025557458400726, 0.0038346254732459784, 0.0006509999511763453], [1.3938751180830877e-05, 4.783983240486123e-05, 3.107592783635482e-05, 0.0005233237170614302, 0.0004775188572239131, 0.0003441732842475176, 0.0003056308487430215, 0.00016420771135017276, 0.010643298737704754, 0.002909923903644085, 0.004875699523836374, 0.000629157992079854, 0.0034384208265691996, 0.2862608730792999, 0.6683701276779175, 0.01456325314939022, 0.003699647029861808, 0.001135207712650299, 0.0004979907535016537, 0.00024842374841682613, 0.0008202782482840121], [9.818511898629367e-05, 0.00018477905541658401, 1.6346233678632416e-05, 4.968818757333793e-05, 0.00015775294741615653, 0.0016944196540862322, 0.0016681517008692026, 9.280010272050276e-05, 0.007865270599722862, 0.009399663656949997, 0.02854353003203869, 0.002877006074413657, 0.0005404994590207934, 0.03470780327916145, 0.6610422134399414, 0.16227228939533234, 0.035399068146944046, 0.050918955355882645, 0.0013435028959065676, 0.00011788396659540012, 0.001010148087516427], [0.0005037621012888849, 0.0001647106691962108, 1.1845219887618441e-05, 3.3609755973884603e-06, 4.4943761167814955e-05, 0.0004359919985290617, 0.0008041348773986101, 0.00014389835996553302, 0.00039015672518871725, 0.0006017343839630485, 0.0036285161040723324, 0.0032139592804014683, 0.002426101127639413, 0.0007647470338270068, 0.004295708611607552, 0.11268401890993118, 0.6872144341468811, 0.17168568074703217, 0.010297113098204136, 0.0004491944273468107, 0.00023609335767105222], [0.0021828513126820326, 0.0011288780951872468, 0.00033992683165706694, 1.2859510206908453e-05, 8.860533853294328e-06, 6.899067375343293e-05, 0.00013832964759785682, 0.0003821495338343084, 0.00027184965438209474, 0.0003064941265620291, 0.0005715021979995072, 0.0036773420870304108, 0.011265497654676437, 0.0008710030815564096, 0.0004670712514780462, 0.0023216584231704473, 0.15704724192619324, 0.7179933190345764, 0.09250221401453018, 0.008003364317119122, 0.0004385998472571373], [2.9447226552292705e-05, 0.0026821494102478027, 0.0017935922369360924, 0.0002398931246716529, 1.2565863471536431e-05, 3.5759499041887466e-06, 1.3379761185206007e-05, 6.646460678894073e-05, 0.0012718678917735815, 0.00012938567670062184, 0.0006014502723701298, 0.0003904298646375537, 0.0037974694278091192, 0.009708063676953316, 0.000945728737860918, 0.0004099166835658252, 0.003106284188106656, 0.5313990116119385, 0.38553401827812195, 0.049597132951021194, 0.008268246427178383], [0.0038171957712620497, 4.0764753066468984e-05, 0.00013362373283598572, 0.00028891616966575384, 2.2954198357183486e-05, 7.753221211714845e-07, 3.4069515209012025e-07, 9.968424592443625e-07, 1.8151409676647745e-05, 2.5256385924876668e-05, 4.7864341468084604e-05, 1.2004433301626705e-05, 2.5055966034415178e-05, 0.00018724659457802773, 0.00046750286128371954, 0.00017232124810107052, 0.00013879996549803764, 0.0035960637032985687, 0.15610694885253906, 0.8060445785522461, 0.028852572664618492]], [[0.08922282606363297, 0.03970089182257652, 0.007941503077745438, 0.022203391417860985, 0.02438260056078434, 0.017990415915846825, 0.011284880340099335, 0.016841264441609383, 0.029458647593855858, 0.011844292283058167, 0.029512399807572365, 0.007093023508787155, 0.027954258024692535, 0.025040792301297188, 0.03827006742358208, 0.015371261164546013, 0.027893127873539925, 0.027806073427200317, 0.012543747201561928, 0.015932660549879074, 0.5017119646072388], [0.3338969647884369, 0.06705022603273392, 0.012073840014636517, 0.006274271756410599, 0.03269306570291519, 0.056935086846351624, 0.035728711634874344, 0.012311928905546665, 0.07742992043495178, 0.006737126503139734, 0.0699913427233696, 0.011311755515635014, 0.027535542845726013, 0.0650867447257042, 0.006371843628585339, 0.03819927200675011, 0.01685270294547081, 0.06419779360294342, 0.007082620169967413, 0.014088908210396767, 0.03815034404397011], [0.01005998533219099, 0.020040029659867287, 0.018637487664818764, 0.10582180321216583, 0.018297851085662842, 0.012987104244530201, 0.18531492352485657, 0.01223848294466734, 0.018006710335612297, 0.08462188392877579, 0.019185669720172882, 0.01981421187520027, 0.017732128500938416, 0.022132374346256256, 0.20436327159404755, 0.0162846390157938, 0.022588767111301422, 0.022055629640817642, 0.14435026049613953, 0.008445749059319496, 0.01702105812728405], [0.016738340258598328, 0.011759118176996708, 0.04447518289089203, 0.050244614481925964, 0.029783153906464577, 0.053406283259391785, 0.062134794890880585, 0.02421259693801403, 0.015039927326142788, 0.0370858870446682, 0.01482618972659111, 0.049979567527770996, 0.031851962208747864, 0.013077439740300179, 0.07295706123113632, 0.13457618653774261, 0.15686501562595367, 0.015506420284509659, 0.02443017065525055, 0.09327995777130127, 0.04777010157704353], [0.028729787096381187, 0.030983546748757362, 0.045246586203575134, 0.1217363104224205, 0.03216289356350899, 0.0265954677015543, 0.13274528086185455, 0.0244011078029871, 0.033829715102910995, 0.06305113434791565, 0.028799237683415413, 0.04175795614719391, 0.03593974560499191, 0.029518183320760727, 0.08829444646835327, 0.029685555025935173, 0.05248701944947243, 0.02836615964770317, 0.06834713369607925, 0.028904728591442108, 0.028417952358722687], [0.06301350891590118, 0.02291056327521801, 0.04968339949846268, 0.06291063874959946, 0.028676554560661316, 0.02536243014037609, 0.13209764659404755, 0.05013120174407959, 0.026942914351820946, 0.08580844849348068, 0.02403835952281952, 0.05278508737683296, 0.03601469099521637, 0.029147574678063393, 0.03629360347986221, 0.040718913078308105, 0.06443522125482559, 0.02518879435956478, 0.08641842007637024, 0.02705533802509308, 0.030366679653525352], [0.02030700445175171, 0.01798735372722149, 0.13684993982315063, 0.044828809797763824, 0.06863880157470703, 0.05973333865404129, 0.08974830061197281, 0.011438275687396526, 0.026641476899385452, 0.0313631035387516, 0.02101578749716282, 0.15456336736679077, 0.060893844813108444, 0.018340453505516052, 0.05185408517718315, 0.02769140712916851, 0.02459629997611046, 0.020184140652418137, 0.060565344989299774, 0.04246554151177406, 0.010293405503034592], [0.009430146776139736, 0.01903858780860901, 0.05132637917995453, 0.11302714049816132, 0.03079049661755562, 0.018710516393184662, 0.1267186999320984, 0.047866564244031906, 0.02357133850455284, 0.08807489275932312, 0.022226708009839058, 0.0554422028362751, 0.03262483328580856, 0.0212910957634449, 0.1057233139872551, 0.023436831310391426, 0.050305794924497604, 0.020592743530869484, 0.09388779103755951, 0.023029115051031113, 0.022884836420416832], [0.31693941354751587, 0.060096871107816696, 0.011171115562319756, 0.006068144924938679, 0.04116973280906677, 0.07074932008981705, 0.03243251517415047, 0.01420680247247219, 0.07591162621974945, 0.007917431183159351, 0.06745947897434235, 0.010963447391986847, 0.03660071641206741, 0.06688105314970016, 0.005706886760890484, 0.03280116245150566, 0.016431473195552826, 0.06649676710367203, 0.007816309109330177, 0.017227962613105774, 0.034951772540807724], [0.029027175158262253, 0.010073898360133171, 0.032735664397478104, 0.12885940074920654, 0.02850629948079586, 0.04737432673573494, 0.2226518988609314, 0.02333175018429756, 0.018904926255345345, 0.033272597938776016, 0.017468657344579697, 0.044746581465005875, 0.025767197832465172, 0.015179406851530075, 0.06689143925905228, 0.02799008972942829, 0.04802045226097107, 0.019034041091799736, 0.10529928654432297, 0.0342545211315155, 0.020610356703400612], [0.28770211338996887, 0.057584721595048904, 0.013666193932294846, 0.0061530726961791515, 0.03747675567865372, 0.06928988546133041, 0.03690828010439873, 0.01368949469178915, 0.07934868335723877, 0.00792787317186594, 0.06939069926738739, 0.013785673305392265, 0.03631493076682091, 0.0704946517944336, 0.006802103016525507, 0.037218887358903885, 0.01715335249900818, 0.07114458829164505, 0.009317451156675816, 0.019348682835698128, 0.03928188234567642], [0.0074416035786271095, 0.015722885727882385, 0.02015535719692707, 0.09320862591266632, 0.021049048751592636, 0.014424026943743229, 0.14529412984848022, 0.012168791145086288, 0.017231188714504242, 0.07830241322517395, 0.01846589334309101, 0.022986289113759995, 0.023543737828731537, 0.022791676223278046, 0.22020691633224487, 0.016899164766073227, 0.022165196016430855, 0.022985652089118958, 0.17404641211032867, 0.012610392645001411, 0.01830059476196766], [0.02341936156153679, 0.026355907320976257, 0.033638399094343185, 0.10065197199583054, 0.028992170467972755, 0.021433847025036812, 0.12711894512176514, 0.021598588675260544, 0.03422920033335686, 0.059283528476953506, 0.0311720073223114, 0.03619295358657837, 0.034247953444719315, 0.03218146786093712, 0.11944470554590225, 0.02633434534072876, 0.045293115079402924, 0.03174562007188797, 0.0987478643655777, 0.033673301339149475, 0.034244686365127563], [0.28316178917884827, 0.05239668861031532, 0.010622925125062466, 0.006580715999007225, 0.03597525134682655, 0.06464995443820953, 0.039577972143888474, 0.013178868219256401, 0.07641886174678802, 0.008212439715862274, 0.07000231742858887, 0.011579777114093304, 0.03558730334043503, 0.06870687752962112, 0.00824910681694746, 0.03898295387625694, 0.01974632777273655, 0.07594331353902817, 0.011069066822528839, 0.022659877315163612, 0.04669758677482605], [0.24951869249343872, 0.018156761303544044, 0.02103487215936184, 0.035807766020298004, 0.061166271567344666, 0.08116576820611954, 0.045835886150598526, 0.023347925394773483, 0.029320118948817253, 0.012041487731039524, 0.024226214736700058, 0.02410457283258438, 0.06201302632689476, 0.024042226374149323, 0.015536889433860779, 0.035382628440856934, 0.08368472754955292, 0.028759419918060303, 0.022882457822561264, 0.07216521352529526, 0.02980698272585869], [0.0085368100553751, 0.018149390816688538, 0.023475507274270058, 0.1648862063884735, 0.01847168803215027, 0.012252953834831715, 0.0207905862480402, 0.01363632082939148, 0.01823432743549347, 0.03552289679646492, 0.02169785089790821, 0.030977919697761536, 0.02345554530620575, 0.02108854055404663, 0.2996194362640381, 0.016827493906021118, 0.049089305102825165, 0.02654588781297207, 0.08287565410137177, 0.031553976237773895, 0.062311798334121704], [0.008117886260151863, 0.02628876455128193, 0.03542238473892212, 0.09983133524656296, 0.04533747211098671, 0.03093453124165535, 0.03215588256716728, 0.03170043230056763, 0.03400200605392456, 0.05328137427568436, 0.03789607435464859, 0.04614740610122681, 0.05637466162443161, 0.03678269311785698, 0.14280693233013153, 0.05438198521733284, 0.07061681896448135, 0.04261767491698265, 0.03241147845983505, 0.043425679206848145, 0.0394664965569973], [0.2837482690811157, 0.053360167890787125, 0.0077215442433953285, 0.005853178910911083, 0.033477913588285446, 0.05216790735721588, 0.03187151998281479, 0.012536355294287205, 0.0729808360338211, 0.007294051349163055, 0.07127721607685089, 0.008743394166231155, 0.03591540828347206, 0.07770779728889465, 0.008132094517350197, 0.03724038973450661, 0.01905144564807415, 0.0853220596909523, 0.012753347866237164, 0.02417195402085781, 0.05867310240864754], [0.00520587433129549, 0.00219222204759717, 0.033032018691301346, 0.10377449542284012, 0.005958404392004013, 0.00616105180233717, 0.1177489310503006, 0.019894853234291077, 0.0030924868769943714, 0.14453820884227753, 0.003399754175916314, 0.0576048344373703, 0.008433491922914982, 0.004045604262501001, 0.039476312696933746, 0.010293610394001007, 0.06931929290294647, 0.0050574615597724915, 0.30976659059524536, 0.04073360189795494, 0.010270907543599606], [0.007609478663653135, 0.010615108534693718, 0.043845321983098984, 0.09756697714328766, 0.024782901629805565, 0.023831674829125404, 0.048373665660619736, 0.028410278260707855, 0.01175434235483408, 0.030634785071015358, 0.014485269784927368, 0.0624900721013546, 0.03202136233448982, 0.015971584245562553, 0.056421905755996704, 0.02658272534608841, 0.06574535369873047, 0.019901463761925697, 0.25009989738464355, 0.07916714251041412, 0.049688681960105896], [0.007523589301854372, 0.0006809979095123708, 8.782864460954443e-05, 0.0003553469723556191, 0.00168650783598423, 0.003009348176419735, 0.00013103202218189836, 0.00032223068410530686, 0.0011505810543894768, 5.97223624936305e-05, 0.001046308083459735, 0.00012878286361228675, 0.005011740606278181, 0.001231787377037108, 0.0005970980855636299, 0.0004330409865360707, 0.001938694273121655, 0.001705439412035048, 0.00032372146961279213, 0.0010771987726911902, 0.971498966217041]], [[0.029221247881650925, 0.04059126600623131, 0.024755768477916718, 0.08701612055301666, 0.015179386362433434, 0.06555653363466263, 0.2987150549888611, 0.009750322438776493, 0.021926816552877426, 0.022102896124124527, 0.02839408814907074, 0.022514522075653076, 0.011578850448131561, 0.02346864901483059, 0.1853220909833908, 0.013349683955311775, 0.010271341539919376, 0.017906906083226204, 0.032111357897520065, 0.014950815588235855, 0.025316307321190834], [0.20734325051307678, 0.08879534155130386, 0.007313751615583897, 0.005095300264656544, 0.03827952593564987, 0.030934931710362434, 0.005076277069747448, 0.24852578341960907, 0.08420128375291824, 0.0035597821697592735, 0.06079276651144028, 0.0038431240245699883, 0.02034095674753189, 0.05341460183262825, 0.003246044274419546, 0.0152299664914608, 0.006167898420244455, 0.039009224623441696, 0.0032517826184630394, 0.007892831228673458, 0.06768546998500824], [0.007939384318888187, 0.01316011417657137, 0.02321239560842514, 0.026210278272628784, 0.029152104631066322, 0.025154776871204376, 0.5087965726852417, 0.02031288668513298, 0.012551255524158478, 0.1727137565612793, 0.011076660826802254, 0.01740017719566822, 0.014754426665604115, 0.00884028896689415, 0.022493893280625343, 0.011961367912590504, 0.005480532068759203, 0.006150235887616873, 0.014458280056715012, 0.04416721314191818, 0.004013376776129007], [0.02630261890590191, 0.028487004339694977, 0.043408092111349106, 0.18598179519176483, 0.03318648040294647, 0.05738811939954758, 0.31874218583106995, 0.005875023081898689, 0.0243479423224926, 0.06061006337404251, 0.02227841131389141, 0.031935129314661026, 0.015596163459122181, 0.013482261449098587, 0.035064224153757095, 0.018184779211878777, 0.04603420943021774, 0.008188212290406227, 0.00822449941188097, 0.013341763988137245, 0.0033409595489501953], [0.0382365845143795, 0.048183027654886246, 0.04732045903801918, 0.07039202004671097, 0.0436430387198925, 0.07088359445333481, 0.16614441573619843, 0.07708749920129776, 0.05707705020904541, 0.028600329533219337, 0.04408282786607742, 0.03761058673262596, 0.03128763660788536, 0.03981281816959381, 0.04206276312470436, 0.03005385771393776, 0.016482945531606674, 0.03080686926841736, 0.034038301557302475, 0.02680012211203575, 0.019393302500247955], [0.03343038260936737, 0.04423753172159195, 0.01750349812209606, 0.011117595247924328, 0.04797323793172836, 0.020829394459724426, 0.02817731723189354, 0.39768272638320923, 0.06249640882015228, 0.01539494190365076, 0.048798032104969025, 0.015267222188413143, 0.03800981864333153, 0.048148058354854584, 0.0059406813234090805, 0.03911459818482399, 0.02372988685965538, 0.03126048296689987, 0.004875745624303818, 0.034641560167074203, 0.031370896846055984], [0.0247834250330925, 0.024105964228510857, 0.045409586280584335, 0.18043628334999084, 0.022838018834590912, 0.05221816524863243, 0.05063611641526222, 0.020254015922546387, 0.040259599685668945, 0.09121788293123245, 0.03771258145570755, 0.046501122415065765, 0.015121294185519218, 0.02638762816786766, 0.17178188264369965, 0.03179587051272392, 0.05886732041835785, 0.019623566418886185, 0.017310859635472298, 0.008714782074093819, 0.014023958705365658], [0.01252181176096201, 0.024354999884963036, 0.03595250844955444, 0.21812555193901062, 0.04016098380088806, 0.048204563558101654, 0.08942020684480667, 0.0365300178527832, 0.03543687239289284, 0.05082545056939125, 0.033646415919065475, 0.037566788494586945, 0.027846869081258774, 0.025039955973625183, 0.05643533170223236, 0.04233075678348541, 0.07494686543941498, 0.018383022397756577, 0.018727315589785576, 0.060779038816690445, 0.012764721177518368], [0.1526947170495987, 0.05919748172163963, 0.008808743208646774, 0.003831104375422001, 0.03679140657186508, 0.026959793642163277, 0.00669250451028347, 0.2548770010471344, 0.09637858718633652, 0.00562104070559144, 0.07297899574041367, 0.008084122091531754, 0.03230136260390282, 0.07182057201862335, 0.004376356024295092, 0.023565569892525673, 0.010177749209105968, 0.05031165853142738, 0.00496689835563302, 0.008343133144080639, 0.061221253126859665], [0.020837482064962387, 0.01385235320776701, 0.12974849343299866, 0.02169387973845005, 0.016196032986044884, 0.02723057195544243, 0.0894462987780571, 0.020159076899290085, 0.038909412920475006, 0.053767383098602295, 0.03167329356074333, 0.26632362604141235, 0.020661573857069016, 0.03290354833006859, 0.08476877957582474, 0.02444949746131897, 0.017281655222177505, 0.02632862515747547, 0.044212304055690765, 0.006693724542856216, 0.012862415984272957], [0.1393650770187378, 0.05097320303320885, 0.007543753366917372, 0.0033075364772230387, 0.03195534273982048, 0.02102881856262684, 0.006250416859984398, 0.24366392195224762, 0.09159418195486069, 0.00548299215734005, 0.07176609337329865, 0.007993749342858791, 0.03301452472805977, 0.07751281559467316, 0.005196054000407457, 0.027830125764012337, 0.013594156131148338, 0.057447295635938644, 0.005312753841280937, 0.010585872456431389, 0.08858136087656021], [0.005552203394472599, 0.005264830309897661, 0.017442623153328896, 0.013814438134431839, 0.023004980757832527, 0.018104059621691704, 0.48052170872688293, 0.016565809026360512, 0.01030359510332346, 0.18658547103405, 0.010725378058850765, 0.029121749103069305, 0.02514011785387993, 0.01026652380824089, 0.04158373177051544, 0.015681413933634758, 0.008727030828595161, 0.007328076753765345, 0.018220877274870872, 0.04874887317419052, 0.007296448107808828], [0.027690695598721504, 0.021976040676236153, 0.028922833502292633, 0.04457587003707886, 0.03070514090359211, 0.05235309153795242, 0.12282080948352814, 0.05691354349255562, 0.04532143101096153, 0.027701307088136673, 0.04592529684305191, 0.052478209137916565, 0.046242475509643555, 0.04881066456437111, 0.09140342473983765, 0.0463586263358593, 0.029413290321826935, 0.04646995663642883, 0.04385758936405182, 0.039539605379104614, 0.05052001401782036], [0.13574020564556122, 0.045418303459882736, 0.005653521977365017, 0.0029851526487618685, 0.02779475413262844, 0.021729666739702225, 0.005991786252707243, 0.20482872426509857, 0.07913896441459656, 0.005204288754612207, 0.06986524164676666, 0.00707640964537859, 0.03449871391057968, 0.0796823799610138, 0.006247812416404486, 0.031808990985155106, 0.0140170156955719, 0.07229552417993546, 0.006712193135172129, 0.011715787462890148, 0.13159459829330444], [0.11521706730127335, 0.02405581809580326, 0.026843687519431114, 0.10857690870761871, 0.02010326273739338, 0.02347688563168049, 0.09414908289909363, 0.03619315102696419, 0.038257818669080734, 0.035954758524894714, 0.03876231983304024, 0.039478905498981476, 0.02407892793416977, 0.04062145948410034, 0.01950320415198803, 0.05121695250272751, 0.14775450527668, 0.03641824796795845, 0.007750221528112888, 0.027467509731650352, 0.04411939159035683], [0.0039035489317029715, 0.0035421198699623346, 0.0030742804519832134, 0.21087802946567535, 0.005414871033281088, 0.006289937999099493, 0.07325710356235504, 0.009959537535905838, 0.009600804187357426, 0.005990646779537201, 0.010539466515183449, 0.008437582291662693, 0.00741173978894949, 0.011016542091965675, 0.32765674591064453, 0.013933626934885979, 0.1983364373445511, 0.012601829133927822, 0.04864475503563881, 0.012996172532439232, 0.016514167189598083], [0.003634828142821789, 0.004484150093048811, 0.006191379390656948, 0.2409294843673706, 0.011809244751930237, 0.015798697248101234, 0.07307130843400955, 0.005088459700345993, 0.010746832005679607, 0.007103073876351118, 0.010662050917744637, 0.01299803052097559, 0.016410280019044876, 0.012624235823750496, 0.39009442925453186, 0.01824765093624592, 0.06333817541599274, 0.014246450737118721, 0.045108307152986526, 0.020865002647042274, 0.01654786616563797], [0.10104390233755112, 0.03282767906785011, 0.004014450591057539, 0.0019125179387629032, 0.01926361583173275, 0.013268643990159035, 0.003244968829676509, 0.14659002423286438, 0.05635279044508934, 0.003236164106056094, 0.05454995855689049, 0.006178069394081831, 0.031829703599214554, 0.08078545331954956, 0.007601277437061071, 0.03869176656007767, 0.018272429704666138, 0.10040105134248734, 0.010425087995827198, 0.019404206424951553, 0.25010621547698975], [0.012288513593375683, 0.00362981460057199, 0.04475460201501846, 0.016896722838282585, 0.008999540470540524, 0.0180545412003994, 0.023824229836463928, 0.00855464767664671, 0.007554551120847464, 0.18458876013755798, 0.008244521915912628, 0.0895017609000206, 0.016895655542612076, 0.010409751906991005, 0.3334525525569916, 0.0316351018846035, 0.03339892253279686, 0.01793699711561203, 0.051936786621809006, 0.017265131697058678, 0.060176897794008255], [0.016065314412117004, 0.01082286611199379, 0.010924022644758224, 0.010489596985280514, 0.015026860870420933, 0.008890419267117977, 0.007007590960711241, 0.056557200849056244, 0.01779710315167904, 0.009415573440492153, 0.019212542101740837, 0.016728604212403297, 0.02229175716638565, 0.02685035765171051, 0.05750144273042679, 0.03965401276946068, 0.08249188959598541, 0.05024568736553192, 0.16984139382839203, 0.07992608845233917, 0.2722597122192383], [0.13570992648601532, 0.05412232503294945, 0.006117106415331364, 0.003190847346559167, 0.013631615787744522, 0.009746864438056946, 0.008530780673027039, 0.03290187567472458, 0.0622558556497097, 0.0041023134253919125, 0.06247952580451965, 0.00893966294825077, 0.023972803726792336, 0.11166975647211075, 0.023240363225340843, 0.02734895795583725, 0.014154995791614056, 0.16633391380310059, 0.034682340919971466, 0.02632712572813034, 0.17054103314876556]]], [[[0.9011743664741516, 0.004432064946740866, 0.0014239365700632334, 0.0019568749703466892, 0.0005772330332547426, 0.0006790765910409391, 0.0017400408396497369, 0.0013946318067610264, 0.005789384711533785, 0.0013512368313968182, 0.007394531276077032, 0.0017183604650199413, 0.0013253764482215047, 0.00796850211918354, 0.0017717035952955484, 0.0033384403213858604, 0.004272602032870054, 0.0166177861392498, 0.003876859787851572, 0.002699493197724223, 0.02849746309220791], [0.09033451229333878, 0.1274278610944748, 0.035569749772548676, 0.08352895081043243, 0.02237863466143608, 0.02903793938457966, 0.01640937849879265, 0.036496784538030624, 0.23240113258361816, 0.007036986295133829, 0.14591018855571747, 0.006556751672178507, 0.0046864100731909275, 0.045253854244947433, 0.002870643977075815, 0.0025932476855814457, 0.0029677932616323233, 0.04962209239602089, 0.0029288511723279953, 0.00927022472023964, 0.0467180497944355], [0.015279441140592098, 0.02497285045683384, 0.0512729175388813, 0.17643019556999207, 0.07335326075553894, 0.11928047984838486, 0.17052094638347626, 0.054026804864406586, 0.06989671289920807, 0.08128345012664795, 0.04751843214035034, 0.022351013496518135, 0.010255529545247555, 0.01946181245148182, 0.00487053208053112, 0.005849726963788271, 0.0013903372455388308, 0.008541601710021496, 0.004694579169154167, 0.01268845610320568, 0.0260609183460474], [0.059413157403469086, 0.03672998771071434, 0.037591371685266495, 0.04534066841006279, 0.023519989103078842, 0.08106393367052078, 0.19342805445194244, 0.02611689642071724, 0.18337027728557587, 0.022649545222520828, 0.11092865467071533, 0.03579239919781685, 0.004004164133220911, 0.039861928671598434, 0.003409523982554674, 0.018107043579220772, 0.013124121353030205, 0.029684418812394142, 0.0019306481117382646, 0.0026990713085979223, 0.031234098598361015], [0.004644598811864853, 0.010405687615275383, 0.028973497450351715, 0.022142942994832993, 0.008560028858482838, 0.07152722030878067, 0.3818506896495819, 0.11891636252403259, 0.07039174437522888, 0.12092842161655426, 0.030116310343146324, 0.06720786541700363, 0.005781372077763081, 0.018018359318375587, 0.005196086596697569, 0.012626731768250465, 0.002720199292525649, 0.007275091949850321, 0.004225681535899639, 0.002614249475300312, 0.0058768861927092075], [0.021512353792786598, 0.01179467886686325, 0.014994236640632153, 0.013248820789158344, 0.00651298463344574, 0.014764555729925632, 0.2031785547733307, 0.21432659029960632, 0.18148769438266754, 0.12044792622327805, 0.04892849922180176, 0.04587751626968384, 0.017374573275446892, 0.02672438882291317, 0.009774272330105305, 0.017116745933890343, 0.005361706949770451, 0.012859932146966457, 0.005524975247681141, 0.0026173782534897327, 0.005571587011218071], [0.009796414524316788, 0.013289311900734901, 0.022748280316591263, 0.020210416987538338, 0.006371397525072098, 0.012596789747476578, 0.010621504858136177, 0.18951107561588287, 0.27397239208221436, 0.042915139347314835, 0.12521354854106903, 0.11108661442995071, 0.029463108628988266, 0.032289426773786545, 0.007060668896883726, 0.028293147683143616, 0.011632273904979229, 0.02868693321943283, 0.00556587427854538, 0.006481498945504427, 0.012194237671792507], [0.03258753940463066, 0.013184063136577606, 0.008854255080223083, 0.011257057078182697, 0.00452780444175005, 0.0037280151154845953, 0.014424685388803482, 0.061075691133737564, 0.3114588260650635, 0.11722712963819504, 0.21539205312728882, 0.04567847400903702, 0.02401943877339363, 0.04775628820061684, 0.013423606753349304, 0.014059798792004585, 0.005532827693969011, 0.031937696039676666, 0.006151002366095781, 0.0024708162527531385, 0.015252890065312386], [0.05484604835510254, 0.017106909304857254, 0.0033845105208456516, 0.0054789949208498, 0.0016837234143167734, 0.0023904279805719852, 0.0038073768373578787, 0.012342920526862144, 0.17313671112060547, 0.021911820396780968, 0.4151359498500824, 0.04947188124060631, 0.019853373989462852, 0.060022931545972824, 0.014584716409444809, 0.015922104939818382, 0.016071757301688194, 0.07074912637472153, 0.006317998748272657, 0.006257978267967701, 0.029522789642214775], [0.10639762133359909, 0.009833784773945808, 0.011350867338478565, 0.007602082099765539, 0.006063011009246111, 0.0025435753632336855, 0.013726959004998207, 0.005523138679563999, 0.05092611536383629, 0.011227100156247616, 0.19422058761119843, 0.2253710776567459, 0.14801573753356934, 0.055063601583242416, 0.023317020386457443, 0.01546139270067215, 0.009440393187105656, 0.05635088309645653, 0.011281978338956833, 0.003822844009846449, 0.03246030583977699], [0.0899212509393692, 0.021458351984620094, 0.0033946402836591005, 0.003879352705553174, 0.0011814999161288142, 0.0025886266957968473, 0.0032257791608572006, 0.007769069634377956, 0.059346552938222885, 0.005912409164011478, 0.1852891594171524, 0.05834857001900673, 0.04934004321694374, 0.1689451038837433, 0.01970372535288334, 0.02287985011935234, 0.025609096512198448, 0.16290797293186188, 0.012996893376111984, 0.017805520445108414, 0.07749659568071365], [0.012662041001021862, 0.004832793492823839, 0.010360046289861202, 0.008375799283385277, 0.0022003569174557924, 0.004107437562197447, 0.021050672978162766, 0.009492379613220692, 0.012176301330327988, 0.059179943054914474, 0.021379074081778526, 0.14078141748905182, 0.13078001141548157, 0.09569092094898224, 0.053289253264665604, 0.09949033707380295, 0.018978718668222427, 0.05072513967752457, 0.08316253125667572, 0.086521215736866, 0.07476359605789185], [0.0037955939769744873, 0.0019194252090528607, 0.016172008588910103, 0.004666774999350309, 0.0007578012300655246, 0.0018843504367396235, 0.014253731817007065, 0.008074079640209675, 0.005752640310674906, 0.051262468099594116, 0.005252052564173937, 0.11242451518774033, 0.02617919072508812, 0.05277254432439804, 0.07737582176923752, 0.24783733487129211, 0.03499547392129898, 0.02867877669632435, 0.13364849984645844, 0.105928935110569, 0.0663679912686348], [0.08831866830587387, 0.01550871878862381, 0.0024112716782838106, 0.0027286650147289038, 0.0008295979350805283, 0.0013738403795287013, 0.001960307126864791, 0.006677279714494944, 0.060751721262931824, 0.0049111065454781055, 0.05700734630227089, 0.007282776292413473, 0.005610703490674496, 0.08559877425432205, 0.02684030681848526, 0.0873323529958725, 0.07497327029705048, 0.24196591973304749, 0.019466664642095566, 0.03687038645148277, 0.1715802550315857], [0.10657412558794022, 0.009984102100133896, 0.010488542728126049, 0.0035823651123791933, 0.0008108531474135816, 0.0016003064811229706, 0.007606059778481722, 0.0019150968873873353, 0.020206931978464127, 0.015222105197608471, 0.03297148272395134, 0.032007135450839996, 0.0041974917985498905, 0.025544319301843643, 0.006827881094068289, 0.14191634953022003, 0.09924601763486862, 0.2770017385482788, 0.06194351613521576, 0.038501203060150146, 0.10185232758522034], [0.09516455978155136, 0.007553665898740292, 0.002636524848639965, 0.001521231490187347, 0.00028824902256019413, 0.0004301085136830807, 0.0012742072576656938, 0.001034801360219717, 0.009553948417305946, 0.00429981155321002, 0.023985683917999268, 0.008143882267177105, 0.0027330329176038504, 0.013288102112710476, 0.003935507033020258, 0.0427948422729969, 0.061176031827926636, 0.45757338404655457, 0.034632448107004166, 0.06092454493045807, 0.16705548763275146], [0.13505177199840546, 0.0076129441149532795, 0.007760889362543821, 0.002070385729894042, 0.0005867782747372985, 0.0005477347876876593, 0.0015404887963086367, 0.001074416097253561, 0.006709823850542307, 0.003496116027235985, 0.013540290296077728, 0.010987232439219952, 0.004704343155026436, 0.012263119220733643, 0.002147582359611988, 0.01995588280260563, 0.016957979649305344, 0.28992101550102234, 0.07803058624267578, 0.13261523842811584, 0.25242534279823303], [0.12013233453035355, 0.012547262012958527, 0.0033438168466091156, 0.0026660896837711334, 0.0007620535907335579, 0.0007660305127501488, 0.0007351589156314731, 0.001524738734588027, 0.015424663200974464, 0.000948679109569639, 0.02596801519393921, 0.004071229603141546, 0.0030943702440708876, 0.029353218153119087, 0.0036644195206463337, 0.008222052827477455, 0.015859704464673996, 0.21285922825336456, 0.030416196212172508, 0.10425683110952377, 0.4033838212490082], [0.08148211240768433, 0.004294239450246096, 0.005624204408377409, 0.0034335555974394083, 0.0013767427299171686, 0.0010514943860471249, 0.002418505260720849, 0.0011728797107934952, 0.009649727493524551, 0.0027925206813961267, 0.017255768179893494, 0.01175329927355051, 0.004699453711509705, 0.026451893150806427, 0.004851720295846462, 0.02024972252547741, 0.0057962448336184025, 0.12352257966995239, 0.029042260721325874, 0.14221049845218658, 0.5008705854415894], [0.060795195400714874, 0.002371259266510606, 0.0010930862044915557, 0.0028151182923465967, 0.0009078495786525309, 0.0010624672286212444, 0.0019209572346881032, 0.0014819309581071138, 0.004419162403792143, 0.0006426585023291409, 0.006370841059833765, 0.0015804202994331717, 0.0008301051566377282, 0.010306245647370815, 0.0013102295342832804, 0.008821188472211361, 0.004881696309894323, 0.0480281263589859, 0.009994886815547943, 0.09433338791131973, 0.7360331416130066], [0.2883453965187073, 0.014833317138254642, 0.0029787844978272915, 0.003195305820554495, 0.001572810928337276, 0.002330186776816845, 0.007092905230820179, 0.00324106402695179, 0.02785499393939972, 0.0026757437735795975, 0.03180186077952385, 0.005024096462875605, 0.0030899487901479006, 0.04120030254125595, 0.003817775985226035, 0.018752168864011765, 0.012424016371369362, 0.16123110055923462, 0.024005968123674393, 0.03599989041686058, 0.3085322976112366]], [[0.11370257288217545, 0.04443537816405296, 0.004465698264539242, 0.01522090844810009, 0.023486929014325142, 0.03223368525505066, 0.016678301617503166, 0.023005275055766106, 0.07842494547367096, 0.020246727392077446, 0.08207359910011292, 0.009653066284954548, 0.03397185355424881, 0.08945609629154205, 0.023601846769452095, 0.021894119679927826, 0.019597986713051796, 0.08134917914867401, 0.019599776715040207, 0.030246641486883163, 0.2166554480791092], [0.0488261915743351, 0.0031914659775793552, 0.0009194564772769809, 0.00018813260248862207, 0.0009539499296806753, 0.0012620523339137435, 0.0018385235453024507, 0.005562388338148594, 0.02830304577946663, 0.023058850318193436, 0.0473509281873703, 0.05678432062268257, 0.026443172246217728, 0.08222568780183792, 0.014700665138661861, 0.06174775958061218, 0.02919251099228859, 0.11431979387998581, 0.04390530660748482, 0.04111504927277565, 0.36811068654060364], [0.004522683098912239, 0.0002765892131719738, 0.026416955515742302, 1.7193527810377418e-06, 2.8946215024916455e-06, 9.75886268861359e-06, 1.2435674761945847e-05, 7.001485209912062e-05, 0.00040836731204763055, 1.6568121282034554e-05, 0.000759693153668195, 0.9584811925888062, 9.557299927109852e-05, 0.0013226697919890285, 4.374307536636479e-05, 0.0001781381870387122, 0.0003040329029317945, 0.0028151010628789663, 6.332255725283176e-05, 0.0003521410981193185, 0.003846418112516403], [0.20183034241199493, 0.04953589662909508, 0.0010266669560223818, 0.47021082043647766, 0.0001036196990753524, 0.0004045362293254584, 0.0011238136794418097, 0.0015298505313694477, 0.007467812392860651, 0.00039610653766430914, 0.010455937124788761, 0.002069952664896846, 0.00042922128341160715, 0.022898439317941666, 0.004017161205410957, 0.002144488040357828, 0.011628836393356323, 0.04633128643035889, 0.0016014296561479568, 0.017807116732001305, 0.14698664844036102], [0.22418983280658722, 0.09352938085794449, 0.004246434196829796, 0.00028916398878209293, 0.11047571897506714, 0.002704035257920623, 0.00015783353592269123, 0.002433067886158824, 0.008025623857975006, 0.0002855296479538083, 0.010992873460054398, 0.0031969568226486444, 0.23284924030303955, 0.017115982249379158, 0.00036210569669492543, 0.0022849615197628736, 0.008045619353652, 0.04008664935827255, 0.004407103639096022, 0.022440748289227486, 0.21188107132911682], [0.19474056363105774, 0.23543168604373932, 0.03984735161066055, 0.004342430736869574, 0.00701111787930131, 0.03790617361664772, 0.0029482219833880663, 0.010181228630244732, 0.011225313879549503, 0.0006422293372452259, 0.013610522262752056, 0.009536216035485268, 0.006627634633332491, 0.019235987216234207, 0.0013620881363749504, 0.0053132870234549046, 0.005518061574548483, 0.04180162400007248, 0.008579901419579983, 0.13750267028808594, 0.20663566887378693], [0.10890933126211166, 0.0977523922920227, 0.011961559765040874, 0.0046521383337676525, 0.00032989337341859937, 0.0013497305335476995, 0.6661999821662903, 0.000465257529867813, 0.0031292876228690147, 0.00018606333469506353, 0.0037915478460490704, 0.0009234106400981545, 9.114222484640777e-05, 0.005294080823659897, 3.3726646506693214e-05, 0.0007748729549348354, 0.000564963964279741, 0.01661125011742115, 0.0017288357485085726, 0.005283098202198744, 0.06996746361255646], [0.295911967754364, 0.28720077872276306, 0.056148599833250046, 0.011479360982775688, 0.012541461735963821, 0.01748279109597206, 0.0032231530640274286, 0.040572378784418106, 0.014628980308771133, 0.0007045607781037688, 0.014210839755833149, 0.003231016220524907, 0.002167101949453354, 0.01264444924890995, 0.00035751095856539905, 0.0038968941662460566, 0.009566007182002068, 0.027686430141329765, 0.008723882958292961, 0.03738134354352951, 0.14024050533771515], [0.18081171810626984, 0.21806016564369202, 0.06185309588909149, 0.023746199905872345, 0.018948378041386604, 0.023920349776744843, 0.01700536720454693, 0.008116218261420727, 0.01580754853785038, 0.005279310047626495, 0.01678639091551304, 0.004953394178301096, 0.0037979534827172756, 0.015486663207411766, 0.0025387208443135023, 0.005878163035959005, 0.00515923835337162, 0.031231239438056946, 0.023796062916517258, 0.04592953622341156, 0.2708944082260132], [0.1129726693034172, 0.07100798934698105, 0.0006058804574422538, 0.0007190689793787897, 0.0004408125823829323, 0.0004056382749695331, 0.0003881332522723824, 0.000384690792998299, 0.00626125605776906, 0.7355630397796631, 0.005945907440036535, 1.8814998838934116e-05, 4.4075961341150105e-05, 0.004251598380506039, 2.827605749189388e-05, 7.68846512073651e-05, 5.1398634241195396e-05, 0.00995821412652731, 0.0005472825141623616, 0.001277162809856236, 0.04905121028423309], [0.18107973039150238, 0.277999609708786, 0.08770851790904999, 0.03894784301519394, 0.030734693631529808, 0.03896304592490196, 0.021929187700152397, 0.012659527361392975, 0.020771972835063934, 0.007278334815055132, 0.019466830417513847, 0.004607859067618847, 0.003861803561449051, 0.014483178965747356, 0.002174440771341324, 0.004454059060662985, 0.004449157975614071, 0.02433362789452076, 0.01707637310028076, 0.031466323882341385, 0.15555386245250702], [0.005732316058129072, 0.00307654170319438, 0.9631332159042358, 0.00028900455799885094, 0.00011004581756424159, 0.000223575159907341, 0.0001294817921007052, 0.00011072914639953524, 0.00020272069377824664, 2.1161472432140727e-06, 0.00016867184604052454, 0.026103736832737923, 5.632730790239293e-06, 8.277616143459454e-05, 2.162458031307324e-06, 2.266134970341227e-06, 1.8146714864997193e-05, 0.000176453118911013, 4.7877915676508565e-06, 2.429878804832697e-05, 0.0004012390854768455], [0.06353756040334702, 0.06058473140001297, 0.009790392592549324, 0.0023813340812921524, 0.8108494281768799, 0.010225795209407806, 0.0003155600861646235, 0.0019573885947465897, 0.00356877688318491, 7.136494241422042e-05, 0.0025727571919560432, 0.000136307324282825, 0.02165914885699749, 0.001121373032219708, 3.112332706223242e-05, 5.298519681673497e-05, 0.000499542395118624, 0.0018214035080745816, 0.00013987431884743273, 0.000301183172268793, 0.00838194414973259], [0.16618071496486664, 0.2368101179599762, 0.08598075807094574, 0.06916750967502594, 0.05900620296597481, 0.06954541802406311, 0.0470096692442894, 0.02010883204638958, 0.03291427344083786, 0.011237068101763725, 0.027885764837265015, 0.004520983900874853, 0.005024002864956856, 0.01581435464322567, 0.0028710318729281425, 0.004894034005701542, 0.0039035065565258265, 0.02050788328051567, 0.011979886330664158, 0.015023281797766685, 0.08961471170186996], [0.15275289118289948, 0.1178424134850502, 0.004043864086270332, 0.06828616559505463, 0.0017378563061356544, 0.009363041259348392, 0.00024241891514975578, 0.0016323019517585635, 0.012600508518517017, 0.00010863834904739633, 0.008443127386271954, 5.9214937209617347e-05, 6.488378858193755e-05, 0.0032126714941114187, 0.6082824468612671, 1.159581074716698e-06, 1.684151175140869e-05, 0.004057401791214943, 2.464705721649807e-05, 4.896704922430217e-05, 0.007178571540862322], [0.2466682493686676, 0.25394919514656067, 0.012139960192143917, 0.013330805115401745, 0.007147016003727913, 0.019025303423404694, 0.010594997555017471, 0.019291948527097702, 0.035119932144880295, 0.0007710717036388814, 0.02699669636785984, 0.00021013591322116554, 0.00023997564858291298, 0.011659099720418453, 6.5978547354461625e-06, 0.3089866042137146, 0.004783738404512405, 0.014632238075137138, 0.00038832129212096334, 0.0012453305535018444, 0.012812824919819832], [0.10669944435358047, 0.0797257125377655, 0.03956163674592972, 0.09250624477863312, 0.06488274782896042, 0.01895146071910858, 0.0044139688834548, 0.02985365130007267, 0.014411335811018944, 0.00028152656159363687, 0.009822145104408264, 0.0007970536826178432, 0.00184950465336442, 0.004179151263087988, 4.165765130892396e-05, 0.0023556931409984827, 0.5194742679595947, 0.004010045900940895, 0.0004797979781869799, 0.0004424804646987468, 0.005260499659925699], [0.13591399788856506, 0.21885931491851807, 0.08608316630125046, 0.07260504364967346, 0.06001323089003563, 0.08767126500606537, 0.06697747856378555, 0.034171417355537415, 0.048990361392498016, 0.01573978364467621, 0.03772648051381111, 0.0072151306085288525, 0.007095895707607269, 0.01964709535241127, 0.004603624809533358, 0.004639891907572746, 0.003934473730623722, 0.018579743802547455, 0.00975660141557455, 0.01192246563732624, 0.047853611409664154], [0.10533342510461807, 0.12284684181213379, 0.004959474317729473, 0.00749156903475523, 0.00785115733742714, 0.0071589224971830845, 0.009705041535198689, 0.02117048390209675, 0.03530038520693779, 0.0041698128916323185, 0.021610716357827187, 0.00028081369237042964, 0.00048616272397339344, 0.008051364682614803, 9.935453999787569e-05, 0.0002058593527181074, 0.00043391730287112296, 0.005698209162801504, 0.6314787864685059, 0.0009487545466981828, 0.004718920215964317], [0.10941711813211441, 0.19650082290172577, 0.03937429189682007, 0.042086292058229446, 0.022159725427627563, 0.07126014679670334, 0.018753167241811752, 0.08717767149209976, 0.06084775552153587, 0.028347518295049667, 0.04049549624323845, 0.008472449146211147, 0.0052167861722409725, 0.020132767036557198, 0.0006420955178327858, 0.00623486889526248, 0.0016987670678645372, 0.012280036695301533, 0.007257258519530296, 0.21027448773384094, 0.011370469816029072], [0.08079789578914642, 0.11620431393384933, 0.03918580338358879, 0.08957867324352264, 0.08417467027902603, 0.10631239414215088, 0.06444946676492691, 0.0811321958899498, 0.0905514657497406, 0.04244343191385269, 0.06584914028644562, 0.00879566092044115, 0.018649855628609657, 0.029865266755223274, 0.008908040821552277, 0.011499998159706593, 0.0052066403441131115, 0.017598573118448257, 0.006008882075548172, 0.007430239114910364, 0.02535742148756981]], [[0.5906726121902466, 0.02069270983338356, 0.013545975089073181, 0.014910854399204254, 0.012407967820763588, 0.007950248196721077, 0.01737622544169426, 0.013388552702963352, 0.04174741730093956, 0.018251923844218254, 0.04414256289601326, 0.01953599974513054, 0.017270982265472412, 0.028194410726428032, 0.003906965721398592, 0.012206228449940681, 0.011075295507907867, 0.03216216340661049, 0.003865956561639905, 0.00718294084072113, 0.06951191276311874], [0.7127581238746643, 0.05162786319851875, 0.005043077282607555, 0.004449335392564535, 0.0029881156515330076, 0.007045217324048281, 0.006188729777932167, 0.009591097943484783, 0.05870278552174568, 0.004872631747275591, 0.05729092285037041, 0.0038379232864826918, 0.003124416805803776, 0.03266013786196709, 0.0012320188106968999, 0.006118677090853453, 0.002098186407238245, 0.02434714324772358, 0.000531398574821651, 0.0007573956390842795, 0.0047347210347652435], [0.13135011494159698, 0.4110700488090515, 0.020865613594651222, 0.04709497094154358, 0.02655094675719738, 0.03380691260099411, 0.029144177213311195, 0.023756707087159157, 0.07656365633010864, 0.017157278954982758, 0.05833990499377251, 0.0031319207046180964, 0.010035425424575806, 0.03265739604830742, 0.0042234184220433235, 0.010761412791907787, 0.005947582423686981, 0.045718591660261154, 0.0023183333687484264, 0.005227828864008188, 0.004277716390788555], [0.330956369638443, 0.3410622179508209, 0.034320294857025146, 0.009712905623018742, 0.012801624834537506, 0.008523516356945038, 0.04055541753768921, 0.021193569526076317, 0.06972517818212509, 0.008755877614021301, 0.04347630962729454, 0.003150796517729759, 0.005424154456704855, 0.022426540032029152, 0.0010306043550372124, 0.0011462507536634803, 0.0017009297152981162, 0.03730356693267822, 0.0005135926767252386, 0.001262616366147995, 0.004957711789757013], [0.12661781907081604, 0.2910081744194031, 0.2568571865558624, 0.08448834717273712, 0.017139332368969917, 0.022007955238223076, 0.060455888509750366, 0.011197211220860481, 0.04033564776182175, 0.008124018087983131, 0.02346814051270485, 0.009726675227284431, 0.0036325803957879543, 0.012609113939106464, 0.0017884935950860381, 0.0014663226902484894, 0.0016106133116409183, 0.019124632701277733, 0.000875021971296519, 0.002535938983783126, 0.004930916242301464], [0.06764034926891327, 0.22068768739700317, 0.20716875791549683, 0.16370293498039246, 0.11255838721990585, 0.029025673866271973, 0.08041190356016159, 0.011764021590352058, 0.03377031907439232, 0.01303863525390625, 0.022502947598695755, 0.007109171710908413, 0.0053670406341552734, 0.008762909099459648, 0.0010847466764971614, 0.0005126101896166801, 0.0006838492699898779, 0.007312713656574488, 0.00045735834282822907, 0.0013554788893088698, 0.00508256908506155], [0.1350080668926239, 0.1394461840391159, 0.06377274543046951, 0.14851757884025574, 0.10736852884292603, 0.12058605253696442, 0.06646565347909927, 0.03168812021613121, 0.05891744792461395, 0.01879667118191719, 0.04684080556035042, 0.008203896693885326, 0.0076929666101932526, 0.01579827256500721, 0.001617523841559887, 0.002071935450658202, 0.0010460683843120933, 0.009627016261219978, 0.0011676682624965906, 0.002344855573028326, 0.013021952472627163], [0.02236732840538025, 0.11093629896640778, 0.06901200860738754, 0.15243178606033325, 0.18775373697280884, 0.15254221856594086, 0.12320949882268906, 0.05790332704782486, 0.040491215884685516, 0.01255976501852274, 0.026285216212272644, 0.00854412466287613, 0.008008499629795551, 0.011333831585943699, 0.00183770596049726, 0.001082441653124988, 0.0006670707371085882, 0.0030758106149733067, 0.00037752435309812427, 0.0009825547458603978, 0.008598017506301403], [0.09732604026794434, 0.08666285127401352, 0.02732270210981369, 0.05509280040860176, 0.05664714425802231, 0.12901489436626434, 0.13289038836956024, 0.10206613689661026, 0.1457258015871048, 0.01668119616806507, 0.06248478963971138, 0.011151441372931004, 0.011265271343290806, 0.03524581715464592, 0.002179178409278393, 0.002144058933481574, 0.0010242793941870332, 0.01030727755278349, 0.0006080379826016724, 0.00126541405916214, 0.01289455033838749], [0.10812588781118393, 0.05232349783182144, 0.06336475908756256, 0.0619637593626976, 0.01614489033818245, 0.0920596793293953, 0.14836476743221283, 0.10329992324113846, 0.19799746572971344, 0.008200539276003838, 0.0492427833378315, 0.025245552882552147, 0.00908205471932888, 0.030077669769525528, 0.007560097612440586, 0.004048940259963274, 0.001510667148977518, 0.010791984386742115, 0.0010730710346251726, 0.0007338576833717525, 0.008788086473941803], [0.07980175316333771, 0.04655902832746506, 0.013324988074600697, 0.023118047043681145, 0.012734788469970226, 0.03566598892211914, 0.057843297719955444, 0.13468319177627563, 0.3667077124118805, 0.031522978097200394, 0.10969085246324539, 0.012862560339272022, 0.008699294179677963, 0.03583994880318642, 0.003154254052788019, 0.0037048456724733114, 0.0015479092253372073, 0.013118068687617779, 0.0008183224708773196, 0.0011015812633559108, 0.0075006140395998955], [0.012481601908802986, 0.04014069214463234, 0.010058107785880566, 0.05099955573678017, 0.03097420372068882, 0.04167528823018074, 0.10239432007074356, 0.08930493891239166, 0.28378626704216003, 0.10184324532747269, 0.14034110307693481, 0.018239617347717285, 0.02550978772342205, 0.021208371967077255, 0.004748508799821138, 0.005520347971469164, 0.002048370661213994, 0.009751047007739544, 0.0015082686441019177, 0.0029881030786782503, 0.004478125832974911], [0.018512343987822533, 0.011267676949501038, 0.030923590064048767, 0.015201271511614323, 0.006212956737726927, 0.014169332571327686, 0.16089801490306854, 0.018396418541669846, 0.111106276512146, 0.14256808161735535, 0.1442033052444458, 0.27014318108558655, 0.024347642436623573, 0.013126488775014877, 0.002715027192607522, 0.0023769810795783997, 0.0017456872155889869, 0.0066991327330470085, 0.000821962661575526, 0.0006047679926268756, 0.003959863446652889], [0.09094084799289703, 0.026901228353381157, 0.010112916119396687, 0.012867799028754234, 0.007085221353918314, 0.014428211376070976, 0.026719991117715836, 0.025695495307445526, 0.15165694057941437, 0.03615462779998779, 0.32038941979408264, 0.10046114027500153, 0.04359808564186096, 0.0699581652879715, 0.004321356303989887, 0.005873886868357658, 0.0030098615679889917, 0.03014255128800869, 0.0020380227360874414, 0.0020717205479741096, 0.015572484582662582], [0.23828448355197906, 0.017814774066209793, 0.006014696788042784, 0.008505905978381634, 0.005176125559955835, 0.006564203649759293, 0.025510210543870926, 0.008758009411394596, 0.10938362777233124, 0.028582999482750893, 0.20090410113334656, 0.08451291173696518, 0.10313960164785385, 0.11043167859315872, 0.0012416171375662088, 0.00431531947106123, 0.00134623097255826, 0.02711111307144165, 0.0011132152285426855, 0.0012324167182669044, 0.010056774131953716], [0.0533568412065506, 0.01424736063927412, 0.007698892615735531, 0.01088736206293106, 0.0061285668052732944, 0.005589754320681095, 0.022017838433384895, 0.019460516050457954, 0.09845036268234253, 0.02058127522468567, 0.12722040712833405, 0.10994920134544373, 0.17430709302425385, 0.24636638164520264, 0.0184012558311224, 0.009088778868317604, 0.004677822347730398, 0.025606239214539528, 0.0023552740458399057, 0.003904438577592373, 0.019704319536685944], [0.09042592346668243, 0.010214068926870823, 0.0037209882866591215, 0.006278557237237692, 0.0025122181978076696, 0.003609676146879792, 0.010483337566256523, 0.014228773303329945, 0.0752088725566864, 0.014327332377433777, 0.11355388909578323, 0.07259561866521835, 0.09682855010032654, 0.29337969422340393, 0.03557175397872925, 0.05215904489159584, 0.01187475211918354, 0.05051825940608978, 0.0052077132277190685, 0.00776290288195014, 0.029538026079535484], [0.08833876252174377, 0.012206372804939747, 0.0037873676046729088, 0.007245021406561136, 0.0028550822753459215, 0.00510607473552227, 0.007569085340946913, 0.012721782550215721, 0.07135796546936035, 0.020481375977396965, 0.11504040658473969, 0.058012012392282486, 0.06315313279628754, 0.20019976794719696, 0.046843722462654114, 0.08691621571779251, 0.038668178021907806, 0.09700565040111542, 0.009915468282997608, 0.007967536337673664, 0.04460900276899338], [0.04554012045264244, 0.005898145027458668, 0.00802717637270689, 0.003687341930344701, 0.002233255421742797, 0.002144628670066595, 0.011888526380062103, 0.007167553994804621, 0.029672376811504364, 0.02325918711721897, 0.05208592861890793, 0.1840156614780426, 0.12140905857086182, 0.08202461153268814, 0.04227602109313011, 0.09539876878261566, 0.0982796922326088, 0.109722800552845, 0.00817377120256424, 0.015533708967268467, 0.05156155675649643], [0.025303279981017113, 0.00747601967304945, 0.00619241688400507, 0.0022898996248841286, 0.000840742897707969, 0.0013211581390351057, 0.005077166482806206, 0.003942773211747408, 0.015431994572281837, 0.010405774228274822, 0.03404880687594414, 0.10029207170009613, 0.07569598406553268, 0.07269389182329178, 0.027413267642259598, 0.08824250847101212, 0.10188985615968704, 0.18923689424991608, 0.020066000521183014, 0.1161022037267685, 0.0960373729467392], [0.051667697727680206, 0.01149971503764391, 0.007613666821271181, 0.007104056421667337, 0.0023429691791534424, 0.0014146239263936877, 0.004522174596786499, 0.006210322957485914, 0.02485216222703457, 0.009285040199756622, 0.04521824046969414, 0.04949658364057541, 0.07188627868890762, 0.10448689758777618, 0.03150361776351929, 0.060399558395147324, 0.07583456486463547, 0.2266206294298172, 0.03119664266705513, 0.05115336552262306, 0.1256912499666214]], [[0.2435227632522583, 0.011207258328795433, 0.05625135451555252, 0.1105925664305687, 0.011176669970154762, 0.0047551486641168594, 0.06986194103956223, 0.0058793737553060055, 0.013363239355385303, 0.07838603854179382, 0.012974078767001629, 0.04093538224697113, 0.013201175257563591, 0.009906057268381119, 0.09140380471944809, 0.035450439900159836, 0.026753894984722137, 0.012802761979401112, 0.022542092949151993, 0.011510234326124191, 0.11752383410930634], [0.08380229026079178, 0.10187133401632309, 0.004453091882169247, 0.01272896584123373, 0.013030038215219975, 0.0187448151409626, 0.004442271776497364, 0.01592986285686493, 0.12611649930477142, 0.010040120221674442, 0.132333904504776, 0.0037565180100500584, 0.015805257484316826, 0.13124869763851166, 0.006593532860279083, 0.006476996932178736, 0.020862329751253128, 0.16561800241470337, 0.005675982683897018, 0.016211839392781258, 0.10425770282745361], [0.4620376229286194, 0.033360302448272705, 0.008880318142473698, 0.045422445982694626, 0.007514548487961292, 0.004622134380042553, 0.005231214687228203, 0.017253335565328598, 0.032916050404310226, 0.06191493570804596, 0.03370587155222893, 0.009247875772416592, 0.01236548088490963, 0.03146689757704735, 0.021931663155555725, 0.020205454900860786, 0.024997593834996223, 0.039861034601926804, 0.034408506006002426, 0.02168240025639534, 0.07097431272268295], [0.6063193082809448, 0.02746785804629326, 0.007275463547557592, 0.017222343012690544, 0.008422354236245155, 0.005676123313605785, 0.00487939827144146, 0.01025450136512518, 0.045128222554922104, 0.03342985734343529, 0.041940782219171524, 0.007985654287040234, 0.012588061392307281, 0.03947427496314049, 0.003351734019815922, 0.013724426738917828, 0.022914372384548187, 0.05036097764968872, 0.007510650437325239, 0.008143491111695766, 0.025930272415280342], [0.46560779213905334, 0.015397613868117332, 0.008167322725057602, 0.04364712908864021, 0.005376732908189297, 0.005526263266801834, 0.004654077813029289, 0.005561602767556906, 0.023901022970676422, 0.14018996059894562, 0.024199960753321648, 0.00942199770361185, 0.008078404702246189, 0.019295768812298775, 0.007803450804203749, 0.05210770666599274, 0.02384781278669834, 0.024459782987833023, 0.031078046187758446, 0.035333335399627686, 0.046344202011823654], [0.3487125337123871, 0.04807453230023384, 0.007306505460292101, 0.03696908429265022, 0.009878584183752537, 0.013832025229930878, 0.00414955522865057, 0.008799598552286625, 0.06007346510887146, 0.06958592683076859, 0.058375511318445206, 0.00603591138496995, 0.010355798527598381, 0.05802762135863304, 0.011108611710369587, 0.027408920228481293, 0.020742779597640038, 0.06744767725467682, 0.010869605466723442, 0.02936847321689129, 0.09287726879119873], [0.31547513604164124, 0.0239748265594244, 0.01690598949790001, 0.01795562170445919, 0.01041192002594471, 0.01274778787046671, 0.00916763860732317, 0.015638552606105804, 0.03984932228922844, 0.03803589195013046, 0.0365758053958416, 0.011740704998373985, 0.010972827672958374, 0.0362982302904129, 0.012980667874217033, 0.01811554655432701, 0.0489092618227005, 0.04878537356853485, 0.010476605035364628, 0.022948818281292915, 0.24203357100486755], [0.23623083531856537, 0.04366425424814224, 0.014098085463047028, 0.02869303524494171, 0.008723283186554909, 0.010062208399176598, 0.013010374270379543, 0.013486940413713455, 0.057029470801353455, 0.07113824039697647, 0.0542411245405674, 0.011570267379283905, 0.0095103420317173, 0.05039828270673752, 0.02082141861319542, 0.03744294494390488, 0.06793858110904694, 0.06567799299955368, 0.01922750473022461, 0.04611949622631073, 0.1209152340888977], [0.045829929411411285, 0.1260046511888504, 0.003785270731896162, 0.0068245395086705685, 0.012977012433111668, 0.025895537808537483, 0.0024680288042873144, 0.013868913054466248, 0.1435226947069168, 0.007595295086503029, 0.1408206820487976, 0.002716323360800743, 0.011224310845136642, 0.14908628165721893, 0.003991581499576569, 0.004364189691841602, 0.015096442773938179, 0.18328209221363068, 0.0034768092446029186, 0.013073700480163097, 0.0840957909822464], [0.2985653579235077, 0.04009127616882324, 0.01368381455540657, 0.04177341237664223, 0.008542019873857498, 0.0063974978402256966, 0.009970344603061676, 0.023880962282419205, 0.05281820520758629, 0.033043019473552704, 0.05922654643654823, 0.01622920297086239, 0.014559387229382992, 0.05709590017795563, 0.012935183942317963, 0.021908609196543694, 0.037745144218206406, 0.06645473092794418, 0.01491586584597826, 0.029132066294550896, 0.1410314440727234], [0.042902324348688126, 0.1289663314819336, 0.004037132952362299, 0.006637054029852152, 0.013647254556417465, 0.027635758742690086, 0.002372626680880785, 0.0141379339620471, 0.14315195381641388, 0.007605250459164381, 0.13945549726486206, 0.0028638725634664297, 0.012060187757015228, 0.15266357362270355, 0.004072616342455149, 0.004169458989053965, 0.014810721389949322, 0.18516191840171814, 0.0037852975074201822, 0.013054725714027882, 0.07680854946374893], [0.4346266984939575, 0.04011840745806694, 0.010153287090361118, 0.04392438381910324, 0.00870404951274395, 0.005772655364125967, 0.004660427570343018, 0.016970984637737274, 0.03748694434762001, 0.05764533951878548, 0.03668457642197609, 0.009585807099938393, 0.012190499342978, 0.03576035052537918, 0.02192777395248413, 0.02091527357697487, 0.02997208572924137, 0.04423113539814949, 0.029666056856513023, 0.021174974739551544, 0.07782828062772751], [0.3343135118484497, 0.022632144391536713, 0.012097381986677647, 0.050023943185806274, 0.008702329359948635, 0.010047447867691517, 0.007057143375277519, 0.008727620355784893, 0.029982812702655792, 0.12122105062007904, 0.030802082270383835, 0.013217986561357975, 0.012014270760118961, 0.025349989533424377, 0.01072545163333416, 0.07020420581102371, 0.040227629244327545, 0.031803447753190994, 0.03557978570461273, 0.04464767128229141, 0.08062218874692917], [0.05632013827562332, 0.12429062277078629, 0.004237527027726173, 0.007553343661129475, 0.013072622939944267, 0.026850150898098946, 0.002497243694961071, 0.013073844835162163, 0.13611996173858643, 0.009236780926585197, 0.1302947998046875, 0.0027368785813450813, 0.010970481671392918, 0.13614803552627563, 0.003636183449998498, 0.005894109606742859, 0.018361380323767662, 0.17588965594768524, 0.004278796259313822, 0.014355972409248352, 0.10418141633272171], [0.19010667502880096, 0.05275047570466995, 0.010371929034590721, 0.042128078639507294, 0.02069864049553871, 0.021813059225678444, 0.005487149581313133, 0.019351644441485405, 0.048354748636484146, 0.008753533475100994, 0.048440463840961456, 0.0074400510638952255, 0.01721121184527874, 0.05282948538661003, 0.0064456225372850895, 0.019533688202500343, 0.0762125551700592, 0.06314317882061005, 0.010609898716211319, 0.015037520788609982, 0.26328039169311523], [0.2976045310497284, 0.03261512145400047, 0.015613673254847527, 0.05472379922866821, 0.01040526945143938, 0.011552444659173489, 0.03560981899499893, 0.010489147156476974, 0.04857586696743965, 0.062076203525066376, 0.04631788656115532, 0.012532166205346584, 0.012056771665811539, 0.04166772961616516, 0.04898688942193985, 0.020877424627542496, 0.0311894454061985, 0.05136178061366081, 0.014956708066165447, 0.05983844771981239, 0.08094888925552368], [0.3621383011341095, 0.06320566684007645, 0.009680044837296009, 0.012609418481588364, 0.00732077844440937, 0.010437069460749626, 0.015090961940586567, 0.01425272785127163, 0.07831887155771255, 0.0301525741815567, 0.07093539834022522, 0.008439348079264164, 0.007515306584537029, 0.07224208861589432, 0.023009493947029114, 0.013557699508965015, 0.018451103940606117, 0.08664951473474503, 0.023166783154010773, 0.03236610069870949, 0.04046076163649559], [0.04155285283923149, 0.1288733035326004, 0.004416242241859436, 0.007473909296095371, 0.013236145488917828, 0.027791716158390045, 0.002679352182894945, 0.01309131272137165, 0.14075469970703125, 0.00741711538285017, 0.13715556263923645, 0.003173341043293476, 0.01165411900728941, 0.1496441811323166, 0.00410729693248868, 0.0044957357458770275, 0.015241573564708233, 0.18062126636505127, 0.004179005976766348, 0.013455024920403957, 0.08898637443780899], [0.27875009179115295, 0.04126647487282753, 0.014686604030430317, 0.052030425518751144, 0.013246677815914154, 0.008593209087848663, 0.004025633912533522, 0.0106542082503438, 0.05938981473445892, 0.030977385118603706, 0.05718725174665451, 0.013593076728284359, 0.019443316385149956, 0.06542856246232986, 0.010477755218744278, 0.031578585505485535, 0.02750362455844879, 0.06837227940559387, 0.007314308546483517, 0.038553718477487564, 0.14692698419094086], [0.12576855719089508, 0.10283108055591583, 0.007751115132123232, 0.030154168605804443, 0.014662380330264568, 0.020360266789793968, 0.009340307675302029, 0.024415070191025734, 0.11320160329341888, 0.01287567988038063, 0.10754714906215668, 0.006641411688178778, 0.01616280898451805, 0.11662359535694122, 0.011441084556281567, 0.016540704295039177, 0.03661006689071655, 0.130420982837677, 0.006930623669177294, 0.01691158302128315, 0.07280988246202469], [0.14299897849559784, 0.042900774627923965, 0.05351566895842552, 0.060365788638591766, 0.016348810866475105, 0.01223941333591938, 0.0750870555639267, 0.0162664782255888, 0.04815582558512688, 0.04620743170380592, 0.04736033454537392, 0.04282208904623985, 0.022364716976881027, 0.045098260045051575, 0.09626752138137817, 0.022483250126242638, 0.02360205538570881, 0.04937054216861725, 0.023823145776987076, 0.023931244388222694, 0.08879061043262482]], [[0.21045123040676117, 0.014814565889537334, 0.05701371282339096, 0.04212141036987305, 0.03281201049685478, 0.01066877506673336, 0.0919802114367485, 0.006031509954482317, 0.02576548047363758, 0.07030171900987625, 0.024278078228235245, 0.060798801481723785, 0.033388447016477585, 0.022066470235586166, 0.0687793642282486, 0.108225017786026, 0.018460983410477638, 0.022695017978549004, 0.04092996194958687, 0.022411465644836426, 0.016005773097276688], [0.0093473419547081, 0.08868011832237244, 0.015561778098344803, 0.01103329285979271, 0.004052497446537018, 0.007530369330197573, 0.0058541265316307545, 0.03948705643415451, 0.02985273115336895, 0.00373728945851326, 0.026012182235717773, 0.003103263210505247, 0.0011775934835895896, 0.01765557937324047, 0.002122343285009265, 0.0022304183803498745, 0.0030372911132872105, 0.013469631783664227, 0.0018511133966967463, 0.0045863850973546505, 0.709617555141449], [0.10346496105194092, 0.08451948314905167, 0.031386516988277435, 0.021885350346565247, 0.004385277163237333, 0.0210085678845644, 0.018364394083619118, 0.008083801716566086, 0.05165950208902359, 0.027200527489185333, 0.046654507517814636, 0.013174205087125301, 0.001201257691718638, 0.02401873469352722, 0.000362439954187721, 0.011597536504268646, 0.006245545577257872, 0.02251483127474785, 0.01975373923778534, 0.00254033668898046, 0.4799784719944], [0.32674121856689453, 0.03830516338348389, 0.08888101577758789, 0.10099193453788757, 0.05129939690232277, 0.012988930568099022, 0.008464610204100609, 0.009051002562046051, 0.015363202430307865, 0.008291495963931084, 0.019941657781600952, 0.07550495862960815, 0.03675643354654312, 0.014815431088209152, 0.03082980029284954, 0.022562064230442047, 0.03789403289556503, 0.016419747844338417, 0.024472754448652267, 0.014875960536301136, 0.045549314469099045], [0.07745607942342758, 0.19387376308441162, 0.015135017223656178, 0.014075209386646748, 0.005642704665660858, 0.08275483548641205, 0.025055676698684692, 0.02750553749501705, 0.11798930168151855, 0.009868677705526352, 0.12575171887874603, 0.0064385575242340565, 0.002064328407868743, 0.07642431557178497, 0.005015946459025145, 0.008517900481820107, 0.004872649442404509, 0.06529378145933151, 0.011044160462915897, 0.011684773489832878, 0.1135350689291954], [0.08073626458644867, 0.08975117653608322, 0.006818653084337711, 0.030975831672549248, 0.018488800153136253, 0.08899041265249252, 0.018541861325502396, 0.023667849600315094, 0.15014569461345673, 0.00812762975692749, 0.14183008670806885, 0.005626646801829338, 0.01049032062292099, 0.12241761386394501, 0.002947303233668208, 0.005826289299875498, 0.00968125555664301, 0.09767384082078934, 0.01218496449291706, 0.018104037269949913, 0.056973446160554886], [0.2630365192890167, 0.03898362070322037, 0.008698618039488792, 0.05386189743876457, 0.0187545046210289, 0.10106973350048065, 0.004679449833929539, 0.013318379409611225, 0.10659714788198471, 0.006685065105557442, 0.09138081222772598, 0.01012135948985815, 0.018582075834274292, 0.11434637010097504, 0.0014188300119712949, 0.0029404505621641874, 0.00884650181978941, 0.0874512791633606, 0.00823753047734499, 0.013443857431411743, 0.027546096593141556], [0.15234243869781494, 0.07047385722398758, 0.017517082393169403, 0.08526800572872162, 0.0189414881169796, 0.018969273194670677, 0.013245264068245888, 0.020880669355392456, 0.10689076781272888, 0.0219712071120739, 0.10526334494352341, 0.01912626624107361, 0.013648808002471924, 0.08588764816522598, 0.005204931832849979, 0.013534234836697578, 0.02473846822977066, 0.08002536743879318, 0.01338602602481842, 0.01223413273692131, 0.10045067220926285], [0.10720399022102356, 0.07377534359693527, 0.010639062151312828, 0.02829306200146675, 0.013296142220497131, 0.07044065743684769, 0.019570374861359596, 0.037469282746315, 0.12373188138008118, 0.012284667231142521, 0.10782665759325027, 0.008859752677381039, 0.010465724393725395, 0.10647616535425186, 0.004795876797288656, 0.0073695401661098, 0.015223534777760506, 0.09102348238229752, 0.011981901712715626, 0.0353727862238884, 0.10390014201402664], [0.10768317431211472, 0.036099210381507874, 0.005312439985573292, 0.01882789097726345, 0.009562664665281773, 0.22526869177818298, 0.00373707409016788, 0.01256777998059988, 0.10887162387371063, 0.0032110230531543493, 0.11590459942817688, 0.008843195624649525, 0.01187794841825962, 0.14500205218791962, 0.000740418559871614, 0.0032524617854505777, 0.010237064212560654, 0.10574080049991608, 0.011796573176980019, 0.0208857711404562, 0.034577567130327225], [0.12377245724201202, 0.058596350252628326, 0.009308287873864174, 0.02728130668401718, 0.01504805963486433, 0.07857543230056763, 0.01764797233045101, 0.03361159935593605, 0.1253860592842102, 0.013396909460425377, 0.11343629658222198, 0.009554607793688774, 0.013101802207529545, 0.11798149347305298, 0.007361259311437607, 0.00776134105399251, 0.015213629230856895, 0.1033463254570961, 0.014203284867107868, 0.03529030829668045, 0.060125213116407394], [0.40338677167892456, 0.036955825984478, 0.013039185665547848, 0.029603948816657066, 0.00800003670156002, 0.05123963579535484, 0.019513871520757675, 0.005167753901332617, 0.08107331395149231, 0.03387698531150818, 0.07258175313472748, 0.014900594018399715, 0.004799770191311836, 0.05401553213596344, 0.0006934826960787177, 0.01486358605325222, 0.011858892627060413, 0.05594925582408905, 0.03356711193919182, 0.005868596024811268, 0.049044106155633926], [0.1491086632013321, 0.1108095794916153, 0.011355104856193066, 0.013378926552832127, 0.005887280683964491, 0.1040852889418602, 0.025368161499500275, 0.024006541818380356, 0.11532764136791229, 0.013895298354327679, 0.11941520869731903, 0.007943939417600632, 0.0034895306453108788, 0.09703294187784195, 0.006059145089238882, 0.010363609530031681, 0.010199906304478645, 0.09081130474805832, 0.019776543602347374, 0.02125607803463936, 0.04042930155992508], [0.15783259272575378, 0.04940599948167801, 0.008151926100254059, 0.02774910256266594, 0.01595352217555046, 0.08237290382385254, 0.016922323033213615, 0.023289568722248077, 0.1257365643978119, 0.01618177443742752, 0.1105974093079567, 0.00913978647440672, 0.014726663008332253, 0.1159788966178894, 0.004908374976366758, 0.007009279448539019, 0.015423602424561977, 0.11262819916009903, 0.0162468571215868, 0.03099108673632145, 0.03875354304909706], [0.147136852145195, 0.024701368063688278, 0.0008871507016010582, 0.009395921602845192, 0.0016480005579069257, 0.1487947553396225, 0.0027090676594525576, 0.013779189437627792, 0.12851482629776, 0.0011929875472560525, 0.12239895761013031, 0.0022664894349873066, 0.002262744354084134, 0.19077739119529724, 0.0005436024512164295, 0.0018158321036025882, 0.028530996292829514, 0.1201704815030098, 0.006173169706016779, 0.0370737761259079, 0.009226341731846333], [0.1654442995786667, 0.008444953709840775, 0.0039278785698115826, 0.07484549283981323, 0.20810246467590332, 0.010188054293394089, 0.0018714420730248094, 0.0037863359320908785, 0.042252492159605026, 0.0054489499889314175, 0.039974749088287354, 0.007659744005650282, 0.29221394658088684, 0.044268861413002014, 0.004100522957742214, 0.0022269210312515497, 0.014292038045823574, 0.05321386456489563, 0.0032138258684426546, 0.005024484824389219, 0.009498681873083115], [0.322677880525589, 0.016632724553346634, 0.0039931102655828, 0.03271857649087906, 0.04536837711930275, 0.023569650948047638, 0.0033752024173736572, 0.016462424769997597, 0.08584322035312653, 0.006110962014645338, 0.07769231498241425, 0.008911492303013802, 0.06703536212444305, 0.08775355666875839, 0.0023034457117319107, 0.012289087288081646, 0.049617916345596313, 0.09596763551235199, 0.007724266964942217, 0.020759912207722664, 0.013192969374358654], [0.11752559244632721, 0.0553228035569191, 0.010356839746236801, 0.027997249737381935, 0.018104661256074905, 0.05253422260284424, 0.01908792182803154, 0.03389342501759529, 0.12174959480762482, 0.014015927910804749, 0.11074870079755783, 0.0108874486759305, 0.018074272200465202, 0.12458457052707672, 0.009094609878957272, 0.009736265987157822, 0.02093486115336418, 0.11653084307909012, 0.017430700361728668, 0.040522631257772446, 0.05086689442396164], [0.19775265455245972, 0.03435581922531128, 0.011060424149036407, 0.024346062913537025, 0.005457398947328329, 0.03069349378347397, 0.012159817852079868, 0.012484762817621231, 0.11495538800954819, 0.015855804085731506, 0.11324729025363922, 0.02086135558784008, 0.007882156409323215, 0.11234569549560547, 0.002055161166936159, 0.02106301486492157, 0.018032442778348923, 0.12483461946249008, 0.026146534830331802, 0.01893029734492302, 0.07547976821660995], [0.1149895191192627, 0.03800282999873161, 0.009835840202867985, 0.05488360673189163, 0.005683866795152426, 0.006601964123547077, 0.008541847579181194, 0.012564854696393013, 0.12074310332536697, 0.016164593398571014, 0.1269688606262207, 0.0183061882853508, 0.007646283600479364, 0.13412156701087952, 0.02977694943547249, 0.010658757761120796, 0.021710960194468498, 0.17784878611564636, 0.026442652568221092, 0.02696646749973297, 0.03154044225811958], [0.18605192005634308, 0.1610254943370819, 0.05967497080564499, 0.0682472512125969, 0.07238119840621948, 0.10721303522586823, 0.04779772832989693, 0.004620513413101435, 0.025764113292098045, 0.07425790280103683, 0.020833229646086693, 0.013320905156433582, 0.01794266514480114, 0.008543024770915508, 0.008841349743306637, 0.004759819246828556, 0.0016212917398661375, 0.008388618007302284, 0.006239039823412895, 0.003069591475650668, 0.09940639138221741]], [[0.3191049098968506, 0.03798878565430641, 0.017857268452644348, 0.021837016567587852, 0.015092449262738228, 0.010206760838627815, 0.0198760237544775, 0.01854187808930874, 0.03577557951211929, 0.0085831880569458, 0.03800800070166588, 0.021637510508298874, 0.021274004131555557, 0.028647635132074356, 0.019226854667067528, 0.012721709907054901, 0.024303825572133064, 0.04309618100523949, 0.014413234777748585, 0.023299366235733032, 0.2485077828168869], [0.14562785625457764, 0.03255145251750946, 0.026588767766952515, 0.02801263891160488, 0.027399083599448204, 0.025767775252461433, 0.025283683091402054, 0.03703974932432175, 0.044497545808553696, 0.048850350081920624, 0.059717807918787, 0.056814875453710556, 0.04615800827741623, 0.04744955524802208, 0.04737992212176323, 0.027642162516713142, 0.020703716203570366, 0.03240872547030449, 0.021547483280301094, 0.020063290372490883, 0.17849557101726532], [0.01930825039744377, 0.039462730288505554, 0.08773799240589142, 0.003919972572475672, 0.004760066978633404, 0.031964827328920364, 0.0589948445558548, 0.05690255016088486, 0.03964565321803093, 0.2030283659696579, 0.043752241879701614, 0.18650680780410767, 0.00892761629074812, 0.03632153570652008, 0.03915383294224739, 0.007912280037999153, 0.012151296250522137, 0.030286796391010284, 0.005767373833805323, 0.005052659660577774, 0.07844243943691254], [0.03724643588066101, 0.09823058545589447, 0.05977507680654526, 0.0780571848154068, 0.032583825290203094, 0.042523808777332306, 0.013967474922537804, 0.03973536938428879, 0.03580591827630997, 0.02159760147333145, 0.042747195810079575, 0.039656516164541245, 0.05175051838159561, 0.04227271303534508, 0.02130427025258541, 0.047905195504426956, 0.029892688617110252, 0.052728474140167236, 0.010836342349648476, 0.013340519741177559, 0.1880422979593277], [0.243523970246315, 0.056181780993938446, 0.11179039627313614, 0.04537680000066757, 0.005931876599788666, 0.015601102262735367, 0.014492594636976719, 0.035555869340896606, 0.03181474655866623, 0.06877671927213669, 0.02672187238931656, 0.0676737055182457, 0.016626857221126556, 0.02355540171265602, 0.010943189263343811, 0.019246939569711685, 0.017002718523144722, 0.04575404152274132, 0.03740562126040459, 0.01669624075293541, 0.0893276184797287], [0.21123525500297546, 0.051881980150938034, 0.10505597293376923, 0.04503794386982918, 0.017942996695637703, 0.008359361439943314, 0.009413541294634342, 0.02401863783597946, 0.03724323958158493, 0.04762144014239311, 0.03581931069493294, 0.05096909776329994, 0.028115542605519295, 0.02820347249507904, 0.032540399581193924, 0.012192265130579472, 0.012288115918636322, 0.03548179194331169, 0.03845169395208359, 0.03463658317923546, 0.13349154591560364], [0.04001479968428612, 0.054607097059488297, 0.030446061864495277, 0.025828968733549118, 0.03475471958518028, 0.03703974559903145, 0.03288291394710541, 0.05335057154297829, 0.05800764635205269, 0.07160045951604843, 0.08967658132314682, 0.024318218231201172, 0.01884210668504238, 0.06843988597393036, 0.08003728836774826, 0.010018302127718925, 0.005871801171451807, 0.04695911332964897, 0.007436276879161596, 0.02370772324502468, 0.1861596703529358], [0.07113286107778549, 0.03949207812547684, 0.06255507469177246, 0.04821384698152542, 0.06016368418931961, 0.04790819063782692, 0.023472001776099205, 0.03280822932720184, 0.020392615348100662, 0.011283721774816513, 0.041993916034698486, 0.053202152252197266, 0.019319819286465645, 0.029253412038087845, 0.0544562041759491, 0.018721580505371094, 0.014613216742873192, 0.0323101244866848, 0.023242786526679993, 0.07296419143676758, 0.2225002646446228], [0.1577502191066742, 0.04945783317089081, 0.04907615855336189, 0.04044468328356743, 0.04042346030473709, 0.04458093270659447, 0.043455883860588074, 0.02967011369764805, 0.026063472032546997, 0.03244996815919876, 0.04274391382932663, 0.06307230144739151, 0.04344673827290535, 0.03664484620094299, 0.03183257579803467, 0.014260564930737019, 0.018007725477218628, 0.03852945938706398, 0.027912510558962822, 0.026986459270119667, 0.14319021999835968], [0.027183329686522484, 0.08262468129396439, 0.06039312481880188, 0.003631994593888521, 0.004864396993070841, 0.0066048940643668175, 0.05206403136253357, 0.01715965010225773, 0.07259657979011536, 0.18300144374370575, 0.053681522607803345, 0.07705697417259216, 0.010053317993879318, 0.06300545483827591, 0.0017521888948976994, 0.00429185014218092, 0.0023366205859929323, 0.05771604925394058, 0.022361133247613907, 0.019650300964713097, 0.17797048389911652], [0.16992251574993134, 0.06283409893512726, 0.047181274741888046, 0.03320547938346863, 0.021713634952902794, 0.02926682122051716, 0.04095178470015526, 0.07878543436527252, 0.07324115931987762, 0.047251347452402115, 0.031726643443107605, 0.027537720277905464, 0.028274286538362503, 0.05206139385700226, 0.03732289373874664, 0.015890594571828842, 0.014777329750359058, 0.03819612041115761, 0.025226064026355743, 0.026598582044243813, 0.09803476929664612], [0.017938880249857903, 0.04475385695695877, 0.15529704093933105, 0.006867512594908476, 0.0033693655859678984, 0.02357945777475834, 0.06583242118358612, 0.08749394863843918, 0.08731453120708466, 0.21418450772762299, 0.03237367421388626, 0.08779815584421158, 0.002670207293704152, 0.030336443334817886, 0.032242704182863235, 0.0040498413145542145, 0.005512638948857784, 0.02555684931576252, 0.005436365958303213, 0.008264122530817986, 0.05912743881344795], [0.17154459655284882, 0.025276996195316315, 0.10001292079687119, 0.05855347961187363, 0.009412028826773167, 0.02579241618514061, 0.025930875912308693, 0.02700924687087536, 0.04334438219666481, 0.1677539199590683, 0.039981648325920105, 0.10032214224338531, 0.005846846848726273, 0.011324658989906311, 0.010595316998660564, 0.01990041695535183, 0.010952115058898926, 0.024478740990161896, 0.021581295877695084, 0.013930678367614746, 0.08645535260438919], [0.17697031795978546, 0.0416647270321846, 0.05801311135292053, 0.027658700942993164, 0.023078279569745064, 0.029559142887592316, 0.03295338153839111, 0.03543616086244583, 0.040078483521938324, 0.07481161504983902, 0.07126592844724655, 0.10160648822784424, 0.027972357347607613, 0.017162784934043884, 0.028398621827363968, 0.01338381227105856, 0.01693887636065483, 0.042683809995651245, 0.02702764794230461, 0.02340024523437023, 0.08993558585643768], [0.02177518792450428, 0.09787444025278091, 0.044248368591070175, 0.0449976809322834, 0.016198569908738136, 0.029193582013249397, 0.018164053559303284, 0.034434735774993896, 0.08641605824232101, 0.0159674771130085, 0.1267310529947281, 0.07391182333230972, 0.017732493579387665, 0.05540984496474266, 0.02219199202954769, 0.016615180298686028, 0.012744680047035217, 0.08716649562120438, 0.004665043205022812, 0.04107717052102089, 0.13248412311077118], [0.060833320021629333, 0.042585596442222595, 0.02140822634100914, 0.04033060744404793, 0.02113846130669117, 0.034889448434114456, 0.014498189091682434, 0.07835384458303452, 0.0532262958586216, 0.0119819650426507, 0.05051979050040245, 0.029337486252188683, 0.04870302230119705, 0.06109856814146042, 0.17805582284927368, 0.009018725715577602, 0.014605746604502201, 0.04761531576514244, 0.009611358866095543, 0.03699073940515518, 0.13519753515720367], [0.06553532928228378, 0.03799409791827202, 0.014290593564510345, 0.03012949414551258, 0.031695783138275146, 0.028752440586686134, 0.015689894556999207, 0.04164798930287361, 0.07487505674362183, 0.011995193548500538, 0.06688670068979263, 0.022948037832975388, 0.07029841095209122, 0.11770801991224289, 0.07110278308391571, 0.01696365885436535, 0.011519798077642918, 0.04196639731526375, 0.013852298259735107, 0.03351728618144989, 0.18063078820705414], [0.15436957776546478, 0.028573721647262573, 0.027542876079678535, 0.033370692282915115, 0.02938997559249401, 0.02588859386742115, 0.03590450435876846, 0.039951324462890625, 0.04872669652104378, 0.051618266850709915, 0.04837289825081825, 0.05123671516776085, 0.04434851557016373, 0.053489599376916885, 0.07597288489341736, 0.038617126643657684, 0.019511360675096512, 0.027142509818077087, 0.02349109947681427, 0.023778952658176422, 0.11870210617780685], [0.019175471737980843, 0.06133361905813217, 0.016176721081137657, 0.0048138746060431, 0.01900864578783512, 0.014865787699818611, 0.009007121436297894, 0.009267967194318771, 0.11232011765241623, 0.01994798146188259, 0.13895109295845032, 0.06193450838327408, 0.04145118594169617, 0.09315638989210129, 0.036040592938661575, 0.015228104777634144, 0.009973646141588688, 0.11164318025112152, 0.02294023521244526, 0.014833344146609306, 0.16793039441108704], [0.2249280959367752, 0.03960487246513367, 0.019871512427926064, 0.0017154566012322903, 0.006410995963960886, 0.009275038726627827, 0.026885148137807846, 0.021509844809770584, 0.042181819677352905, 0.015316748060286045, 0.05652417615056038, 0.09404750913381577, 0.024312715977430344, 0.035806261003017426, 0.039508942514657974, 0.01174592599272728, 0.015478195622563362, 0.07577435672283173, 0.02820443920791149, 0.004557967185974121, 0.2063399851322174], [0.08964408189058304, 0.07181107252836227, 0.046753205358982086, 0.04430057108402252, 0.032997436821460724, 0.02711227536201477, 0.03002476878464222, 0.058781787753105164, 0.038201119750738144, 0.024722497910261154, 0.03367564082145691, 0.044288523495197296, 0.06577079743146896, 0.03315791115164757, 0.027440426871180534, 0.03597768396139145, 0.038917962461709976, 0.05096196010708809, 0.07990573346614838, 0.020948095247149467, 0.10460644960403442]], [[0.1765449196100235, 0.09962093830108643, 0.042882610112428665, 0.04583575204014778, 0.01937706768512726, 0.01683228649199009, 0.07862894237041473, 0.04026854783296585, 0.0697881355881691, 0.04400637373328209, 0.06818981468677521, 0.02393955923616886, 0.013028684072196484, 0.03732837736606598, 0.033419862389564514, 0.01154270302504301, 0.017891209572553635, 0.05988052487373352, 0.019357526674866676, 0.017502712085843086, 0.06413348764181137], [0.03369464352726936, 0.11025654524564743, 0.05510328710079193, 0.05951402336359024, 0.011028464883565903, 0.00919096078723669, 0.048669878393411636, 0.030369415879249573, 0.08324424177408218, 0.052903592586517334, 0.08380299806594849, 0.038660477846860886, 0.012205860577523708, 0.07223625481128693, 0.06878881901502609, 0.013697492890059948, 0.02884661965072155, 0.06994672864675522, 0.02705833688378334, 0.015154390595853329, 0.07562696933746338], [0.015885023400187492, 0.06972397863864899, 0.024601999670267105, 0.01401163823902607, 0.019715188071131706, 0.04173888638615608, 0.05694759637117386, 0.01770884543657303, 0.08187385648488998, 0.09857790917158127, 0.08183418214321136, 0.020848073065280914, 0.01667063869535923, 0.07728327065706253, 0.017572592943906784, 0.03352665156126022, 0.010274581611156464, 0.06890442222356796, 0.01423539500683546, 0.03694089129567146, 0.18112432956695557], [0.016925400123000145, 0.08564198762178421, 0.0836968645453453, 0.0034689870662987232, 0.017463956028223038, 0.04270940274000168, 0.05321761593222618, 0.01489657536149025, 0.08005964756011963, 0.05874115973711014, 0.07229463756084442, 0.05629730224609375, 0.011718323454260826, 0.0594603456556797, 0.02227410487830639, 0.013968872837722301, 0.009811010211706161, 0.07242453843355179, 0.0197231937199831, 0.03522823378443718, 0.16997787356376648], [0.024043818935751915, 0.0943995863199234, 0.04408172518014908, 0.03727761656045914, 0.013062817975878716, 0.048232946544885635, 0.03774901479482651, 0.022057203575968742, 0.09653939306735992, 0.02565852366387844, 0.09639407694339752, 0.030111128464341164, 0.010611175559461117, 0.08354130387306213, 0.01955302059650421, 0.034241992980241776, 0.025087697431445122, 0.08157547563314438, 0.006049447227269411, 0.021760866045951843, 0.14797106385231018], [0.03338687866926193, 0.08945830911397934, 0.02483672834932804, 0.038927312940359116, 0.02744731865823269, 0.03462650626897812, 0.03730468079447746, 0.02533303014934063, 0.09535280615091324, 0.03499928489327431, 0.09696268290281296, 0.017098668962717056, 0.021034976467490196, 0.08372006565332413, 0.02759631909430027, 0.02007189206779003, 0.015856077894568443, 0.07727336138486862, 0.007451844867318869, 0.029440099373459816, 0.16182123124599457], [0.016221631318330765, 0.11425015330314636, 0.02867366187274456, 0.011737272143363953, 0.024675754830241203, 0.03198714181780815, 0.00705102551728487, 0.007833142764866352, 0.11828804761171341, 0.045599453151226044, 0.11137452721595764, 0.01939220353960991, 0.019609255716204643, 0.09265320748090744, 0.03918694704771042, 0.020045435056090355, 0.007132110185921192, 0.08049488067626953, 0.011387798935174942, 0.031225724145770073, 0.16118063032627106], [0.02203262411057949, 0.040161773562431335, 0.00828144047409296, 0.016620397567749023, 0.007936544716358185, 0.012967487797141075, 0.026077454909682274, 0.3369409143924713, 0.05408841744065285, 0.017951346933841705, 0.05881567671895027, 0.007642889395356178, 0.0078262435272336, 0.04378348961472511, 0.01735629327595234, 0.04598265886306763, 0.04023551195859909, 0.05470632389187813, 0.00951213575899601, 0.05434210225939751, 0.11673817783594131], [0.041114479303359985, 0.08975887298583984, 0.04443995654582977, 0.040313296020030975, 0.011056912131607533, 0.012397297658026218, 0.03743668645620346, 0.02620125189423561, 0.08377059549093246, 0.05342632532119751, 0.08559469878673553, 0.039765097200870514, 0.015530696138739586, 0.08155467361211777, 0.09598595649003983, 0.01499788835644722, 0.020082276314496994, 0.07544706761837006, 0.02452743984758854, 0.018855806440114975, 0.08774276077747345], [0.06200926750898361, 0.07844678312540054, 0.027005838230252266, 0.020661890506744385, 0.013767431490123272, 0.015533729456365108, 0.0760863795876503, 0.0030440986156463623, 0.09940717369318008, 0.012656633742153645, 0.10355335474014282, 0.02381177246570587, 0.014206333085894585, 0.07946701347827911, 0.03344864398241043, 0.010968372225761414, 0.0033618116285651922, 0.09181006252765656, 0.03678745776414871, 0.021077511832118034, 0.17288826406002045], [0.03841660916805267, 0.0849636048078537, 0.05082184821367264, 0.03977060690522194, 0.011031107045710087, 0.012624390423297882, 0.04048033058643341, 0.02323886565864086, 0.07789541035890579, 0.05201325938105583, 0.08040899783372879, 0.04616803303360939, 0.015435517765581608, 0.07761900871992111, 0.10859575867652893, 0.015539244748651981, 0.020464638248085976, 0.07550543546676636, 0.030253063887357712, 0.020514899864792824, 0.07823935896158218], [0.01533910445868969, 0.05368422716856003, 0.024136293679475784, 0.008897592313587666, 0.02115403674542904, 0.05797749012708664, 0.051022719591856, 0.01437749806791544, 0.07348702102899551, 0.0832417905330658, 0.07595743983983994, 0.024310117587447166, 0.020044326782226562, 0.07338020950555801, 0.019858550280332565, 0.038404498249292374, 0.008431680500507355, 0.06996965408325195, 0.012997168116271496, 0.0448291189968586, 0.20849940180778503], [0.026919888332486153, 0.07348468899726868, 0.05455867946147919, 0.032720666378736496, 0.014192916452884674, 0.05315648019313812, 0.043687306344509125, 0.016351107507944107, 0.08222067356109619, 0.02452167123556137, 0.08464432507753372, 0.045456789433956146, 0.013089289888739586, 0.07823304831981659, 0.03126397728919983, 0.04751632735133171, 0.023912565782666206, 0.08140761405229568, 0.00770600838586688, 0.03398124873638153, 0.1309746652841568], [0.039925072342157364, 0.07884752005338669, 0.05245162919163704, 0.038099903613328934, 0.010958093218505383, 0.012649393640458584, 0.03786569833755493, 0.018018079921603203, 0.07449838519096375, 0.042616404592990875, 0.07907460629940033, 0.05156814306974411, 0.01706002838909626, 0.07579749822616577, 0.12086622416973114, 0.01981816068291664, 0.02434968762099743, 0.07801246643066406, 0.032869987189769745, 0.024119975045323372, 0.07053294032812119], [0.023496080189943314, 0.08986271917819977, 0.04957298934459686, 0.011218818835914135, 0.02215048484504223, 0.018183929845690727, 0.042221277952194214, 0.024568310007452965, 0.10324619710445404, 0.04741312563419342, 0.10113876312971115, 0.04638891667127609, 0.02941640466451645, 0.09315492957830429, 0.0038037823978811502, 0.00843020062893629, 0.006928453221917152, 0.10253114998340607, 0.034557852894067764, 0.028980839997529984, 0.1127348244190216], [0.07150550931692123, 0.07793837785720825, 0.023013928905129433, 0.011408302932977676, 0.015019171871244907, 0.023307425901293755, 0.050259366631507874, 0.031423456966876984, 0.09301196038722992, 0.016413142904639244, 0.08983879536390305, 0.018485533073544502, 0.013503697700798512, 0.07281573861837387, 0.012505370192229748, 0.024113904684782028, 0.020528333261609077, 0.10070069134235382, 0.009566960856318474, 0.04759727045893669, 0.17704303562641144], [0.053134799003601074, 0.07800328731536865, 0.021269042044878006, 0.01719805970788002, 0.013336259871721268, 0.024962104856967926, 0.02172802947461605, 0.13810205459594727, 0.08266973495483398, 0.01242155022919178, 0.0841328576207161, 0.020884554833173752, 0.014302445575594902, 0.0659269317984581, 0.014080428518354893, 0.0610363744199276, 0.028696581721305847, 0.07812218368053436, 0.010186780244112015, 0.03855939581990242, 0.12124662101268768], [0.05322076007723808, 0.08617265522480011, 0.04532469063997269, 0.03188735619187355, 0.008687678724527359, 0.011727550998330116, 0.0398343950510025, 0.020282072946429253, 0.07767072319984436, 0.04057687520980835, 0.08035969734191895, 0.04231495410203934, 0.012978869490325451, 0.07754546403884888, 0.10765080153942108, 0.019329555332660675, 0.024779794737696648, 0.0867815762758255, 0.032269854098558426, 0.02258283644914627, 0.07802186161279678], [0.061215125024318695, 0.08470731228590012, 0.03219163045287132, 0.01760045625269413, 0.016703389585018158, 0.014661112800240517, 0.06246229261159897, 0.007933591492474079, 0.10055338591337204, 0.04626593738794327, 0.11161184310913086, 0.022054549306631088, 0.01583637297153473, 0.06897706538438797, 0.024146873503923416, 0.014810447581112385, 0.006404696963727474, 0.09983375668525696, 0.0037453933618962765, 0.01985185593366623, 0.16843289136886597], [0.0632878839969635, 0.09709114581346512, 0.03455718234181404, 0.017995761707425117, 0.012785198166966438, 0.014029378071427345, 0.038488179445266724, 0.01024108286947012, 0.08478008210659027, 0.02265232801437378, 0.0894160270690918, 0.022292369976639748, 0.010324276983737946, 0.06980711966753006, 0.021988507360219955, 0.02047526277601719, 0.013221988454461098, 0.10377086699008942, 0.02612108178436756, 0.030796680599451065, 0.19587762653827667], [0.02526244707405567, 0.09973958134651184, 0.05550875887274742, 0.047394152730703354, 0.017328793182969093, 0.012433559633791447, 0.08342859894037247, 0.03420434892177582, 0.08091258257627487, 0.05039522796869278, 0.07885942608118057, 0.04258047789335251, 0.012855084612965584, 0.06456165015697479, 0.03493316471576691, 0.02169729769229889, 0.02236972562968731, 0.07791227847337723, 0.031830016523599625, 0.0231265127658844, 0.08266624063253403]], [[0.05068463459610939, 0.04470538720488548, 0.004736180417239666, 0.02292771264910698, 0.005775543861091137, 0.007207976188510656, 0.035078756511211395, 0.0041715530678629875, 0.020140893757343292, 0.02152916043996811, 0.022604510188102722, 0.0035109729506075382, 0.006080665625631809, 0.026959339156746864, 0.012776253744959831, 0.017119476571679115, 0.010080887004733086, 0.017375554889440536, 0.00918087549507618, 0.009832438081502914, 0.6475212574005127], [0.1688292771577835, 0.05798397958278656, 0.027495449408888817, 0.038101449608802795, 0.017418354749679565, 0.02523842640221119, 0.012594754807651043, 0.040949199348688126, 0.09241779148578644, 0.02294214442372322, 0.08508949726819992, 0.027037566527724266, 0.018295489251613617, 0.08884436637163162, 0.013384779915213585, 0.021826352924108505, 0.012760385870933533, 0.1040610745549202, 0.009715785272419453, 0.021189944818615913, 0.0938238725066185], [0.13658227026462555, 0.051057156175374985, 0.019697733223438263, 0.016043193638324738, 0.01851428672671318, 0.013469814322888851, 0.01487849373370409, 0.04648209363222122, 0.06746933609247208, 0.03367788344621658, 0.07248657941818237, 0.01960381679236889, 0.015961172059178352, 0.04892443120479584, 0.00592893548309803, 0.03206166997551918, 0.03073488548398018, 0.08580230921506882, 0.007106007542461157, 0.03752558305859566, 0.2259923666715622], [0.2982407808303833, 0.029418960213661194, 0.030396169051527977, 0.013268020004034042, 0.012073312886059284, 0.009897461161017418, 0.015498630702495575, 0.10206560045480728, 0.03999342769384384, 0.009814595803618431, 0.03676751255989075, 0.019101370126008987, 0.004465065430849791, 0.024095309898257256, 0.004446014761924744, 0.021725358441472054, 0.014361509121954441, 0.04780026897788048, 0.0005061232368461788, 0.009168329648673534, 0.25689613819122314], [0.12638792395591736, 0.078650563955307, 0.01809641718864441, 0.033272407948970795, 0.01990935020148754, 0.040712274610996246, 0.01124414149671793, 0.05586325749754906, 0.09349080175161362, 0.007109018974006176, 0.09071291238069534, 0.017438475042581558, 0.016659393906593323, 0.07459009438753128, 0.007559886667877436, 0.029176784679293633, 0.0185546912252903, 0.10580461472272873, 0.006633015815168619, 0.0234411358833313, 0.1246928870677948], [0.1456645131111145, 0.06419120728969574, 0.02555341273546219, 0.03603071719408035, 0.011764317750930786, 0.01492115668952465, 0.01068365853279829, 0.08292405307292938, 0.09908107668161392, 0.020986085757613182, 0.09981761872768402, 0.027108697220683098, 0.010060829110443592, 0.06346876174211502, 0.0157285388559103, 0.02627248875796795, 0.03112570196390152, 0.1024836003780365, 0.010066013783216476, 0.016116561368107796, 0.08595094084739685], [0.1330113559961319, 0.0536612831056118, 0.017557566985487938, 0.02464251220226288, 0.02220681682229042, 0.04002536088228226, 0.02465004287660122, 0.15970323979854584, 0.0771186351776123, 0.027324635535478592, 0.07504607737064362, 0.015037750825285912, 0.011772243306040764, 0.0353030301630497, 0.0065498086623847485, 0.03725321218371391, 0.043088167905807495, 0.0726836696267128, 0.00811850931495428, 0.02088034152984619, 0.09436582773923874], [0.11494116485118866, 0.08154048025608063, 0.016793973743915558, 0.02158973552286625, 0.016007959842681885, 0.015275642275810242, 0.03547779470682144, 0.05135355144739151, 0.06992638111114502, 0.016932424157857895, 0.07369738817214966, 0.013198737055063248, 0.013227907940745354, 0.0652402862906456, 0.008778402581810951, 0.02478918246924877, 0.019488519057631493, 0.06613856554031372, 0.006585327908396721, 0.0325138196349144, 0.2365027517080307], [0.14753419160842896, 0.06362781673669815, 0.03634233772754669, 0.0377432256937027, 0.01951172575354576, 0.029074648395180702, 0.016548385843634605, 0.05373702570796013, 0.09495898336172104, 0.02823295071721077, 0.08650790899991989, 0.03331308811903, 0.016271626576781273, 0.078493632376194, 0.013224301859736443, 0.023169593885540962, 0.014357746578752995, 0.10126547515392303, 0.007116769906133413, 0.024371284991502762, 0.07459741085767746], [0.10618069022893906, 0.04394963011145592, 0.02819208614528179, 0.05503067746758461, 0.016308560967445374, 0.025731833651661873, 0.026944385841488838, 0.032317500561475754, 0.04856707528233528, 0.018210161477327347, 0.052146587520837784, 0.024040939286351204, 0.011530723422765732, 0.04960089921951294, 0.026548011228442192, 0.06824959069490433, 0.03151391074061394, 0.0521455854177475, 0.009051889181137085, 0.017868371680378914, 0.25587090849876404], [0.1312166154384613, 0.062468308955430984, 0.03368294611573219, 0.03922729566693306, 0.021237295120954514, 0.03403746336698532, 0.012984351254999638, 0.047533754259347916, 0.10199093818664551, 0.023643001914024353, 0.08895247429609299, 0.032406363636255264, 0.02015889622271061, 0.08634783327579498, 0.014921355061233044, 0.02205313928425312, 0.013233990408480167, 0.1067432090640068, 0.008715308271348476, 0.02676410973072052, 0.07168141007423401], [0.1273813545703888, 0.04800676554441452, 0.026296183466911316, 0.017751870676875114, 0.022117065265774727, 0.016911549493670464, 0.015012524090707302, 0.05450758337974548, 0.07050027698278427, 0.03767382726073265, 0.07424742728471756, 0.025791358202695847, 0.01737021468579769, 0.048112902790308, 0.0066357203759253025, 0.029101315885782242, 0.03468616306781769, 0.08770189434289932, 0.007630625739693642, 0.04562919959425926, 0.18693417310714722], [0.11462391912937164, 0.06795413792133331, 0.024009184911847115, 0.03701939061284065, 0.02389642223715782, 0.052551209926605225, 0.013326150365173817, 0.05259105563163757, 0.08774521201848984, 0.00853226613253355, 0.08443919569253922, 0.0233792532235384, 0.01743263565003872, 0.06803246587514877, 0.008860286325216293, 0.029646847397089005, 0.023252146318554878, 0.10150942951440811, 0.010110585950314999, 0.02286798320710659, 0.12822021543979645], [0.1247791051864624, 0.05588545277714729, 0.04790821671485901, 0.03936208039522171, 0.023107795044779778, 0.03138863295316696, 0.013932967558503151, 0.07023375481367111, 0.09330524504184723, 0.027204999700188637, 0.08072825521230698, 0.043810512870550156, 0.019569260999560356, 0.07439238578081131, 0.019495103508234024, 0.022272393107414246, 0.019849885255098343, 0.10154668986797333, 0.013135877437889576, 0.026921985670924187, 0.05116933211684227], [0.22930437326431274, 0.02890181727707386, 0.008731121197342873, 0.032211918383836746, 0.03043060004711151, 0.02779538370668888, 0.0206027589738369, 0.027078814804553986, 0.053621407598257065, 0.034971777349710464, 0.05084076523780823, 0.009732852689921856, 0.015499397180974483, 0.03622700646519661, 0.0020896391943097115, 0.01849687471985817, 0.0186653733253479, 0.0684867799282074, 0.007772667799144983, 0.025807730853557587, 0.2527309060096741], [0.09793435037136078, 0.09826601296663284, 0.002286833245307207, 0.004544822499155998, 0.008417727425694466, 0.0068933237344026566, 0.0077806212939321995, 0.009370718151330948, 0.17299440503120422, 0.002594150137156248, 0.16332438588142395, 0.0023906033020466566, 0.009444898925721645, 0.15348263084888458, 0.0016325461911037564, 0.0047287060879170895, 0.015705840662121773, 0.12182749062776566, 0.010025924071669579, 0.010493196547031403, 0.09586084634065628], [0.0813845843076706, 0.08313722908496857, 0.021943483501672745, 0.0238974466919899, 0.019260505214333534, 0.03598419576883316, 0.030131645500659943, 0.035992737859487534, 0.06441809237003326, 0.013765312731266022, 0.0684533417224884, 0.016173364594578743, 0.015114821493625641, 0.08451856672763824, 0.008706546388566494, 0.02468162402510643, 0.011081819422543049, 0.05611387640237808, 0.004556044936180115, 0.03435022011399269, 0.26633456349372864], [0.1349429488182068, 0.06614847481250763, 0.03718002513051033, 0.03258763626217842, 0.01887541078031063, 0.027740806341171265, 0.01776367612183094, 0.04653292894363403, 0.0984664335846901, 0.02421466074883938, 0.0897212103009224, 0.03364132344722748, 0.016543500125408173, 0.08774439245462418, 0.015128441154956818, 0.0203336663544178, 0.013334846124053001, 0.10446389764547348, 0.008204651065170765, 0.026632031425833702, 0.07979901134967804], [0.10013221204280853, 0.05960388109087944, 0.02355593629181385, 0.049470771104097366, 0.01390031911432743, 0.010483479127287865, 0.01610410213470459, 0.010672410950064659, 0.05078115314245224, 0.02041144296526909, 0.05478103831410408, 0.02153708040714264, 0.010714659467339516, 0.053834423422813416, 0.010780968703329563, 0.020911140367388725, 0.01119990274310112, 0.05136936157941818, 0.0062385848723351955, 0.01371586974710226, 0.38980117440223694], [0.06955235451459885, 0.10291319340467453, 0.009129599668085575, 0.030141396448016167, 0.019727906212210655, 0.027081061154603958, 0.01490683201700449, 0.013597396202385426, 0.11701734364032745, 0.007539124693721533, 0.11092495918273926, 0.008708546869456768, 0.018219297751784325, 0.12718971073627472, 0.005193891003727913, 0.016389722004532814, 0.005729027558118105, 0.10848910361528397, 0.004764714278280735, 0.016642948612570763, 0.16614191234111786], [0.0568704791367054, 0.05583152174949646, 0.019073378294706345, 0.12755252420902252, 0.022247008979320526, 0.02406076341867447, 0.023203309625387192, 0.020663442090153694, 0.05144194886088371, 0.038282230496406555, 0.05352194979786873, 0.02647564932703972, 0.0415039025247097, 0.06855117529630661, 0.03727681189775467, 0.013535287231206894, 0.005534055642783642, 0.05979965999722481, 0.015582879073917866, 0.02787526324391365, 0.21111677587032318]], [[0.5831865072250366, 0.03430921956896782, 0.013026326894760132, 0.008912529796361923, 0.005059265065938234, 0.010765696875751019, 0.006391964387148619, 0.006357121281325817, 0.03214982897043228, 0.010517628863453865, 0.04419862851500511, 0.009825888089835644, 0.006775337737053633, 0.03920099139213562, 0.0055527943186461926, 0.008902854286134243, 0.007272273302078247, 0.06817299127578735, 0.008912546560168266, 0.024224596098065376, 0.06628503650426865], [0.598061203956604, 0.16293346881866455, 0.013805925846099854, 0.003878201823681593, 0.005104706156998873, 0.01485683023929596, 0.03140841796994209, 0.015293692238628864, 0.014963284134864807, 0.0032544408459216356, 0.01365442480891943, 0.003076020861044526, 0.008414170704782009, 0.011939452029764652, 0.0016931947320699692, 0.00526499655097723, 0.007031697779893875, 0.07682740688323975, 0.0012726810527965426, 0.002061102306470275, 0.0052046868950128555], [0.18224668502807617, 0.5726820230484009, 0.015774594619870186, 0.00792204961180687, 0.017919812351465225, 0.0501941554248333, 0.014562109485268593, 0.025520404800772667, 0.010936258360743523, 0.01663072593510151, 0.0035581395495682955, 0.00018434622325003147, 0.018761247396469116, 0.006311715580523014, 0.00014977181854192168, 0.0005275146686471999, 0.0075659435242414474, 0.03358052670955658, 0.003423743648454547, 0.007812383584678173, 0.0037359280977398157], [0.39799004793167114, 0.3021232783794403, 0.08538614213466644, 0.006849776022136211, 0.00437029218301177, 0.019066881388425827, 0.004352697636932135, 0.009212701581418514, 0.0406179279088974, 0.0007742306916043162, 0.01657807268202305, 0.00038065636181272566, 0.0004900536732748151, 0.029286911711096764, 0.000937870005145669, 0.0014302411582320929, 0.00031527664395980537, 0.030895758420228958, 0.0019147505518049002, 0.035989485681056976, 0.011036948300898075], [0.5536134243011475, 0.12997527420520782, 0.02004135400056839, 0.0467982143163681, 0.002713721478357911, 0.12935969233512878, 0.005942733492702246, 0.0014650512021034956, 0.03252364322543144, 0.004419898614287376, 0.032281652092933655, 7.674895459786057e-05, 8.479553798679262e-06, 0.007576822303235531, 0.0006811051280237734, 6.61235026200302e-05, 6.597431365662487e-06, 0.004543962422758341, 4.238349720253609e-05, 0.008609975688159466, 0.0192531980574131], [0.2481600046157837, 0.05271192640066147, 0.0013742356095463037, 0.1141514852643013, 0.42936864495277405, 0.04273803159594536, 0.0028758349362760782, 0.0019753340166062117, 0.01736917719244957, 0.0043950448743999004, 0.05685241147875786, 0.0001783896586857736, 0.0014031112659722567, 0.010003939270973206, 5.963086005067453e-05, 0.0005352578009478748, 0.00013701939315069467, 0.0039038050454109907, 0.00033644255017861724, 0.00042847954318858683, 0.011041699908673763], [0.07144350558519363, 0.018565034493803978, 0.006757046096026897, 0.007957210764288902, 0.022383039817214012, 0.805355429649353, 0.005484736990183592, 0.017471233382821083, 0.014323853887617588, 0.0007544844411313534, 0.013538137078285217, 0.0028951652348041534, 0.0008693205891177058, 0.0075574107468128204, 7.930388528620824e-05, 6.0213322285562754e-05, 0.00011935252405237406, 0.0027990504167973995, 5.171279553906061e-05, 0.00014631105295848101, 0.0013885393273085356], [0.017059389501810074, 0.01654830574989319, 0.01141646970063448, 0.003945174161344767, 0.0009678313508629799, 0.1434682011604309, 0.7321872115135193, 0.017812199890613556, 0.027623550966382027, 0.000936820637434721, 0.0031475049909204245, 0.0064904820173978806, 0.0004603762354236096, 0.015467922203242779, 0.00026309199165552855, 6.954921263968572e-05, 7.682806426601019e-06, 0.001592002809047699, 0.0001693357335170731, 6.250168371479958e-05, 0.00030442970455624163], [0.09004662930965424, 0.008159954100847244, 0.005657058674842119, 0.003407298820093274, 0.0048242127522826195, 0.026342172175645828, 0.28442248702049255, 0.3411932587623596, 0.1848296970129013, 0.009937365539371967, 0.004620198160409927, 0.001735006459057331, 0.00716392882168293, 0.020036639645695686, 0.0026142634451389313, 0.0007213722565211356, 0.00022816204000264406, 0.0019899564795196056, 0.0002161518787033856, 0.0002655643620528281, 0.0015886484179645777], [0.22696761786937714, 0.005213127937167883, 0.018582433462142944, 0.0008632803801447153, 0.0008364339591935277, 0.004234374966472387, 0.3606048822402954, 0.12382548302412033, 0.21005190908908844, 0.010973683558404446, 0.015446989797055721, 0.00932757742702961, 0.0004981087986379862, 0.006728795822709799, 0.001128355972468853, 0.0004200362600386143, 0.00010279339767294005, 0.0020294066052883863, 7.35817666281946e-05, 0.00029058114159852266, 0.0018004770390689373], [0.19352668523788452, 0.004924630746245384, 0.0054635158739984035, 0.005219269078224897, 0.01062796451151371, 0.008956048637628555, 0.0434773825109005, 0.024488387629389763, 0.18751579523086548, 0.18100932240486145, 0.2451273500919342, 0.03453034162521362, 0.009795076213777065, 0.006594559643417597, 0.007845995016396046, 0.008017403073608875, 0.002770653460174799, 0.008123236708343029, 0.001004295307211578, 0.001369819394312799, 0.009612232446670532], [0.06754245609045029, 0.002589811570942402, 0.00026874925242736936, 0.0009166472591459751, 0.008165260776877403, 0.0397932194173336, 0.01637367159128189, 0.0050787958316504955, 0.016583070158958435, 0.40032660961151123, 0.2457229048013687, 0.03444014862179756, 0.13011124730110168, 0.0038404460065066814, 0.0006232686573639512, 0.0016955630853772163, 0.011279831640422344, 0.006677402649074793, 0.0014129275223240256, 0.0009617843898013234, 0.00559621537104249], [0.32126230001449585, 0.00830934103578329, 0.00035352149279788136, 0.0002690966066438705, 7.208200258901343e-06, 0.01405003760010004, 0.01349834818392992, 0.0028467513620853424, 0.02210228331387043, 0.0187182929366827, 0.4646720290184021, 0.06868946552276611, 0.0014308517565950751, 0.033218350261449814, 0.0018923049792647362, 0.0002774123568087816, 0.0001735804253257811, 0.023214729502797127, 0.00022331561194732785, 0.0007351898238994181, 0.004055657424032688], [0.14520293474197388, 0.005728446412831545, 0.0018058598507195711, 0.0017414840403944254, 0.0009755503269843757, 0.0022803053725510836, 0.019526559859514236, 0.009050277993083, 0.017682498320937157, 0.0028375976253300905, 0.04165026545524597, 0.05782994255423546, 0.2949046790599823, 0.34458720684051514, 0.012382173910737038, 0.002052668482065201, 0.0006769724423065782, 0.02049786038696766, 0.003921194933354855, 0.003534184768795967, 0.011131295002996922], [0.15739087760448456, 0.0016404901398345828, 0.0017346686217933893, 0.00041452638106420636, 1.8054419342661276e-05, 0.0014585646567866206, 0.0020280040334910154, 0.005710810422897339, 0.03943754360079765, 0.0010269962949678302, 0.021169424057006836, 0.03025011532008648, 0.0027448409236967564, 0.36849743127822876, 0.002699443604797125, 0.27111634612083435, 0.04432129114866257, 0.01616606116294861, 0.0019339818973094225, 0.015355845913290977, 0.014884752221405506], [0.011256291531026363, 0.00020830616995226592, 0.00010499554628040642, 0.0004253577208146453, 0.00022780572180636227, 0.00036702200304716825, 0.002105361083522439, 0.0005540271522477269, 0.007198903243988752, 0.001989790704101324, 0.006789166945964098, 0.0032816713210195303, 0.00714013259857893, 0.11458282917737961, 0.8214908838272095, 0.008379613980650902, 0.002312789671123028, 0.004043801221996546, 0.0013585911365225911, 0.000898165802937001, 0.005284542683511972], [0.00754934037104249, 0.0007971027516759932, 1.2649186828639358e-05, 0.00038781960029155016, 4.514899410423823e-05, 0.0007744588074274361, 0.0014578459085896611, 6.274501356529072e-05, 0.0030271292198449373, 0.0009668519487604499, 0.011790947057306767, 0.000456683716038242, 0.000355075258994475, 0.01972874626517296, 0.21831922233104706, 0.6882674098014832, 0.0035647551994770765, 0.0375811867415905, 0.001845073071308434, 0.0005370831349864602, 0.002472706139087677], [0.16382546722888947, 0.009643514640629292, 0.0008876461652107537, 0.000330830313032493, 0.000667996471747756, 0.0020752092823386192, 0.011838635429739952, 0.0025781462900340557, 0.00793983694165945, 0.0042592310346663, 0.02958473563194275, 0.01931142248213291, 0.027770468965172768, 0.03176973760128021, 0.046312686055898666, 0.11361784487962723, 0.13423357903957367, 0.33252039551734924, 0.01439980510622263, 0.005999957211315632, 0.040432874113321304], [0.12056029587984085, 0.007862632162868977, 0.0034302007406949997, 0.00022385995544027537, 3.2970474421745166e-05, 0.00019312884251121432, 0.0006361978012137115, 0.00279975519515574, 0.004019730258733034, 0.012231341563165188, 0.008347292430698872, 0.04196091741323471, 0.013226374983787537, 0.013421501033008099, 0.0030715251341462135, 0.018863748759031296, 0.2621942460536957, 0.3526929020881653, 0.011212684214115143, 0.1009618490934372, 0.022056924179196358], [0.1392292082309723, 0.008416722528636456, 0.011684158816933632, 0.0007743982714600861, 6.057260179659352e-05, 4.685203020926565e-05, 0.0002938901598099619, 0.0012497981078922749, 0.003435838967561722, 8.898367377696559e-05, 0.005036333575844765, 0.01233674120157957, 0.005616785958409309, 0.025235988199710846, 0.0031492726411670446, 0.010663880035281181, 0.07663542032241821, 0.34279677271842957, 0.19945965707302094, 0.037854596972465515, 0.11593419313430786], [0.1677437424659729, 0.0049659134820103645, 0.0003739445237442851, 0.000997096416540444, 0.0003259190998505801, 0.00014529877807945013, 0.00018264785467181355, 0.0001301660668104887, 0.007291572168469429, 8.544000593246892e-05, 0.02341466024518013, 0.00048626819625496864, 0.0021952050738036633, 0.053655169904232025, 0.0075735910795629025, 0.004594785161316395, 0.010772757232189178, 0.3408975899219513, 0.014931678771972656, 0.1940002590417862, 0.16523638367652893]], [[0.4938642382621765, 0.016479745507240295, 0.011380036361515522, 0.03849176689982414, 0.004164293874055147, 0.0020358150359243155, 0.05789542198181152, 0.021212605759501457, 0.01966479979455471, 0.024210290983319283, 0.012627623043954372, 0.0063043637201189995, 0.003345801029354334, 0.013696638867259026, 0.02315373532474041, 0.021175052970647812, 0.008487393148243427, 0.016472799703478813, 0.08464980125427246, 0.013715912587940693, 0.10697183758020401], [0.1461569219827652, 0.040246766060590744, 0.022932130843400955, 0.06483352184295654, 0.01355596724897623, 0.018448134884238243, 0.057306837290525436, 0.02405571937561035, 0.04179872199892998, 0.046395592391490936, 0.03525368869304657, 0.015680043026804924, 0.012367350049316883, 0.03533778339624405, 0.0848364606499672, 0.0256953202188015, 0.03254229947924614, 0.0407966673374176, 0.030882297083735466, 0.05169479548931122, 0.15918293595314026], [0.07630658149719238, 0.03977631777524948, 0.003163228277117014, 0.024612702429294586, 0.011968962848186493, 0.025382118299603462, 0.02963174693286419, 0.016052106395363808, 0.032240282744169235, 0.07370003312826157, 0.027621589601039886, 0.0019736126996576786, 0.009971881285309792, 0.02934182435274124, 0.021746158599853516, 0.028235582634806633, 0.0365058071911335, 0.03644056245684624, 0.02782595157623291, 0.16223101317882538, 0.2852720320224762], [0.18616250157356262, 0.02760675735771656, 0.011972280219197273, 0.009435312822461128, 0.01706097461283207, 0.01210031844675541, 0.031130412593483925, 0.009165537543594837, 0.02740137279033661, 0.05448686331510544, 0.02947295270860195, 0.009716399945318699, 0.019891012459993362, 0.028741879388689995, 0.01018434576690197, 0.03236154466867447, 0.014388308860361576, 0.0329272523522377, 0.03527279570698738, 0.026877809315919876, 0.37364333868026733], [0.2301417738199234, 0.03387347236275673, 0.020832695066928864, 0.034626707434654236, 0.016093242913484573, 0.024055248126387596, 0.031919918954372406, 0.011214694008231163, 0.03285175561904907, 0.024023214355111122, 0.031975988298654556, 0.013153408654034138, 0.014799158088862896, 0.028879350051283836, 0.015102582052350044, 0.019981632009148598, 0.01909497193992138, 0.036681853234767914, 0.012993939220905304, 0.05398815870285034, 0.29371631145477295], [0.15312936902046204, 0.03761962428689003, 0.016374904662370682, 0.0727771520614624, 0.02060670219361782, 0.03279225900769234, 0.03452451527118683, 0.019246049225330353, 0.03404031693935394, 0.04613981768488884, 0.032576192170381546, 0.012037615291774273, 0.01997804269194603, 0.03060917556285858, 0.026217220351099968, 0.019965428858995438, 0.0372614748775959, 0.03345892205834389, 0.026080308482050896, 0.06453409790992737, 0.23003070056438446], [0.06775639206171036, 0.007879121229052544, 0.012247522361576557, 0.04409508779644966, 0.03662673383951187, 0.019847024232149124, 0.0039292387664318085, 0.0684337466955185, 0.006934370845556259, 0.08518115431070328, 0.00758455041795969, 0.015062576159834862, 0.048291467130184174, 0.009074595756828785, 0.0515148788690567, 0.0683867558836937, 0.08634229004383087, 0.010137022472918034, 0.050536587834358215, 0.08098073303699493, 0.21915815770626068], [0.17966951429843903, 0.03754671290516853, 0.03208315372467041, 0.03793250396847725, 0.021829282864928246, 0.015569762326776981, 0.042980778962373734, 0.016467101871967316, 0.0376475490629673, 0.019624214619398117, 0.03646237775683403, 0.022131551057100296, 0.022379878908395767, 0.03203324228525162, 0.02566184476017952, 0.035709548741579056, 0.04274241253733635, 0.03387654945254326, 0.028291283175349236, 0.043092671781778336, 0.23626808822155], [0.11633747071027756, 0.03077094256877899, 0.026228267699480057, 0.06360457092523575, 0.01945517584681511, 0.025004064664244652, 0.03744504600763321, 0.03505245968699455, 0.030511118471622467, 0.056864652782678604, 0.027732007205486298, 0.023995118215680122, 0.021602390334010124, 0.027593696489930153, 0.06514480710029602, 0.026058413088321686, 0.033683668822050095, 0.03146390989422798, 0.03707921877503395, 0.054339535534381866, 0.21003346145153046], [0.18101155757904053, 0.03500627726316452, 0.06464289873838425, 0.029206199571490288, 0.02232883870601654, 0.012286338023841381, 0.03471923992037773, 0.01580912061035633, 0.026257876306772232, 0.010920499451458454, 0.029542487114667892, 0.04158222675323486, 0.022521276026964188, 0.02509933151304722, 0.060332976281642914, 0.038965556770563126, 0.03030989319086075, 0.023312032222747803, 0.029487550258636475, 0.034261081367731094, 0.23239685595035553], [0.1078547015786171, 0.03173355385661125, 0.027014954015612602, 0.06215735897421837, 0.01872672140598297, 0.027662836015224457, 0.04066308215260506, 0.03837183862924576, 0.03161018714308739, 0.05554479733109474, 0.027974288910627365, 0.025876007974147797, 0.020665951073169708, 0.02843845635652542, 0.07439741492271423, 0.02748730778694153, 0.03363823518157005, 0.03301892802119255, 0.045286793261766434, 0.060915879905223846, 0.1809607446193695], [0.05711614340543747, 0.03207746893167496, 0.0031562696676701307, 0.028168777003884315, 0.01380064059048891, 0.032767411321401596, 0.02169939875602722, 0.025652164593338966, 0.026022769510746002, 0.08887737989425659, 0.023430999368429184, 0.002362556289881468, 0.013322662562131882, 0.024737907573580742, 0.017993059009313583, 0.03453696891665459, 0.047895897179841995, 0.03184070438146591, 0.03628288209438324, 0.15865996479988098, 0.27959802746772766], [0.1761164367198944, 0.02432650700211525, 0.026449846103787422, 0.03614507615566254, 0.01492602750658989, 0.021027062088251114, 0.02993285283446312, 0.017444537952542305, 0.02479904145002365, 0.04199075326323509, 0.025076473131775856, 0.020284174010157585, 0.01747795380651951, 0.02372105047106743, 0.028935113921761513, 0.028330348432064056, 0.02390710636973381, 0.031500495970249176, 0.020589226856827736, 0.048221196979284286, 0.318798691034317], [0.12253443151712418, 0.03292287886142731, 0.027382196858525276, 0.061533115804195404, 0.018737630918622017, 0.02977803349494934, 0.03767282888293266, 0.0367429293692112, 0.0337352529168129, 0.05725986883044243, 0.030493220314383507, 0.027274539694190025, 0.02210920862853527, 0.03005334362387657, 0.07229933887720108, 0.022852841764688492, 0.028390277177095413, 0.035772811621427536, 0.0373285673558712, 0.04842231050133705, 0.1867043673992157], [0.12158798426389694, 0.058869488537311554, 0.02323659509420395, 0.03957768902182579, 0.015398925170302391, 0.018307140097022057, 0.05299355834722519, 0.03436727821826935, 0.055301979184150696, 0.06788961589336395, 0.05134785920381546, 0.018023738637566566, 0.018803875893354416, 0.05372926592826843, 0.005225575529038906, 0.0702347680926323, 0.03910304605960846, 0.046820223331451416, 0.06143289804458618, 0.030964333564043045, 0.11678414046764374], [0.17716732621192932, 0.022215329110622406, 0.025718290358781815, 0.047580085694789886, 0.0247061625123024, 0.02610252983868122, 0.035770900547504425, 0.041223958134651184, 0.022833285853266716, 0.04716220870614052, 0.022916626185178757, 0.023011580109596252, 0.023508286103606224, 0.020699329674243927, 0.03300869092345238, 0.046760957688093185, 0.03981916606426239, 0.025443091988563538, 0.022923069074749947, 0.031604744493961334, 0.2398243546485901], [0.14586138725280762, 0.01909923180937767, 0.024244602769613266, 0.022304782643914223, 0.03195616230368614, 0.027030253782868385, 0.01534019224345684, 0.01837053894996643, 0.01724988967180252, 0.020398534834384918, 0.019719794392585754, 0.02079232782125473, 0.03558625653386116, 0.018596911802887917, 0.012053950689733028, 0.040420711040496826, 0.028476104140281677, 0.021893644705414772, 0.016359293833374977, 0.02395469695329666, 0.4202907383441925], [0.14785926043987274, 0.029109427705407143, 0.03175961598753929, 0.05470849946141243, 0.020347919315099716, 0.023716287687420845, 0.03856176137924194, 0.029213640838861465, 0.02911520190536976, 0.046547163277864456, 0.0269065722823143, 0.027592744678258896, 0.02360597439110279, 0.027258824557065964, 0.06301196664571762, 0.02804403193295002, 0.025837767869234085, 0.031170746311545372, 0.03395753353834152, 0.040508024394512177, 0.22116702795028687], [0.1395353227853775, 0.03909824416041374, 0.10060004144906998, 0.04238640516996384, 0.020842690020799637, 0.019129561260342598, 0.037289272993803024, 0.01348756905645132, 0.03148730471730232, 0.04675166308879852, 0.033809006214141846, 0.06230910122394562, 0.022389542311429977, 0.030133457854390144, 0.08183233439922333, 0.03361394256353378, 0.02099650353193283, 0.025025667622685432, 0.009798893705010414, 0.02575042098760605, 0.16373296082019806], [0.1253349483013153, 0.02528463490307331, 0.023862550035119057, 0.04084201529622078, 0.021519238129258156, 0.0321267768740654, 0.044957391917705536, 0.036239590495824814, 0.02451283298432827, 0.06359396129846573, 0.023252269253134727, 0.0206053014844656, 0.02756771259009838, 0.02259710058569908, 0.02555457316339016, 0.03568349778652191, 0.034481555223464966, 0.02719198912382126, 0.04359646514058113, 0.06585119664669037, 0.23534439504146576], [0.17637281119823456, 0.016004638746380806, 0.03386750817298889, 0.0707552433013916, 0.03992890939116478, 0.02647002786397934, 0.048383817076683044, 0.035852786153554916, 0.017534928396344185, 0.06448883563280106, 0.01513955183327198, 0.02777215838432312, 0.04803251102566719, 0.014831788837909698, 0.06665653735399246, 0.023049525916576385, 0.033789291977882385, 0.01762361079454422, 0.043408967554569244, 0.037742942571640015, 0.14229363203048706]], [[0.07636402547359467, 0.03735540062189102, 0.03190639615058899, 0.07283788919448853, 0.04415776580572128, 0.019114499911665916, 0.015605995431542397, 0.015447004698216915, 0.06951399892568588, 0.02844754233956337, 0.07296113669872284, 0.03652440756559372, 0.07545024901628494, 0.057847000658512115, 0.015270368196070194, 0.03654840588569641, 0.03134341910481453, 0.07706179469823837, 0.0378284715116024, 0.017538834363222122, 0.13087551295757294], [0.002899740356951952, 0.07779262959957123, 0.01690537855029106, 0.012643381021916866, 0.02663731947541237, 0.06662910431623459, 0.006594337522983551, 0.05944502353668213, 0.12539660930633545, 0.019381100311875343, 0.12074150890111923, 0.020065151154994965, 0.03474738076329231, 0.12428785860538483, 0.010046979412436485, 0.013271705247461796, 0.013924069702625275, 0.13278289139270782, 0.01456895936280489, 0.05698614567518234, 0.04425274208188057], [0.002764678094536066, 0.029072031378746033, 0.05497833341360092, 0.024940166622400284, 0.0055657499469816685, 0.005018977448344231, 0.038426827639341354, 0.03410210832953453, 0.030588112771511078, 0.4179881811141968, 0.03165224567055702, 0.07073434442281723, 0.010170280933380127, 0.029229123145341873, 0.019252341240644455, 0.006376689299941063, 0.013773426413536072, 0.036257192492485046, 0.05426498502492905, 0.032724808901548386, 0.05211932957172394], [0.01905614510178566, 0.040047116577625275, 0.07609085738658905, 0.05906004458665848, 0.04755250737071037, 0.022576522082090378, 0.03722679987549782, 0.02956697903573513, 0.03964973986148834, 0.05379623547196388, 0.0498349703848362, 0.09282265603542328, 0.07297258079051971, 0.04371119663119316, 0.059611883014440536, 0.025792239233851433, 0.03011411614716053, 0.05796042084693909, 0.030784446746110916, 0.02164125069975853, 0.0901312381029129], [0.014003871940076351, 0.06686575710773468, 0.053397681564092636, 0.04372905567288399, 0.03991501405835152, 0.0391077846288681, 0.01606343872845173, 0.027687538415193558, 0.06582140177488327, 0.08033852279186249, 0.07371844351291656, 0.06971757113933563, 0.05241677910089493, 0.07201110571622849, 0.026773834601044655, 0.012059066444635391, 0.025724029168486595, 0.09033139795064926, 0.041877612471580505, 0.02696153149008751, 0.06147857382893562], [0.016581188887357712, 0.0722789466381073, 0.022775454446673393, 0.022019540891051292, 0.05160235986113548, 0.042194169014692307, 0.01777278259396553, 0.050522081553936005, 0.08822640776634216, 0.037219081073999405, 0.08946923911571503, 0.028709448873996735, 0.06261979788541794, 0.09234645217657089, 0.01670374721288681, 0.023056035861372948, 0.029420025646686554, 0.1067248284816742, 0.037055499851703644, 0.0383119061589241, 0.05439109355211258], [0.023890545591711998, 0.03478654474020004, 0.046865273267030716, 0.0769771933555603, 0.018989747390151024, 0.041843559592962265, 0.005978716537356377, 0.05262099951505661, 0.052400365471839905, 0.0969228446483612, 0.06496147066354752, 0.07214894890785217, 0.02915414609014988, 0.04480667784810066, 0.02957606315612793, 0.02114393375813961, 0.038600437343120575, 0.08253972977399826, 0.06313944607973099, 0.04476064443588257, 0.05789276957511902], [0.01586201973259449, 0.05647548660635948, 0.04586220160126686, 0.06000043824315071, 0.017915084958076477, 0.017961839213967323, 0.015328748151659966, 0.13913457095623016, 0.05224574729800224, 0.06106237694621086, 0.0620114766061306, 0.04858904704451561, 0.024153361096978188, 0.05264956131577492, 0.024114295840263367, 0.02097141183912754, 0.036347728222608566, 0.06525008380413055, 0.02690155990421772, 0.06834299862384796, 0.08881998807191849], [0.004729264881461859, 0.08190669119358063, 0.01300029270350933, 0.011643483303487301, 0.024375569075345993, 0.0867115706205368, 0.006209999322891235, 0.04778918996453285, 0.13926899433135986, 0.013633403927087784, 0.12797875702381134, 0.013867665082216263, 0.02634618431329727, 0.1268599033355713, 0.010052821598947048, 0.01409789640456438, 0.01370504405349493, 0.13971693813800812, 0.014153407886624336, 0.059886906296014786, 0.024066109210252762], [0.01238964032381773, 0.015216028317809105, 0.12009451538324356, 0.05724673718214035, 0.011515065096318722, 0.0065837730653584, 0.029782680794596672, 0.011708436533808708, 0.01315118744969368, 0.2522217631340027, 0.015482602640986443, 0.1267802119255066, 0.021607859060168266, 0.014491652138531208, 0.07974670827388763, 0.012300687842071056, 0.009888567961752415, 0.017802488058805466, 0.09837763756513596, 0.02107228711247444, 0.05253954976797104], [0.0043752361088991165, 0.08082892000675201, 0.012305347248911858, 0.010165974497795105, 0.022667275741696358, 0.09147394448518753, 0.006823133677244186, 0.052902717143297195, 0.1419551819562912, 0.013243310153484344, 0.12543009221553802, 0.013394063338637352, 0.024759352207183838, 0.1299799233675003, 0.009714728221297264, 0.013494782149791718, 0.012849574908614159, 0.1353679895401001, 0.013625825755298138, 0.06484726816415787, 0.01979542337357998], [0.003566366620361805, 0.028203273192048073, 0.06632692366838455, 0.03313179686665535, 0.005289503373205662, 0.0054728868417441845, 0.04789365455508232, 0.02948029525578022, 0.026575157418847084, 0.4191954433917999, 0.026485618203878403, 0.06681634485721588, 0.0077870688401162624, 0.02318744547665119, 0.024196241050958633, 0.0061636692844331264, 0.013935226947069168, 0.028142591938376427, 0.06628920137882233, 0.0325794480741024, 0.03928190842270851], [0.013407327234745026, 0.04128965362906456, 0.09244593232870102, 0.06608627736568451, 0.037139054387807846, 0.04224276915192604, 0.02971939742565155, 0.025168346241116524, 0.03653677552938461, 0.12545813620090485, 0.03945239260792732, 0.10294878482818604, 0.04235551133751869, 0.034735653549432755, 0.036710988730192184, 0.016052262857556343, 0.026990294456481934, 0.04252948611974716, 0.06172068789601326, 0.03132347762584686, 0.05568678304553032], [0.0037235876079648733, 0.0822683647274971, 0.014106301590800285, 0.01146700233221054, 0.02186182513833046, 0.0860707089304924, 0.008593492209911346, 0.05673401057720184, 0.13969488441944122, 0.01582476496696472, 0.12323537468910217, 0.014824416488409042, 0.023102881386876106, 0.12192535400390625, 0.012500970624387264, 0.01537510845810175, 0.014304372482001781, 0.12775662541389465, 0.018549704924225807, 0.06948678940534592, 0.01859343610703945], [0.03959660977125168, 0.02101631462574005, 0.11270296573638916, 0.07173629850149155, 0.02407902479171753, 0.027465710416436195, 0.03932489454746246, 0.030026018619537354, 0.028855236247181892, 0.1052834540605545, 0.031687501817941666, 0.13593509793281555, 0.03207086771726608, 0.024033954367041588, 0.03178539499640465, 0.022280745208263397, 0.0209518875926733, 0.036215104162693024, 0.0568123422563076, 0.032777875661849976, 0.07536260038614273], [0.037383247166872025, 0.06552564352750778, 0.023088591173291206, 0.05032504349946976, 0.011266774497926235, 0.016145944595336914, 0.012120007537305355, 0.11220113188028336, 0.07191196084022522, 0.027503354474902153, 0.07836175709962845, 0.020778778940439224, 0.013346787542104721, 0.07224724441766739, 0.024402901530265808, 0.017926670610904694, 0.02982110157608986, 0.09139584004878998, 0.026188842952251434, 0.09007947891950607, 0.10797887295484543], [0.030684782192111015, 0.054071828722953796, 0.04563910514116287, 0.03930577263236046, 0.01592911407351494, 0.013782340101897717, 0.019291507080197334, 0.08632311969995499, 0.06975843012332916, 0.0372106172144413, 0.07608585059642792, 0.04213045537471771, 0.020660826936364174, 0.07224763929843903, 0.0324605330824852, 0.01791377179324627, 0.01705288514494896, 0.09013069421052933, 0.034222546964883804, 0.06298083066940308, 0.12211737781763077], [0.0044282893650233746, 0.08218304812908173, 0.01677476428449154, 0.0142446244135499, 0.026596879586577415, 0.08777634799480438, 0.01020587794482708, 0.05062437802553177, 0.13824044167995453, 0.016283143311738968, 0.12326416373252869, 0.017443187534809113, 0.02714134193956852, 0.11854871362447739, 0.012893390841782093, 0.016976522281765938, 0.014365624636411667, 0.12021498382091522, 0.016806235536932945, 0.06375992298126221, 0.021228237077593803], [0.006597318220883608, 0.014730662107467651, 0.05013880133628845, 0.027021054178476334, 0.003313239198178053, 0.003096178872510791, 0.028357738628983498, 0.016540903598070145, 0.01567676104605198, 0.4771929383277893, 0.016806386411190033, 0.06831567734479904, 0.007160024251788855, 0.01917245052754879, 0.051625046879053116, 0.005134066101163626, 0.008183537982404232, 0.024560032412409782, 0.08563391119241714, 0.03296692296862602, 0.03777623921632767], [0.016184967011213303, 0.033992841839790344, 0.06453940272331238, 0.029648426920175552, 0.014151476323604584, 0.022692600265145302, 0.038465097546577454, 0.10065092146396637, 0.03781112655997276, 0.06748475134372711, 0.039646077901124954, 0.08216934651136398, 0.021661905571818352, 0.03403015434741974, 0.031077230349183083, 0.02872469276189804, 0.031129131093621254, 0.04396022483706474, 0.03114672377705574, 0.14709706604480743, 0.083735890686512], [0.01638624258339405, 0.06476092338562012, 0.046660471707582474, 0.08309560269117355, 0.033076945692300797, 0.019058948382735252, 0.023612074553966522, 0.04525908827781677, 0.0788576677441597, 0.037812426686286926, 0.08512008190155029, 0.04644671455025673, 0.04687964543700218, 0.06162730231881142, 0.01874634250998497, 0.015784090384840965, 0.02606901526451111, 0.07680122554302216, 0.05394894257187843, 0.02910515107214451, 0.09089108556509018]], [[0.19180963933467865, 0.10422913730144501, 0.008085586130619049, 0.007426404859870672, 0.0015585768269374967, 0.01010521873831749, 0.013314100913703442, 0.003468579612672329, 0.10985136032104492, 0.017061075195670128, 0.1379062384366989, 0.0051897671073675156, 0.0011877879733219743, 0.08464957028627396, 0.006711218971759081, 0.013346975669264793, 0.00264637335203588, 0.12257733196020126, 0.00277766864746809, 0.014042031951248646, 0.14205536246299744], [0.08468060195446014, 0.08301077783107758, 0.040882959961891174, 0.03572290763258934, 0.011713703162968159, 0.01976783759891987, 0.02532925270497799, 0.017784055322408676, 0.08015862107276917, 0.04476287588477135, 0.08679843693971634, 0.034726135432720184, 0.011465195566415787, 0.06249681115150452, 0.041468843817710876, 0.01913517899811268, 0.013236097060143948, 0.08788084238767624, 0.016806824132800102, 0.03526967763900757, 0.14690223336219788], [0.1000916063785553, 0.12140524387359619, 0.010114328004419804, 0.008715604431927204, 0.01436493918299675, 0.015554733574390411, 0.040137335658073425, 0.025182444602251053, 0.1032407134771347, 0.0317155160009861, 0.10476980358362198, 0.007741890847682953, 0.016961442306637764, 0.10321332514286041, 0.008106931112706661, 0.024183448404073715, 0.004100909922271967, 0.09000067412853241, 0.0170026496052742, 0.04606156423687935, 0.10733485966920853], [0.16860201954841614, 0.11941859871149063, 0.005982811097055674, 0.0014262581244111061, 0.0067788390442729, 0.01810750551521778, 0.03405110538005829, 0.02170751616358757, 0.10811266303062439, 0.028192533180117607, 0.12733158469200134, 0.006155443377792835, 0.00719600822776556, 0.10879641771316528, 0.00371926068328321, 0.010377265512943268, 0.005138640757650137, 0.11530515551567078, 0.01664596237242222, 0.02220074273645878, 0.06475365161895752], [0.17971639335155487, 0.11938034743070602, 0.02697972021996975, 0.01738799549639225, 0.01238345354795456, 0.02435910515487194, 0.03638589382171631, 0.024405360221862793, 0.07280535995960236, 0.027762779965996742, 0.09743469208478928, 0.026219317689538002, 0.012737041339278221, 0.08353227376937866, 0.019769132137298584, 0.03848057612776756, 0.00749250641092658, 0.08038190007209778, 0.009041388519108295, 0.036420486867427826, 0.046924248337745667], [0.06734926998615265, 0.09174192696809769, 0.027800533920526505, 0.02286720462143421, 0.03247075900435448, 0.058855388313531876, 0.03309693560004234, 0.016315504908561707, 0.07817620784044266, 0.02640518918633461, 0.10017099231481552, 0.03159038722515106, 0.03887973353266716, 0.08997582644224167, 0.019919531419873238, 0.012024041265249252, 0.015648221597075462, 0.09833048284053802, 0.029547465965151787, 0.035727500915527344, 0.07310692965984344], [0.036304768174886703, 0.09339728206396103, 0.013498567044734955, 0.01951679214835167, 0.008108828216791153, 0.031362324953079224, 0.005043404176831245, 0.02447420544922352, 0.10951009392738342, 0.15576326847076416, 0.11902416497468948, 0.010801783762872219, 0.009198958985507488, 0.09808088093996048, 0.003958164714276791, 0.011005723848938942, 0.005295449402183294, 0.09464019536972046, 0.032194316387176514, 0.03008732944726944, 0.0887334868311882], [0.04874167591333389, 0.0910455584526062, 0.05840514600276947, 0.035478174686431885, 0.022285491228103638, 0.0275314562022686, 0.02901235595345497, 0.010452096350491047, 0.07965953648090363, 0.06048225611448288, 0.08676780760288239, 0.050713032484054565, 0.01832435466349125, 0.07578649371862411, 0.017382724210619926, 0.022189036011695862, 0.0056234668008983135, 0.07684312760829926, 0.017275439575314522, 0.027776570990681648, 0.13822431862354279], [0.06211807206273079, 0.08678173273801804, 0.05864586681127548, 0.053625304251909256, 0.021457543596625328, 0.031437285244464874, 0.01905052922666073, 0.021132316440343857, 0.08287332952022552, 0.05228351429104805, 0.0901520624756813, 0.051567837595939636, 0.021579846739768982, 0.06889346987009048, 0.03820011764764786, 0.015359900891780853, 0.015540258958935738, 0.07893207669258118, 0.021331727504730225, 0.03248296305537224, 0.07655421644449234], [0.1075543463230133, 0.15464277565479279, 0.015965553000569344, 0.011798507533967495, 0.004041865933686495, 0.01347645279020071, 0.04303295165300369, 0.007832388393580914, 0.15910087525844574, 0.005864917766302824, 0.13058136403560638, 0.010012141428887844, 0.0036390144377946854, 0.11956233531236649, 0.0014414306497201324, 0.004063457250595093, 0.003052974585443735, 0.11305418610572815, 0.0059334770776331425, 0.007606290280818939, 0.07774278521537781], [0.05426188185811043, 0.08562900871038437, 0.05825319513678551, 0.05301699414849281, 0.022739533334970474, 0.0336313433945179, 0.01915774866938591, 0.018471989780664444, 0.08565448224544525, 0.05208253115415573, 0.09103580564260483, 0.05287403613328934, 0.023335911333560944, 0.0701780617237091, 0.035774681717157364, 0.01429472491145134, 0.01840943470597267, 0.08095916360616684, 0.022652320563793182, 0.0327242836356163, 0.07486289739608765], [0.06811008602380753, 0.11787519603967667, 0.012436243705451488, 0.012927912175655365, 0.02506154775619507, 0.02422534115612507, 0.035808149725198746, 0.030245734378695488, 0.1038428321480751, 0.031734876334667206, 0.10632004588842392, 0.010434169322252274, 0.03240905702114105, 0.10527564585208893, 0.00790629256516695, 0.022745944559574127, 0.006341472268104553, 0.08883709460496902, 0.01746355928480625, 0.052487172186374664, 0.08751169592142105], [0.16415144503116608, 0.11671435087919235, 0.027562184259295464, 0.0225669015198946, 0.013677909970283508, 0.022933844476938248, 0.033189672976732254, 0.0248979814350605, 0.07745395600795746, 0.03183678537607193, 0.10564162582159042, 0.028607971966266632, 0.01452259998768568, 0.0897422507405281, 0.016628658398985863, 0.03410457819700241, 0.007507640402764082, 0.08383853733539581, 0.008197803050279617, 0.03552313894033432, 0.04070024564862251], [0.048246972262859344, 0.08624665439128876, 0.06386486440896988, 0.05978948622941971, 0.020516905933618546, 0.02723289094865322, 0.018884772434830666, 0.019943155348300934, 0.08326210826635361, 0.05920470878481865, 0.09145021438598633, 0.058147720992565155, 0.02125612087547779, 0.07071030884981155, 0.03739791736006737, 0.013679023832082748, 0.02187768928706646, 0.08014141023159027, 0.022642262279987335, 0.03207835555076599, 0.06342649459838867], [0.04438621923327446, 0.08712149411439896, 0.0056801182217895985, 0.006472806446254253, 0.012406863272190094, 0.023299695923924446, 0.0057360040955245495, 0.008117049932479858, 0.15698650479316711, 0.041593942791223526, 0.15852110087871552, 0.007814095355570316, 0.02003997191786766, 0.11182284355163574, 0.0005560438730753958, 0.003379235742613673, 0.006111971568316221, 0.10736081749200821, 0.010232582688331604, 0.016494637355208397, 0.16586589813232422], [0.05356110632419586, 0.07761184126138687, 0.03438161686062813, 0.02774299494922161, 0.013188807293772697, 0.03744862228631973, 0.01925758458673954, 0.012060283683240414, 0.08222201466560364, 0.0652122050523758, 0.10319310426712036, 0.03830976039171219, 0.015834324061870575, 0.08203286677598953, 0.015466629527509212, 0.01233045756816864, 0.012486866675317287, 0.09518766403198242, 0.015544592402875423, 0.05107050761580467, 0.13585622608661652], [0.057968031615018845, 0.06645215302705765, 0.03456559404730797, 0.0260432418435812, 0.035401877015829086, 0.06049705669283867, 0.024331778287887573, 0.011723434552550316, 0.06726935505867004, 0.07707235962152481, 0.08822225779294968, 0.03665979579091072, 0.03541289269924164, 0.06954316049814224, 0.01608981564640999, 0.02148171328008175, 0.006551824510097504, 0.0843806192278862, 0.018100107088685036, 0.04522310197353363, 0.11700978130102158], [0.06263672560453415, 0.08766284584999084, 0.06290267407894135, 0.05186469107866287, 0.022065170109272003, 0.03004462458193302, 0.018927479162812233, 0.01767137087881565, 0.08241802453994751, 0.044440411031246185, 0.08973255008459091, 0.05420732498168945, 0.02172921411693096, 0.067511186003685, 0.039606526494026184, 0.01737060956656933, 0.020444059744477272, 0.08016537129878998, 0.018365919589996338, 0.032448552548885345, 0.07778458297252655], [0.08259715139865875, 0.1339457929134369, 0.027247900143265724, 0.01780177466571331, 0.012656942009925842, 0.014416764490306377, 0.019407840445637703, 0.018799826502799988, 0.11961027979850769, 0.04284515976905823, 0.12884186208248138, 0.02032550424337387, 0.012791972607374191, 0.10199932008981705, 0.012239888310432434, 0.015146302990615368, 0.007223113905638456, 0.10481274873018265, 0.0032168717589229345, 0.0222800113260746, 0.0817929059267044], [0.07302053272724152, 0.11602003872394562, 0.045365288853645325, 0.02570585161447525, 0.022731849923729897, 0.03625478222966194, 0.024331722408533096, 0.011498386971652508, 0.08169420808553696, 0.0422637052834034, 0.12153537571430206, 0.04205107316374779, 0.022036049515008926, 0.08564462512731552, 0.00869480986148119, 0.020197832956910133, 0.008134521543979645, 0.09740955382585526, 0.009048192761838436, 0.044851381331682205, 0.061510320752859116], [0.12704050540924072, 0.1100192740559578, 0.015061415731906891, 0.010542002506554127, 0.0126304617151618, 0.025209050625562668, 0.017489375546574593, 0.012229284271597862, 0.11717968434095383, 0.043439265340566635, 0.13601237535476685, 0.013562796637415886, 0.012210900895297527, 0.10127336531877518, 0.017306368798017502, 0.020886877551674843, 0.0046874904073774815, 0.1234460100531578, 0.008615091443061829, 0.017652280628681183, 0.053506117314100266]]], [[[0.15127085149288177, 0.0474507212638855, 0.022915856912732124, 0.04699847474694252, 0.01359223760664463, 0.013925128616392612, 0.030522402375936508, 0.02832583524286747, 0.06013406440615654, 0.03902251645922661, 0.060086704790592194, 0.030510136857628822, 0.023421060293912888, 0.07048898190259933, 0.02425907365977764, 0.017152270302176476, 0.03242558613419533, 0.07151004672050476, 0.06951149553060532, 0.03781672567129135, 0.10865984112024307], [0.06605610996484756, 0.06467414647340775, 0.03479835391044617, 0.09369222819805145, 0.01515054702758789, 0.019544027745723724, 0.024782398715615273, 0.026471566408872604, 0.06183740496635437, 0.11253037303686142, 0.05996831879019737, 0.02551516890525818, 0.016187990084290504, 0.06127826124429703, 0.04826893284916878, 0.018530501052737236, 0.024933023378252983, 0.06807176023721695, 0.07014279067516327, 0.030126072466373444, 0.057440176606178284], [0.04723973944783211, 0.10636316239833832, 0.008069361560046673, 0.01631953753530979, 0.020591048523783684, 0.015462694689631462, 0.00812038965523243, 0.036461278796195984, 0.06807757914066315, 0.028922010213136673, 0.05140327662229538, 0.005018864292651415, 0.020211026072502136, 0.08324165642261505, 0.007733956445008516, 0.010359182953834534, 0.009216644801199436, 0.07353992760181427, 0.07270101457834244, 0.012894252315163612, 0.2980533242225647], [0.09181901812553406, 0.08965171128511429, 0.03659365698695183, 0.004926519934087992, 0.011556030251085758, 0.011357652023434639, 0.01968415081501007, 0.0342412143945694, 0.05451510101556778, 0.1358902007341385, 0.0513923242688179, 0.024983813986182213, 0.017041800543665886, 0.05870579555630684, 0.030053013935685158, 0.011470086872577667, 0.01410676259547472, 0.062061857432127, 0.06763049215078354, 0.02469855733215809, 0.14762036502361298], [0.0420699417591095, 0.13774609565734863, 0.027687562629580498, 0.019587423652410507, 0.01293092779815197, 0.04170728847384453, 0.012016890570521355, 0.012611673213541508, 0.10084788501262665, 0.05510909482836723, 0.08654814958572388, 0.023590683937072754, 0.016738513484597206, 0.10323680937290192, 0.013088333420455456, 0.02643272839486599, 0.013726862147450447, 0.10400059819221497, 0.04003596305847168, 0.037256017327308655, 0.07303044199943542], [0.06752004474401474, 0.09436600655317307, 0.03305918350815773, 0.025363855063915253, 0.019208544865250587, 0.025500962510704994, 0.011184393428266048, 0.017629602923989296, 0.08717526495456696, 0.0511883869767189, 0.08453148603439331, 0.025554096326231956, 0.021542269736528397, 0.0935833603143692, 0.018884053453803062, 0.025418788194656372, 0.016725555062294006, 0.10863297432661057, 0.051487959921360016, 0.03850216418504715, 0.08294106274843216], [0.026719871908426285, 0.11229027062654495, 0.057433079928159714, 0.08720230311155319, 0.023533182218670845, 0.027971239760518074, 0.0008808554266579449, 0.023840317502617836, 0.07558729499578476, 0.05794866383075714, 0.061310093849897385, 0.041777756065130234, 0.025490062311291695, 0.08194883912801743, 0.01950564607977867, 0.006598035339266062, 0.007348040118813515, 0.08330834656953812, 0.042241714894771576, 0.02595079503953457, 0.1111135184764862], [0.030434532091021538, 0.0745682418346405, 0.07578302919864655, 0.02948841266334057, 0.03061140514910221, 0.024181844666600227, 0.014146438799798489, 0.01692512072622776, 0.050269436091184616, 0.052918847650289536, 0.04878507927060127, 0.07506929337978363, 0.03439255431294441, 0.0483739860355854, 0.030674220994114876, 0.02646608091890812, 0.012060403823852539, 0.058971092104911804, 0.12110018730163574, 0.06019749492406845, 0.08458223938941956], [0.09775931388139725, 0.07354369014501572, 0.03317825868725777, 0.05594519153237343, 0.0158945694565773, 0.015909353271126747, 0.023372801020741463, 0.01915881596505642, 0.07279891520738602, 0.07039066404104233, 0.07081637531518936, 0.02583232894539833, 0.017767248675227165, 0.07091882079839706, 0.05492538958787918, 0.023869723081588745, 0.026807943359017372, 0.08728691190481186, 0.05066780745983124, 0.03209918364882469, 0.06105678901076317], [0.04955305904150009, 0.0646602064371109, 0.015810182318091393, 0.049631357192993164, 0.10571214556694031, 0.031161893159151077, 0.004844232462346554, 0.017082195729017258, 0.056726329028606415, 0.002652111230418086, 0.049519121646881104, 0.014847340993583202, 0.1124311238527298, 0.08495733886957169, 0.017553821206092834, 0.00985836610198021, 0.010840185917913914, 0.06956998258829117, 0.03277561068534851, 0.016304632648825645, 0.18350887298583984], [0.11734087020158768, 0.07083912938833237, 0.03340698406100273, 0.05057437717914581, 0.014072855934500694, 0.014940538443624973, 0.021805593743920326, 0.016734348610043526, 0.07034939527511597, 0.07722482830286026, 0.06772460043430328, 0.026798594743013382, 0.017544155940413475, 0.07445517927408218, 0.04015165939927101, 0.022575100883841515, 0.021293610334396362, 0.08858716487884521, 0.05401438847184181, 0.03028564341366291, 0.06928092241287231], [0.05794639140367508, 0.10297014564275742, 0.00703602097928524, 0.011017325334250927, 0.026322312653064728, 0.017649736255407333, 0.009371357969939709, 0.03372706100344658, 0.07097190618515015, 0.022261129692196846, 0.05457887053489685, 0.003998914733529091, 0.023730382323265076, 0.09244401007890701, 0.00979132391512394, 0.010377919301390648, 0.00957444030791521, 0.07967186719179153, 0.06207188591361046, 0.014029117301106453, 0.28045788407325745], [0.04547136276960373, 0.13656799495220184, 0.020323844626545906, 0.012965294532477856, 0.017837125808000565, 0.04682311788201332, 0.012394979596138, 0.01457388699054718, 0.09860283881425858, 0.03579308092594147, 0.08373613655567169, 0.01663942262530327, 0.020867271348834038, 0.11181773245334625, 0.014278484508395195, 0.025240300223231316, 0.015537752769887447, 0.10655511915683746, 0.044655878096818924, 0.03643474355340004, 0.0828835740685463], [0.11402063816785812, 0.0774058923125267, 0.029543694108724594, 0.05105012282729149, 0.009922402910888195, 0.013508962467312813, 0.019442908465862274, 0.01865221932530403, 0.07751692086458206, 0.06723164767026901, 0.07660803943872452, 0.024506354704499245, 0.013364641927182674, 0.0775597020983696, 0.04408968985080719, 0.021918414160609245, 0.027507899329066277, 0.09357643127441406, 0.05125392600893974, 0.028609588742256165, 0.06270986050367355], [0.2635037899017334, 0.051609985530376434, 0.009292948059737682, 0.01101379282772541, 0.006521061062812805, 0.0061338720843195915, 0.01595138944685459, 0.01233211625367403, 0.049398887902498245, 0.04686431586742401, 0.050300147384405136, 0.010210792534053326, 0.012189916335046291, 0.08208800852298737, 0.005701743066310883, 0.010520180687308311, 0.006995555013418198, 0.07695027440786362, 0.09767328202724457, 0.030440980568528175, 0.14430701732635498], [0.10197872668504715, 0.06320761144161224, 0.01319862436503172, 0.006157036870718002, 0.07297861576080322, 0.012614990584552288, 0.008880109526216984, 0.009754016064107418, 0.08878950774669647, 0.018534788861870766, 0.07908798009157181, 0.014903412200510502, 0.12164988368749619, 0.102292001247406, 0.010397558100521564, 0.009027916006743908, 0.006420769728720188, 0.10405357927083969, 0.06741304695606232, 0.02437260001897812, 0.06428726762533188], [0.10261724889278412, 0.063065305352211, 0.03085942752659321, 0.008088498376309872, 0.04863365739583969, 0.011393814347684383, 0.009125249460339546, 0.01495189219713211, 0.06069380044937134, 0.05965837091207504, 0.062038060277700424, 0.03426314890384674, 0.07623335719108582, 0.06594640761613846, 0.016517557203769684, 0.019028695300221443, 0.004580432083457708, 0.08212511241436005, 0.1195688247680664, 0.03830118477344513, 0.07230999320745468], [0.12279119342565536, 0.07884193956851959, 0.029091816395521164, 0.037519995123147964, 0.009281017817556858, 0.011581836268305779, 0.01650349050760269, 0.012621209025382996, 0.07890176773071289, 0.07438226044178009, 0.07850965112447739, 0.02493295446038246, 0.013972416520118713, 0.08363794535398483, 0.03990403935313225, 0.01936251111328602, 0.018875857815146446, 0.10225038230419159, 0.04834085702896118, 0.028408270329236984, 0.0702885091304779], [0.0817340761423111, 0.09574596583843231, 0.03238160163164139, 0.04637454077601433, 0.009566606022417545, 0.01595420576632023, 0.004687209147959948, 0.01888914965093136, 0.054209332913160324, 0.02506672963500023, 0.055222928524017334, 0.02231322042644024, 0.01085133757442236, 0.06298108398914337, 0.06183027848601341, 0.008778195828199387, 0.010666870512068272, 0.06493047624826431, 0.004822955932468176, 0.011779372580349445, 0.30121392011642456], [0.12008513510227203, 0.07316146790981293, 0.03140413016080856, 0.01859397068619728, 0.010137476027011871, 0.010246633552014828, 0.016087397933006287, 0.041990168392658234, 0.048967618495225906, 0.04151881858706474, 0.047321733087301254, 0.022147363051772118, 0.013361654244363308, 0.05400802195072174, 0.019310209900140762, 0.023620128631591797, 0.026529354974627495, 0.06997153162956238, 0.0819229930639267, 0.02475571818649769, 0.2048584371805191], [0.06061742082238197, 0.05849728733301163, 0.06399521976709366, 0.06443476676940918, 0.03405405953526497, 0.03839084506034851, 0.03449660912156105, 0.04310391843318939, 0.05144592747092247, 0.100798100233078, 0.04817313700914383, 0.04760732501745224, 0.03757365420460701, 0.05231942981481552, 0.016659922897815704, 0.0155899403616786, 0.016641031950712204, 0.04774627089500427, 0.06297712028026581, 0.018511569127440453, 0.08636648207902908]], [[0.48342299461364746, 0.027744727209210396, 0.008313124068081379, 0.02299552597105503, 0.010999067686498165, 0.015527836978435516, 0.006581948138773441, 0.015431143343448639, 0.028078706935048103, 0.021787067875266075, 0.032247766852378845, 0.009688206017017365, 0.02943519875407219, 0.03697194531559944, 0.024600127711892128, 0.03054174967110157, 0.04963250458240509, 0.04368308186531067, 0.030852634459733963, 0.015399899333715439, 0.05606478452682495], [0.042216137051582336, 0.08370546251535416, 0.022289302200078964, 0.036469604820013046, 0.07148787379264832, 0.09222980588674545, 0.023075468838214874, 0.030601264908909798, 0.08990748226642609, 0.02046896331012249, 0.06973979622125626, 0.015296797268092632, 0.06101732701063156, 0.09109669923782349, 0.020320408046245575, 0.02312536910176277, 0.012463458813726902, 0.07922612130641937, 0.02802897058427334, 0.01536115538328886, 0.0718725323677063], [0.015719657763838768, 0.013807891868054867, 0.01881636306643486, 0.027029501274228096, 0.009161848574876785, 0.01696062460541725, 0.029874209314584732, 0.021202843636274338, 0.01476631686091423, 0.2567741870880127, 0.017389513552188873, 0.01975402794778347, 0.021024469286203384, 0.019486339762806892, 0.05031229555606842, 0.015114064328372478, 0.008857322856783867, 0.020815230906009674, 0.3342101275920868, 0.055945731699466705, 0.012977327220141888], [0.038747694343328476, 0.0487154945731163, 0.04300426319241524, 0.03480272367596626, 0.022727880626916885, 0.023623285815119743, 0.05055050924420357, 0.045357219874858856, 0.04504217207431793, 0.052482955157756805, 0.053921137005090714, 0.04298354685306549, 0.03025093302130699, 0.04676790162920952, 0.06175437942147255, 0.04485701024532318, 0.05169111490249634, 0.0562543123960495, 0.05764003470540047, 0.0674818754196167, 0.08134350180625916], [0.019053375348448753, 0.06178048625588417, 0.05136071518063545, 0.03541918098926544, 0.016138551756739616, 0.028483524918556213, 0.12785254418849945, 0.028382116928696632, 0.05367177352309227, 0.06933587789535522, 0.0557398684322834, 0.04705682396888733, 0.019935956224799156, 0.08547987043857574, 0.042668044567108154, 0.03476758673787117, 0.016827743500471115, 0.06117669865489006, 0.07455579936504364, 0.029952384531497955, 0.04036102816462517], [0.021902533248066902, 0.054779402911663055, 0.039945609867572784, 0.049941737204790115, 0.04949745163321495, 0.04846037179231644, 0.05966348946094513, 0.039841827005147934, 0.06394226849079132, 0.04971468076109886, 0.05831930786371231, 0.03372908756136894, 0.05384470149874687, 0.07321436703205109, 0.051831867545843124, 0.03876795992255211, 0.021482840180397034, 0.060094285756349564, 0.06482421606779099, 0.034492094069719315, 0.03170996904373169], [0.030154449865221977, 0.026725905016064644, 0.01660309173166752, 0.03718871623277664, 0.017661448568105698, 0.017470860853791237, 0.018582995980978012, 0.022740934044122696, 0.02844867669045925, 0.2817276120185852, 0.026835570111870766, 0.017016300931572914, 0.030104009434580803, 0.03564641252160072, 0.0728754922747612, 0.013618874363601208, 0.012544318102300167, 0.038825858384370804, 0.16380807757377625, 0.042485687881708145, 0.04893464222550392], [0.01409428846091032, 0.042256321758031845, 0.03135349601507187, 0.029227757826447487, 0.015378911979496479, 0.020789727568626404, 0.04673462733626366, 0.025804396718740463, 0.04318081960082054, 0.13621503114700317, 0.04778680205345154, 0.02647765725851059, 0.01925569772720337, 0.040107689797878265, 0.07351240515708923, 0.03213481977581978, 0.03439155966043472, 0.040243469178676605, 0.20136110484600067, 0.05635492876172066, 0.023338468745350838], [0.044884733855724335, 0.09506324678659439, 0.014414085075259209, 0.022747371345758438, 0.06567315757274628, 0.09440179914236069, 0.014573944732546806, 0.018783535808324814, 0.10700412839651108, 0.011853986419737339, 0.08109629899263382, 0.011384432204067707, 0.06569135934114456, 0.11113227158784866, 0.015437283553183079, 0.020200887694954872, 0.007523799315094948, 0.09422215819358826, 0.016533495858311653, 0.011688842438161373, 0.07568906992673874], [0.026285234838724136, 0.01967776007950306, 0.0250665545463562, 0.012273453176021576, 0.006461217533797026, 0.009681008756160736, 0.04869409278035164, 0.01559522282332182, 0.022836683318018913, 0.09881225228309631, 0.02823432721197605, 0.02985641360282898, 0.031134774908423424, 0.03732860088348389, 0.051938384771347046, 0.016543613746762276, 0.012477545998990536, 0.035525280982255936, 0.3813047707080841, 0.05045085400342941, 0.039821919053792953], [0.047658879309892654, 0.08848392963409424, 0.014864963479340076, 0.023235905915498734, 0.06218787282705307, 0.08472632616758347, 0.016159886494278908, 0.02011324092745781, 0.10166152566671371, 0.0139096574857831, 0.07639860361814499, 0.01213968638330698, 0.06872864812612534, 0.10715192556381226, 0.018534421920776367, 0.021768856793642044, 0.010047799907624722, 0.09268002957105637, 0.02060719020664692, 0.014053266495466232, 0.08488739281892776], [0.01173786073923111, 0.008500726893544197, 0.015156746841967106, 0.015091177076101303, 0.005432950798422098, 0.011538628488779068, 0.034383855760097504, 0.014031448401510715, 0.009714198298752308, 0.3033258616924286, 0.011739516630768776, 0.019652418792247772, 0.017253171652555466, 0.012961937114596367, 0.04365823417901993, 0.0117781488224864, 0.007777868770062923, 0.014455125667154789, 0.3548908829689026, 0.06293735653162003, 0.013981807045638561], [0.019770661368966103, 0.02949214167892933, 0.03826862946152687, 0.020407041534781456, 0.006366318557411432, 0.01353295985609293, 0.08578460663557053, 0.017563849687576294, 0.03138354793190956, 0.12501096725463867, 0.038191940635442734, 0.04925272986292839, 0.018506482243537903, 0.0575951412320137, 0.06705454736948013, 0.030166851356625557, 0.015540885739028454, 0.0472816564142704, 0.19947905838489532, 0.046559881418943405, 0.04279010742902756], [0.04680927097797394, 0.08426538854837418, 0.01333205308765173, 0.021103767678141594, 0.07099363952875137, 0.10755757242441177, 0.012421348132193089, 0.01949983462691307, 0.09972135722637177, 0.013326323591172695, 0.07648172974586487, 0.01090399269014597, 0.07893583178520203, 0.09939495474100113, 0.01656585931777954, 0.021484673023223877, 0.008541762828826904, 0.0925469622015953, 0.021132508292794228, 0.012694510631263256, 0.07228662818670273], [0.07060901075601578, 0.03637856990098953, 0.01032930240035057, 0.01922294870018959, 0.014317131601274014, 0.011163908056914806, 0.02703866921365261, 0.03269461542367935, 0.044108107686042786, 0.054154377430677414, 0.048565663397312164, 0.012874417938292027, 0.055179961025714874, 0.06097908318042755, 0.019778553396463394, 0.022359127178788185, 0.03538835048675537, 0.08439947664737701, 0.16339166462421417, 0.07933253794908524, 0.09773442894220352], [0.032759130001068115, 0.07027232646942139, 0.019352883100509644, 0.05813388526439667, 0.02417728304862976, 0.04103752598166466, 0.011092274449765682, 0.024617547169327736, 0.06763818114995956, 0.05980865657329559, 0.06363103538751602, 0.015149532817304134, 0.04356927424669266, 0.08927421271800995, 0.09037001430988312, 0.018825219944119453, 0.019973527640104294, 0.08098076283931732, 0.09990976750850677, 0.025984210893511772, 0.0434427335858345], [0.033374130725860596, 0.060690637677907944, 0.028608206659555435, 0.04903240501880646, 0.020671170204877853, 0.03840017318725586, 0.025761131197214127, 0.028119098395109177, 0.05533076450228691, 0.06255976110696793, 0.05529200658202171, 0.024083083495497704, 0.035776298493146896, 0.07039906084537506, 0.07304167747497559, 0.030492207035422325, 0.013438879512250423, 0.0687757059931755, 0.11937741190195084, 0.04011593759059906, 0.06666034460067749], [0.05066271126270294, 0.0847380980849266, 0.013971303589642048, 0.024546487256884575, 0.0725533664226532, 0.09660743921995163, 0.012716608121991158, 0.017291108146309853, 0.09412400424480438, 0.011859115213155746, 0.07232913374900818, 0.011249381117522717, 0.08008448034524918, 0.09782592952251434, 0.01791476272046566, 0.02059672586619854, 0.009929019957780838, 0.08746590465307236, 0.017768649384379387, 0.012638338841497898, 0.09312745928764343], [0.01187799870967865, 0.01565251126885414, 0.014919743873178959, 0.0190600398927927, 0.004886934999376535, 0.004692873917520046, 0.03550976142287254, 0.009711576625704765, 0.015912631526589394, 0.08208870887756348, 0.016844574362039566, 0.016424357891082764, 0.025212226435542107, 0.0283367857336998, 0.05495902895927429, 0.012782248668372631, 0.017790120095014572, 0.027135608717799187, 0.4114915728569031, 0.07342158257961273, 0.10128913074731827], [0.011290783062577248, 0.015536842867732048, 0.01758081652224064, 0.02997448667883873, 0.009170795790851116, 0.011605294421315193, 0.02158999815583229, 0.021524082869291306, 0.01711769588291645, 0.13483355939388275, 0.019846301525831223, 0.020140700042247772, 0.03218955546617508, 0.023896075785160065, 0.05070151761174202, 0.01944114826619625, 0.018076838925480843, 0.02466343156993389, 0.4365650415420532, 0.039028968662023544, 0.025225983932614326], [0.010764921084046364, 0.033362921327352524, 0.07679210603237152, 0.07705841958522797, 0.02821597456932068, 0.03112802654504776, 0.07937680929899216, 0.024469897150993347, 0.02528461068868637, 0.14522157609462738, 0.02724800631403923, 0.06344011425971985, 0.027585454285144806, 0.026656202971935272, 0.07471134513616562, 0.020941944792866707, 0.031962793320417404, 0.02470996603369713, 0.12284243851900101, 0.023910941556096077, 0.024315480142831802]], [[0.03864803910255432, 0.1130942702293396, 0.015183134004473686, 0.0905788466334343, 0.003248157212510705, 0.00533605832606554, 0.007963511161506176, 0.007324689067900181, 0.11029054969549179, 0.03554088622331619, 0.10393082350492477, 0.015465552918612957, 0.004774224944412708, 0.12368449568748474, 0.0823407843708992, 0.03190317749977112, 0.03431476280093193, 0.11926289647817612, 0.022434089332818985, 0.02694416604936123, 0.007736793253570795], [0.0911291316151619, 0.10294819623231888, 0.03855368494987488, 0.041476283222436905, 0.017769938334822655, 0.014690778218209743, 0.01962142623960972, 0.014655892737209797, 0.08311573415994644, 0.04442800208926201, 0.07696863263845444, 0.033214271068573, 0.021787403151392937, 0.09117681533098221, 0.04483434185385704, 0.02508649043738842, 0.0277045089751482, 0.08998045325279236, 0.025561146438121796, 0.03866742551326752, 0.056629475206136703], [0.13097023963928223, 0.07444673776626587, 0.023568429052829742, 0.0076906695030629635, 0.02137776091694832, 0.03311312943696976, 0.03137435391545296, 0.021845415234565735, 0.06454335898160934, 0.022022338584065437, 0.0596604198217392, 0.01935390941798687, 0.031709935516119, 0.07679301500320435, 0.012248683720827103, 0.03033924102783203, 0.020417379215359688, 0.07745447754859924, 0.04111531376838684, 0.038977667689323425, 0.16097743809223175], [0.15435266494750977, 0.09733503311872482, 0.030509039759635925, 0.0022379178553819656, 0.02205430157482624, 0.04266443848609924, 0.02971595712006092, 0.04584868624806404, 0.06719015538692474, 0.014222203753888607, 0.05980933457612991, 0.021985404193401337, 0.02344440668821335, 0.06305284053087234, 0.04676806554198265, 0.07845631241798401, 0.036263417452573776, 0.07150678336620331, 0.025263512507081032, 0.029683250933885574, 0.0376361720263958], [0.12196318060159683, 0.09590020775794983, 0.06463958323001862, 0.008789444342255592, 0.01123689953237772, 0.016836784780025482, 0.04063214734196663, 0.02353115752339363, 0.07323730736970901, 0.014428453519940376, 0.06285586953163147, 0.05789890140295029, 0.014896857552230358, 0.09492811560630798, 0.010982843115925789, 0.07056794315576553, 0.027604607865214348, 0.07596283406019211, 0.009416915476322174, 0.03516226261854172, 0.0685277134180069], [0.13922788202762604, 0.057802241295576096, 0.05128272622823715, 0.008140751160681248, 0.03263726457953453, 0.03961286321282387, 0.06336548179388046, 0.027567002922296524, 0.07178843021392822, 0.0203681793063879, 0.05455709621310234, 0.03978189826011658, 0.043353121727705, 0.07976602762937546, 0.014470272697508335, 0.03526739031076431, 0.025978030636906624, 0.06589732319116592, 0.031156349927186966, 0.03237801045179367, 0.06560167670249939], [0.02644910290837288, 0.07020110636949539, 0.05833034589886665, 0.021535325795412064, 0.011629492975771427, 0.05694248154759407, 0.004335450939834118, 0.037075646221637726, 0.05800946056842804, 0.1278046816587448, 0.056343093514442444, 0.04354115575551987, 0.013151940889656544, 0.052876174449920654, 0.029412293806672096, 0.025844356045126915, 0.01799849420785904, 0.06468531489372253, 0.028965376317501068, 0.06864145398139954, 0.12622728943824768], [0.11269298195838928, 0.07762794196605682, 0.03712322562932968, 0.00885345321148634, 0.012495918199419975, 0.03257434815168381, 0.011079843156039715, 0.011539610102772713, 0.0716095045208931, 0.02022615633904934, 0.07020946592092514, 0.031819719821214676, 0.020774250850081444, 0.07886181026697159, 0.01701444759964943, 0.02970460057258606, 0.016219662502408028, 0.08168865740299225, 0.040096402168273926, 0.04818391799926758, 0.16960403323173523], [0.08193342387676239, 0.10269584506750107, 0.028375687077641487, 0.025419743731617928, 0.02091650664806366, 0.020832356065511703, 0.018075454980134964, 0.018320521339774132, 0.08914528787136078, 0.02500205487012863, 0.08158282190561295, 0.024917587637901306, 0.02611655741930008, 0.10204149782657623, 0.02696145325899124, 0.018842874094843864, 0.019402459263801575, 0.09883314371109009, 0.0271519273519516, 0.04131530225276947, 0.10211756080389023], [0.21093295514583588, 0.04714556783437729, 0.005453550722450018, 0.002935046562924981, 0.006348441820591688, 0.017080165445804596, 0.005476007238030434, 0.008521638810634613, 0.06849604845046997, 0.0019046446541324258, 0.07449744641780853, 0.008580915629863739, 0.02295588329434395, 0.07597384601831436, 0.013169700279831886, 0.02923981286585331, 0.008915727958083153, 0.08157463371753693, 0.1841374635696411, 0.044604238122701645, 0.0820561945438385], [0.07943861186504364, 0.10130701214075089, 0.03355957567691803, 0.028221534565091133, 0.021519575268030167, 0.01970123127102852, 0.021109580993652344, 0.01972438022494316, 0.09146697074174881, 0.024420393630862236, 0.08098805695772171, 0.029632320627570152, 0.025571104139089584, 0.10410870611667633, 0.022813335061073303, 0.02121247909963131, 0.01978348195552826, 0.0991891399025917, 0.025711920112371445, 0.04272453859448433, 0.08779603242874146], [0.13119587302207947, 0.07045888155698776, 0.025958029553294182, 0.006361781619489193, 0.022439168766140938, 0.031835202127695084, 0.02755092829465866, 0.022444967180490494, 0.06055891513824463, 0.021974343806505203, 0.056315045803785324, 0.019605714827775955, 0.034013018012046814, 0.07145276665687561, 0.0119285574182868, 0.022746432572603226, 0.017663531005382538, 0.07530634850263596, 0.04547033831477165, 0.033478643745183945, 0.19124159216880798], [0.14452168345451355, 0.10172039270401001, 0.052108440548181534, 0.009457944892346859, 0.00999381672590971, 0.013915881514549255, 0.030613424256443977, 0.021066712215542793, 0.07756402343511581, 0.01659242808818817, 0.06806840747594833, 0.04761459305882454, 0.01292885560542345, 0.09418691694736481, 0.008123926818370819, 0.057120416313409805, 0.023155229166150093, 0.08398671448230743, 0.010332449339330196, 0.03589504212141037, 0.08103273808956146], [0.0755854994058609, 0.099295474588871, 0.03677746653556824, 0.03272685781121254, 0.022560006007552147, 0.02410244755446911, 0.019325193017721176, 0.016262121498584747, 0.08479110896587372, 0.0321488082408905, 0.07697222381830215, 0.029521068558096886, 0.026779066771268845, 0.09322727471590042, 0.03054184280335903, 0.016045553609728813, 0.01820073276758194, 0.09444236010313034, 0.028298968449234962, 0.03955184668302536, 0.10284411907196045], [0.058290574699640274, 0.09796761721372604, 0.017481748014688492, 0.04455340653657913, 0.020142843946814537, 0.016614411026239395, 0.013173003681004047, 0.02482544630765915, 0.09249448776245117, 0.033513665199279785, 0.08136667311191559, 0.014398477971553802, 0.01712704636156559, 0.10260948538780212, 0.004040037747472525, 0.015005683526396751, 0.02196633256971836, 0.0902070701122284, 0.01181069016456604, 0.019856438040733337, 0.2025548666715622], [0.06065615266561508, 0.0976107269525528, 0.037118665874004364, 0.026569535955786705, 0.028690563514828682, 0.026515774428844452, 0.012995375320315361, 0.024912703782320023, 0.07567203789949417, 0.009765609167516232, 0.07412329316139221, 0.02741902321577072, 0.03347580507397652, 0.11161380261182785, 0.009110060520470142, 0.01570345088839531, 0.014341773465275764, 0.09223770350217819, 0.023268233984708786, 0.029890958219766617, 0.16830870509147644], [0.13382241129875183, 0.12591499090194702, 0.026152344420552254, 0.019540540874004364, 0.012136879377067089, 0.016522644087672234, 0.021503645926713943, 0.012461559846997261, 0.08870907872915268, 0.02157699689269066, 0.07610262930393219, 0.020280160009860992, 0.013638628646731377, 0.10383819043636322, 0.01402433030307293, 0.04394858703017235, 0.014848909340798855, 0.10796204954385757, 0.016708888113498688, 0.0568864643573761, 0.053420018404722214], [0.07363707572221756, 0.10826954990625381, 0.030674125999212265, 0.039637722074985504, 0.020430322736501694, 0.018492966890335083, 0.018615789711475372, 0.016057094559073448, 0.09223584830760956, 0.029157858341932297, 0.08354339748620987, 0.026453420519828796, 0.024091802537441254, 0.10133782029151917, 0.03031405806541443, 0.020045354962348938, 0.019896777346730232, 0.1043122187256813, 0.028786281123757362, 0.04158661514520645, 0.07242389023303986], [0.03584069013595581, 0.11513835936784744, 0.029467927291989326, 0.0695885568857193, 0.010093155317008495, 0.024973483756184578, 0.010673296637833118, 0.018531102687120438, 0.10818054527044296, 0.04588017985224724, 0.09644953906536102, 0.02263881452381611, 0.013041996397078037, 0.1052260473370552, 0.007850484922528267, 0.04678797349333763, 0.02856886386871338, 0.11273184418678284, 0.019012676551938057, 0.026327628642320633, 0.05299682170152664], [0.07314763963222504, 0.0894806832075119, 0.027464305981993675, 0.027083735913038254, 0.022554272785782814, 0.02126947045326233, 0.02652418240904808, 0.028487948700785637, 0.08019724488258362, 0.028680184856057167, 0.07993024587631226, 0.024947967380285263, 0.033265307545661926, 0.08816360682249069, 0.013773915357887745, 0.0636201724410057, 0.029946666210889816, 0.09021028131246567, 0.06321945786476135, 0.03395659103989601, 0.05407610535621643], [0.16770029067993164, 0.09375716745853424, 0.05295289680361748, 0.030863767489790916, 0.003272054251283407, 0.0035727755166590214, 0.012867926619946957, 0.006331710144877434, 0.06846553087234497, 0.07726667821407318, 0.056306324899196625, 0.03837067261338234, 0.004760992247611284, 0.06712261587381363, 0.09799401462078094, 0.06877125799655914, 0.04108036309480667, 0.06660909950733185, 0.011073332279920578, 0.027371346950531006, 0.0034892840776592493]], [[0.062492579221725464, 0.07000460475683212, 0.013617383316159248, 0.0319177471101284, 0.0314314104616642, 0.01615428924560547, 0.012343671172857285, 0.027090756222605705, 0.042876679450273514, 0.013196642510592937, 0.04616951197385788, 0.00904843769967556, 0.019852517172694206, 0.04732014611363411, 0.01669277250766754, 0.01759308949112892, 0.021055860444903374, 0.04186411574482918, 0.012718994170427322, 0.019329790025949478, 0.42722904682159424], [0.056990109384059906, 0.10591971129179001, 0.008057308383286, 0.01745704561471939, 0.01555370632559061, 0.04971886798739433, 0.012037922628223896, 0.035056497901678085, 0.13483551144599915, 0.019638750702142715, 0.11424833536148071, 0.007252836599946022, 0.015831703320145607, 0.14250604808330536, 0.020757358521223068, 0.017727486789226532, 0.025797424837946892, 0.13866810500621796, 0.01551029086112976, 0.02967665158212185, 0.016758311539888382], [0.031961675733327866, 0.08932757377624512, 0.015840725973248482, 0.14413227140903473, 0.0098782479763031, 0.007290943991392851, 0.02308460883796215, 0.013123368844389915, 0.04950232803821564, 0.060509245842695236, 0.05381356552243233, 0.010821730829775333, 0.0060831839218735695, 0.052987582981586456, 0.03219614923000336, 0.0032737362198531628, 0.004834144841879606, 0.05072100833058357, 0.02757999114692211, 0.01413048803806305, 0.29890745878219604], [0.03602995350956917, 0.10488902777433395, 0.029238155111670494, 0.06758445501327515, 0.05855622887611389, 0.027418013662099838, 0.019727125763893127, 0.016410063952207565, 0.05014157295227051, 0.021592067554593086, 0.04808832332491875, 0.020983342081308365, 0.024953417479991913, 0.06569792330265045, 0.027423085644841194, 0.020781278610229492, 0.04331136494874954, 0.051843322813510895, 0.02920323610305786, 0.0086896400898695, 0.22743840515613556], [0.051567934453487396, 0.14830166101455688, 0.016760509461164474, 0.06194902956485748, 0.026341956108808517, 0.01606707088649273, 0.01417945884168148, 0.018739871680736542, 0.06763976067304611, 0.011402170173823833, 0.06965630501508713, 0.00917782261967659, 0.011073238216340542, 0.07972301542758942, 0.014614486135542393, 0.005160395987331867, 0.011379802599549294, 0.07264102250337601, 0.009758968837559223, 0.009998752735555172, 0.27386677265167236], [0.05621406435966492, 0.1759006828069687, 0.020192235708236694, 0.04924561083316803, 0.029126347973942757, 0.01737358048558235, 0.009454905055463314, 0.01860879920423031, 0.10665147006511688, 0.009133854880928993, 0.10072135925292969, 0.01324422936886549, 0.012288161553442478, 0.11355506628751755, 0.019218310713768005, 0.007575221359729767, 0.014553829096257687, 0.10268768668174744, 0.008043087087571621, 0.010966253466904163, 0.10524523258209229], [0.03667997568845749, 0.10744952410459518, 0.031338177621364594, 0.10566701740026474, 0.0342574268579483, 0.031130356714129448, 0.014096958562731743, 0.024829015135765076, 0.06050766631960869, 0.03686686232686043, 0.05618423596024513, 0.017937490716576576, 0.02044040337204933, 0.06931930780410767, 0.029058460146188736, 0.007675467059016228, 0.008470832370221615, 0.060822684317827225, 0.022962843999266624, 0.036522526293992996, 0.18778274953365326], [0.049375902861356735, 0.11519742012023926, 0.018039969727396965, 0.21588937938213348, 0.03538988530635834, 0.02513878233730793, 0.014028274454176426, 0.01340498123317957, 0.05581633746623993, 0.009145448915660381, 0.05929262936115265, 0.011851784773170948, 0.017014095559716225, 0.059781402349472046, 0.01491461880505085, 0.00937237311154604, 0.01582440361380577, 0.058330416679382324, 0.012476859614253044, 0.018269920721650124, 0.1714451014995575], [0.06466227024793625, 0.0961526557803154, 0.005666655953973532, 0.025917574763298035, 0.01327525731176138, 0.06694478541612625, 0.011292983777821064, 0.032419659197330475, 0.13891738653182983, 0.012914415448904037, 0.10365021973848343, 0.0052719381637871265, 0.01466534286737442, 0.15690237283706665, 0.01825973019003868, 0.01790803298354149, 0.028880508616566658, 0.13742123544216156, 0.010890484787523746, 0.02816564217209816, 0.009820820763707161], [0.04573022201657295, 0.08889678120613098, 0.08749472349882126, 0.029423488304018974, 0.016056835651397705, 0.014054778032004833, 0.08834348618984222, 0.010129431262612343, 0.038154006004333496, 0.09845920652151108, 0.03954795375466347, 0.056179821491241455, 0.011943838559091091, 0.04442368820309639, 0.046303290873765945, 0.0034196937922388315, 0.006177375093102455, 0.03576730564236641, 0.1049606129527092, 0.020681055262684822, 0.11385241895914078], [0.06816242635250092, 0.10222160816192627, 0.005530614871531725, 0.021408848464488983, 0.01147193368524313, 0.05989012494683266, 0.01344540435820818, 0.03246457502245903, 0.14438022673130035, 0.013618672266602516, 0.10513322055339813, 0.005049558822065592, 0.012191537767648697, 0.1620284765958786, 0.019741343334317207, 0.01511924434453249, 0.022863784804940224, 0.13851676881313324, 0.009669839404523373, 0.02632739581167698, 0.010764449834823608], [0.02776421047747135, 0.07048118859529495, 0.015980791300535202, 0.21237392723560333, 0.007441012654453516, 0.006173730827867985, 0.04067761451005936, 0.013602066785097122, 0.04116417095065117, 0.08291745185852051, 0.042619187384843826, 0.011011521331965923, 0.004524208605289459, 0.04049472510814667, 0.04743707552552223, 0.0029173437505960464, 0.003846772015094757, 0.03954189270734787, 0.033792894333601, 0.015023034065961838, 0.24021528661251068], [0.045938268303871155, 0.09946431964635849, 0.03329276666045189, 0.07037178426980972, 0.018968096002936363, 0.015538825653493404, 0.0333544947206974, 0.02415621094405651, 0.05228041857481003, 0.06886757165193558, 0.05404573306441307, 0.020475957542657852, 0.010523559525609016, 0.06311310827732086, 0.03273826465010643, 0.006023456808179617, 0.012940182350575924, 0.056744568049907684, 0.04281306266784668, 0.01518003735691309, 0.22316929697990417], [0.06649137288331985, 0.0864778384566307, 0.007399686146527529, 0.017328623682260513, 0.013239669613540173, 0.0631384626030922, 0.012678285129368305, 0.039561524987220764, 0.1383446455001831, 0.02630445919930935, 0.10460064560174942, 0.00678635248914361, 0.014878670684993267, 0.14755494892597198, 0.020476851612329483, 0.01654544472694397, 0.02879156917333603, 0.1336071938276291, 0.017753615975379944, 0.02961263619363308, 0.008427520282566547], [0.05849672481417656, 0.09235041588544846, 0.042567163705825806, 0.05125981196761131, 0.01991868019104004, 0.007530171889811754, 0.023665718734264374, 0.02607141062617302, 0.04737362265586853, 0.1192423477768898, 0.045242562890052795, 0.030063455924391747, 0.01146291196346283, 0.06278251856565475, 0.02334916777908802, 0.01577029377222061, 0.02313069999217987, 0.05657142028212547, 0.0381847582757473, 0.01296844519674778, 0.19199763238430023], [0.0839070975780487, 0.12346933782100677, 0.007936504669487476, 0.15142498910427094, 0.015509633347392082, 0.02300450950860977, 0.005508089438080788, 0.02304171957075596, 0.08057774603366852, 0.008816923014819622, 0.07145969569683075, 0.005521801766008139, 0.010212193243205547, 0.09762014448642731, 0.011881940998136997, 0.02647099643945694, 0.02965504489839077, 0.0900256559252739, 0.009104521945118904, 0.01786196418106556, 0.10698952525854111], [0.03893449530005455, 0.08121827989816666, 0.012504395097494125, 0.21537594497203827, 0.03575097396969795, 0.032309889793395996, 0.012169530615210533, 0.024565057829022408, 0.06626712530851364, 0.012792696245014668, 0.06828389316797256, 0.010672601871192455, 0.024991502985358238, 0.0817597284913063, 0.029613373801112175, 0.020322294905781746, 0.025293191894888878, 0.070881687104702, 0.015149313025176525, 0.02215588465332985, 0.09898810088634491], [0.06322309374809265, 0.09278808534145355, 0.007254522759467363, 0.02629411220550537, 0.013278653845191002, 0.06328481435775757, 0.013192827813327312, 0.034673094749450684, 0.13498809933662415, 0.01831941306591034, 0.09946506470441818, 0.006837122142314911, 0.015277800150215626, 0.15809327363967896, 0.022381674498319626, 0.01996167190372944, 0.030575638636946678, 0.12918075919151306, 0.013091548345983028, 0.027163762599229813, 0.010674902237951756], [0.016539590433239937, 0.04347994178533554, 0.062143657356500626, 0.038872674107551575, 0.021409515291452408, 0.013932881876826286, 0.04618702456355095, 0.014444421045482159, 0.019611690193414688, 0.27437901496887207, 0.020238053053617477, 0.03653828799724579, 0.015565378591418266, 0.026460574939846992, 0.041059114038944244, 0.0044244155287742615, 0.009756474755704403, 0.02204589545726776, 0.06985718011856079, 0.02138773538172245, 0.1816665083169937], [0.026962872594594955, 0.08984295278787613, 0.035969171673059464, 0.19837938249111176, 0.018635133281350136, 0.012903496623039246, 0.030295927077531815, 0.015348241664469242, 0.0413227342069149, 0.042473938316106796, 0.04263196513056755, 0.02356467768549919, 0.01064305193722248, 0.04678613319993019, 0.029038868844509125, 0.007125629112124443, 0.014487789943814278, 0.04489904269576073, 0.037436433136463165, 0.01370448712259531, 0.21754813194274902], [0.03802388533949852, 0.17720343172550201, 0.016642430797219276, 0.05308527499437332, 0.03910478949546814, 0.014706870540976524, 0.018162734806537628, 0.020085811614990234, 0.0949263796210289, 0.011174439452588558, 0.10198911279439926, 0.010775125585496426, 0.015682561323046684, 0.09281641244888306, 0.010551318526268005, 0.009493067860603333, 0.016386032104492188, 0.07974961400032043, 0.011887640692293644, 0.014727761968970299, 0.1528252810239792]], [[0.13437268137931824, 0.05244304612278938, 0.048543352633714676, 0.031268514692783356, 0.016135089099407196, 0.014835906215012074, 0.018924757838249207, 0.0133721474558115, 0.02660573460161686, 0.0664142519235611, 0.07888771593570709, 0.09899880737066269, 0.0341574065387249, 0.029109301045536995, 0.012041468173265457, 0.06334391236305237, 0.06327170133590698, 0.05154619738459587, 0.049606144428253174, 0.05351729691028595, 0.04260455071926117], [0.05126015096902847, 0.03235861286520958, 0.8601829409599304, 0.006686871871352196, 5.1092425565002486e-05, 1.012988832371775e-05, 0.0003736782819032669, 0.0033198792953044176, 0.0013511762954294682, 0.0033347425051033497, 0.00010489075066288933, 0.000285129965050146, 0.0004418079333845526, 0.00042051420314237475, 4.7243891458492726e-05, 6.42818713458837e-06, 0.00014792305591981858, 0.002874264493584633, 0.0216990876942873, 0.014364862814545631, 0.0006784043507650495], [0.06797903776168823, 0.003865259001031518, 0.05669817328453064, 0.7278748750686646, 0.0059471637941896915, 5.5245356634259224e-05, 4.6485285565722734e-05, 6.30490540061146e-05, 0.0042296042665839195, 0.003266306361183524, 0.0008716436568647623, 6.7128835326002445e-06, 2.0713729099952616e-05, 0.0022872374393045902, 0.00016295873501803726, 7.207238923001569e-06, 6.700919357172097e-07, 0.00010047938849311322, 0.001804775558412075, 0.12258559465408325, 0.0021267379634082317], [0.016363561153411865, 7.106484554242343e-05, 0.0023211331572383642, 0.003558953758329153, 0.9595041275024414, 0.006997223477810621, 9.739301458466798e-05, 2.8347212719381787e-06, 0.00013681617565453053, 0.0011697241570800543, 0.0017139749834313989, 0.0005684469942934811, 2.608912473078817e-05, 0.00146053999196738, 0.0011902280384674668, 4.927505870000459e-05, 6.731830126227578e-06, 7.246720088005532e-06, 8.336955033882987e-06, 0.00046859277063049376, 0.0042776125483214855], [0.0005535201635211706, 1.8086651607518434e-06, 6.871285336274013e-07, 2.2848598746350035e-05, 0.011122353374958038, 0.986518919467926, 0.0015840110136196017, 1.6814064451864397e-07, 1.1605261818203871e-07, 9.602803402231075e-06, 2.459304960211739e-05, 7.814566197339445e-05, 1.9243273641222913e-07, 4.812521183339413e-06, 1.1885085768881254e-05, 3.486554487608373e-05, 1.012702568914392e-06, 4.0615154262013675e-07, 8.557954345178587e-09, 8.708438414828379e-09, 3.011439366673585e-05], [0.0006212645093910396, 9.726333519211039e-05, 8.608798225395731e-07, 3.0626810598732845e-07, 1.165711091744015e-05, 0.007871399633586407, 0.9895740151405334, 0.0017460089875385165, 2.868609044526238e-06, 1.2661176924666506e-06, 1.1089244935647002e-06, 1.3627361113321967e-05, 1.8790215108310804e-05, 1.9661707483464852e-05, 8.670561442158942e-07, 1.9333836576151953e-07, 1.4824325944573502e-06, 1.699237327557057e-05, 3.2739069411036326e-07, 3.256420411101857e-10, 4.354261662342651e-08], [0.0005870932363905013, 0.0008711972623132169, 0.0001672189828241244, 1.081678692571586e-05, 2.842649109879858e-06, 0.00012822615099139512, 0.0020036036148667336, 0.9862167835235596, 0.008810771629214287, 0.00020432408200576901, 5.347048499970697e-06, 7.3246319516329095e-06, 0.000321763422107324, 0.0005196307902224362, 1.1241426363994833e-05, 1.5762266230012756e-06, 4.416267529450124e-06, 0.00011932323104701936, 5.3026346904516686e-06, 6.415768893930363e-07, 6.139228503343475e-07], [0.003979839850217104, 0.0005842372193001211, 0.0036971650552004576, 8.338836050825194e-05, 9.434087644422107e-08, 5.405320280260639e-08, 0.00020027287246193737, 0.02842041105031967, 0.9361615180969238, 0.026138028129935265, 1.3071480680082459e-05, 4.6917315899008827e-07, 3.1292190669773845e-06, 0.000484257034258917, 0.000129688109154813, 2.3645759483770235e-06, 3.528535330588056e-07, 4.446085949894041e-05, 4.30161198892165e-05, 1.1231424650759436e-05, 2.930783466581488e-06], [0.009338087402284145, 3.100446338066831e-05, 0.0012822035932913423, 0.0005098074907436967, 1.4207106687535997e-05, 2.0825915214572888e-07, 4.809143320017029e-06, 0.00021818037203047425, 0.029184682294726372, 0.9538779854774475, 0.0023708443623036146, 0.00010755782568594441, 2.116659970852197e-06, 2.475899782439228e-05, 0.0009232750162482262, 0.0011675120331346989, 0.00011542153515620157, 2.0860941731370986e-05, 0.00014584610471501946, 0.0005238791927695274, 0.0001367855875287205], [0.2137443572282791, 0.00027263941592536867, 5.248323213891126e-05, 2.7276048058411106e-05, 5.067500751465559e-05, 3.0339192562678363e-06, 5.138618234923342e-06, 5.096001700621855e-07, 0.001994995167478919, 0.009517262689769268, 0.7636091113090515, 0.007470904849469662, 9.311954272561707e-06, 8.097086538327858e-05, 1.0327476957172621e-05, 0.0004285115282982588, 0.0004093151947017759, 0.0016395084094256163, 0.00014723105414304882, 1.4464498235611245e-05, 0.0005119334091432393], [0.023463184013962746, 4.704066668637097e-05, 2.8672027838183567e-05, 2.4707145712454803e-05, 0.00016044107906054705, 0.00024440744891762733, 6.393864168785512e-05, 1.0041170526164933e-06, 2.899521859944798e-06, 0.0023222416639328003, 0.035268425941467285, 0.9285061359405518, 0.006995299365371466, 3.7586010876111686e-05, 1.3725052667723503e-05, 0.000195300264749676, 0.001089144847355783, 0.000546302180737257, 0.0004093892057426274, 0.00010138878133147955, 0.00047863315558061004], [0.021072586998343468, 0.00027279031928628683, 2.7594110179052223e-06, 1.860584961832501e-05, 6.20985338173341e-06, 0.0014782571233808994, 0.0018959804438054562, 4.8153837269637734e-05, 8.76748345035594e-06, 2.9536324291257188e-05, 0.0032257833518087864, 0.1206628829240799, 0.813215970993042, 0.033729568123817444, 0.0001047748010023497, 5.3217532695271075e-05, 6.999789911787957e-05, 0.0024221863131970167, 0.0014786145184189081, 0.0001217442550114356, 8.158554555848241e-05], [0.0033815267961472273, 2.8347782063065097e-05, 0.00016574151231907308, 7.40135001251474e-05, 2.514995287583588e-07, 3.0295523174572736e-05, 0.000480580230941996, 0.00048174551920965314, 5.536829849006608e-05, 4.6485773054882884e-05, 4.180696123512462e-06, 0.004398450721055269, 0.033412862569093704, 0.8366386890411377, 0.12013423442840576, 0.0001374514540657401, 1.7578564666109742e-06, 4.0116909076459706e-05, 0.0002973896625917405, 0.00010595082130748779, 8.455501665594056e-05], [0.019511748105287552, 2.2250062102102675e-05, 0.00017924154235515743, 0.000651398440822959, 5.174340549274348e-05, 1.1210590855625924e-05, 8.627409260952845e-05, 0.0009202011860907078, 0.001602517208084464, 0.0014361528446897864, 1.3119439245201647e-05, 6.883908645249903e-05, 0.002037681872025132, 0.07466184347867966, 0.8647962808609009, 0.028997989371418953, 0.00021546125935856253, 3.308768282295205e-05, 0.00019372686801943928, 0.0030575841665267944, 0.0014516053488478065], [0.01389394048601389, 1.4287777048593853e-05, 7.958016681186564e-07, 6.639391813223483e-06, 8.593687380198389e-05, 1.6962696918199072e-06, 1.599007191543933e-06, 3.875700713251717e-06, 0.0017620637081563473, 0.0013526492984965444, 0.0012571505503728986, 2.04461448447546e-05, 1.551596687932033e-05, 0.003868394996970892, 0.010109830647706985, 0.9294261336326599, 0.035141631960868835, 0.0015789404278621078, 0.0001133255209424533, 9.261654486181214e-05, 0.0012525205966085196], [0.007125699892640114, 3.3352825994370505e-05, 1.7780945427148254e-07, 6.094848714610634e-08, 3.855280738207512e-06, 2.021713044086937e-05, 1.1969476645390387e-06, 8.08110030448006e-07, 1.4290744729805738e-05, 0.00018394998915027827, 0.0008173570968210697, 9.647573460824788e-05, 3.14076919494255e-06, 5.139876975590596e-06, 0.00010832399857463315, 0.015719380229711533, 0.9620232582092285, 0.013657741248607635, 7.435541192535311e-05, 7.380167517112568e-07, 0.00011051107139792293], [0.022338788956403732, 0.0045729330740869045, 7.385422213701531e-05, 4.634509878087556e-07, 1.700423410966323e-07, 3.4362358292128192e-06, 2.0452191165531985e-05, 3.7458978567883605e-06, 1.4533638022840023e-05, 0.0001241993304574862, 0.0008436421630904078, 0.001517763128504157, 8.14133818494156e-05, 1.3927005966252182e-05, 3.1516437957179733e-06, 0.0016434165881946683, 0.05447376146912575, 0.8448587656021118, 0.06913495808839798, 6.041636152076535e-05, 0.00021621388441417366], [0.030712492763996124, 0.00495503842830658, 0.01171067077666521, 0.0001023356307996437, 5.260627062853018e-07, 1.1591556585699436e-06, 3.956614818889648e-05, 0.00024592343834228814, 8.077969687292352e-05, 0.0005680015310645103, 0.0002055153454421088, 0.0021123490296304226, 0.001381589681841433, 0.00020051616593264043, 5.0836893933592364e-05, 8.777321636443958e-05, 0.007796875666826963, 0.07094436138868332, 0.7824488878250122, 0.08416764438152313, 0.0021871435455977917], [0.02630043588578701, 0.002659511985257268, 0.0022030998952686787, 0.0013396021677181125, 4.956175416737096e-07, 3.274384141604969e-08, 1.3911534324506647e-07, 2.272404117320548e-06, 0.00037761294515803456, 0.00011037119111279026, 0.0005818885401822627, 7.018208998488262e-05, 6.0443249822128564e-05, 0.005095466040074825, 6.860106077510864e-05, 3.5684242902789265e-05, 5.03140217915643e-05, 0.020290421321988106, 0.04256647825241089, 0.8780069947242737, 0.020179903134703636], [0.08894654363393784, 1.355136282654712e-05, 0.00025166140403598547, 0.008473488502204418, 0.002792853396385908, 1.7909503640112234e-06, 1.7110410510667862e-07, 8.845910315358196e-08, 1.900702773127705e-05, 4.776502828462981e-05, 0.00023515187785960734, 5.201435851631686e-05, 6.861313886474818e-05, 0.0026104850694537163, 0.0009244973189197481, 0.00026457803323864937, 3.20350045512896e-05, 0.0003031568485312164, 0.0061722006648778915, 0.05687738209962845, 0.8319128155708313], [0.7708826065063477, 0.00039378931978717446, 4.731466469820589e-05, 0.00044029729906469584, 0.009719855152070522, 0.006270716432482004, 0.00012564746430143714, 3.026612603207468e-06, 5.077192327007651e-05, 0.00042245048098266125, 0.0029723728075623512, 0.0009193648002110422, 0.000382659345632419, 0.004432082176208496, 0.0012632770230993629, 0.0023737188894301653, 0.002418614225462079, 0.006669644732028246, 0.002833633916452527, 0.008004199713468552, 0.17937399446964264]], [[0.03253920003771782, 0.008607573807239532, 0.009997980669140816, 0.01089461613446474, 0.010065000504255295, 0.00496207270771265, 0.022287629544734955, 0.003235688665881753, 0.005231874529272318, 0.032603468745946884, 0.006945207715034485, 0.0055009350180625916, 0.008042814210057259, 0.005489340517669916, 0.014642775990068913, 0.0063432203605771065, 0.028786780312657356, 0.009269943460822105, 0.02746722847223282, 0.00889681652188301, 0.7381898760795593], [0.10279756784439087, 0.07509423047304153, 0.009730969555675983, 0.026778627187013626, 0.010641769506037235, 0.031039554625749588, 0.007687578443437815, 0.012810688465833664, 0.12723416090011597, 0.010988600552082062, 0.11291319876909256, 0.011578098870813847, 0.014431510120630264, 0.12138117849826813, 0.030479755252599716, 0.020201431587338448, 0.024520162492990494, 0.15384045243263245, 0.0194698479026556, 0.03795578330755234, 0.03842484578490257], [0.17601712048053741, 0.05133001506328583, 0.001989529700949788, 0.02146524377167225, 0.00716306921094656, 0.009625988081097603, 0.005805134307593107, 0.00894502829760313, 0.05375012010335922, 0.008209099993109703, 0.05979364365339279, 0.0019199901726096869, 0.008251803927123547, 0.06052708253264427, 0.008746950887143612, 0.01722402311861515, 0.06645862758159637, 0.09791411459445953, 0.025706596672534943, 0.02879575453698635, 0.28036099672317505], [0.2733822464942932, 0.036416664719581604, 0.00418399041518569, 0.04848021641373634, 0.009025835432112217, 0.007764381822198629, 0.008063720539212227, 0.008514619432389736, 0.031763289123773575, 0.0032504552509635687, 0.03399164602160454, 0.005049964878708124, 0.012786050327122211, 0.04130404442548752, 0.022137030959129333, 0.01089858915656805, 0.08656372874975204, 0.05759764835238457, 0.02186664752662182, 0.014540677890181541, 0.2624185383319855], [0.27753159403800964, 0.034791845828294754, 0.0016521601937711239, 0.013521497137844563, 0.00494376290589571, 0.014168178662657738, 0.006294554099440575, 0.005236569792032242, 0.028697198256850243, 0.003745337249711156, 0.034083202481269836, 0.001744345179758966, 0.006472477223724127, 0.04097435995936394, 0.006431506015360355, 0.02441641502082348, 0.10099082440137863, 0.05517057329416275, 0.021779702976346016, 0.015657927840948105, 0.30169591307640076], [0.19413265585899353, 0.05807873234152794, 0.019188951700925827, 0.03115364909172058, 0.020899983122944832, 0.02638888545334339, 0.011578685604035854, 0.0171623844653368, 0.09065630286931992, 0.02451520413160324, 0.08393725007772446, 0.021939145401120186, 0.021914109587669373, 0.07955002784729004, 0.023142768070101738, 0.022752758115530014, 0.043561432510614395, 0.09680210053920746, 0.03810333088040352, 0.024438582360744476, 0.050103046000003815], [0.08537216484546661, 0.0715099424123764, 0.006627462804317474, 0.035810522735118866, 0.014910686761140823, 0.024920038878917694, 0.0022952030412852764, 0.013368585146963596, 0.11417820304632187, 0.0062441518530249596, 0.11916503310203552, 0.00913420133292675, 0.01744944229722023, 0.11139807850122452, 0.013349753804504871, 0.03656983748078346, 0.04750191792845726, 0.16212208569049835, 0.012110961601138115, 0.03924375772476196, 0.05671810358762741], [0.23302951455116272, 0.0430675745010376, 0.002821342321112752, 0.017604706808924675, 0.0058795432560145855, 0.011050306260585785, 0.001651167869567871, 0.004088991787284613, 0.06194927543401718, 0.0023609870113432407, 0.06670908629894257, 0.0031914538703858852, 0.006981627084314823, 0.06371864676475525, 0.00823709461838007, 0.04392290115356445, 0.2419876605272293, 0.09392677247524261, 0.015033728443086147, 0.015546712093055248, 0.05724087730050087], [0.06918195635080338, 0.09081031382083893, 0.008803434669971466, 0.020663751289248466, 0.007348059210926294, 0.0408252514898777, 0.00620232755318284, 0.017386388033628464, 0.14819279313087463, 0.0072668781504035, 0.1176806166768074, 0.011426428332924843, 0.010341186076402664, 0.1515897661447525, 0.021522920578718185, 0.01965589076280594, 0.015410828404128551, 0.16083334386348724, 0.013436151668429375, 0.04272088408470154, 0.018700921908020973], [0.14623713493347168, 0.09331221133470535, 0.006336660590022802, 0.009552604518830776, 0.012471524998545647, 0.007591140456497669, 0.011962835676968098, 0.011357751674950123, 0.08204462379217148, 0.008822581730782986, 0.08316832035779953, 0.006446178536862135, 0.017149873077869415, 0.11159446090459824, 0.005800274666398764, 0.03606843575835228, 0.03712838888168335, 0.1401626318693161, 0.022062178701162338, 0.04951161891222, 0.10121853649616241], [0.06839456409215927, 0.08958635479211807, 0.010011060163378716, 0.017226414754986763, 0.007714012172073126, 0.04024914279580116, 0.007973884232342243, 0.017466485500335693, 0.15454502403736115, 0.008620819076895714, 0.11524616181850433, 0.011930033564567566, 0.01106257550418377, 0.1508401334285736, 0.020011592656373978, 0.019187988713383675, 0.015003509819507599, 0.1582716703414917, 0.017493445426225662, 0.04260949417948723, 0.016555622220039368], [0.12758943438529968, 0.06225491315126419, 0.002836441621184349, 0.026113485917448997, 0.007758109364658594, 0.011015084572136402, 0.007352209184318781, 0.012715513817965984, 0.06905590742826462, 0.010328388772904873, 0.0662938579916954, 0.002368939109146595, 0.008934425190091133, 0.07379746437072754, 0.01273829210549593, 0.020113470032811165, 0.061641331762075424, 0.10976435244083405, 0.030822934582829475, 0.04272446408867836, 0.23378093540668488], [0.266522079706192, 0.04165587201714516, 0.0031511636916548014, 0.018555939197540283, 0.00560451066121459, 0.012642616406083107, 0.008281076326966286, 0.006060067098587751, 0.031926050782203674, 0.007320024538785219, 0.03634759038686752, 0.0030370091553777456, 0.00664972560480237, 0.04421579837799072, 0.008977016434073448, 0.02442188374698162, 0.05948840454220772, 0.057202138006687164, 0.027024343609809875, 0.01811351627111435, 0.31280311942100525], [0.06341637670993805, 0.08785592764616013, 0.010950474068522453, 0.019747797399759293, 0.007965793833136559, 0.03554900735616684, 0.006057125981897116, 0.01810801587998867, 0.15525877475738525, 0.00978959072381258, 0.12235669791698456, 0.014130346477031708, 0.010949471034109592, 0.14320312440395355, 0.024067694321274757, 0.019640136510133743, 0.01444752886891365, 0.16415227949619293, 0.01519860327243805, 0.041277769953012466, 0.01587744429707527], [0.3031489849090576, 0.07365643978118896, 0.002365863649174571, 0.01046548318117857, 0.0030305502004921436, 0.008711589500308037, 0.0037186057306826115, 0.0052275992929935455, 0.06967487931251526, 0.001797393662855029, 0.06769850850105286, 0.002847560215741396, 0.004718591924756765, 0.09489351511001587, 0.004696351010352373, 0.02227778732776642, 0.025244832038879395, 0.1291579306125641, 0.013442471623420715, 0.014817401766777039, 0.13840754330158234], [0.2832840085029602, 0.06895533204078674, 0.005385529715567827, 0.02749806083738804, 0.0051368288695812225, 0.012394113466143608, 0.003105130046606064, 0.009588818065822124, 0.08010143786668777, 0.0056868987157940865, 0.07909143716096878, 0.006087896879762411, 0.005820768419653177, 0.0846920758485794, 0.00966678000986576, 0.016103653237223625, 0.05297503247857094, 0.11926460266113281, 0.013751732185482979, 0.023090815171599388, 0.08831915259361267], [0.22629082202911377, 0.04957975074648857, 0.005952124483883381, 0.032150719314813614, 0.009625346399843693, 0.011971245519816875, 0.005208219867199659, 0.007483033463358879, 0.07235383242368698, 0.006023304536938667, 0.06901866942644119, 0.005718805827200413, 0.011420894414186478, 0.07697676122188568, 0.019617633894085884, 0.031838953495025635, 0.12428653985261917, 0.10156122595071793, 0.026164529845118523, 0.026145773008465767, 0.08061175793409348], [0.07214890420436859, 0.08890789747238159, 0.012556355446577072, 0.02398848533630371, 0.008741701021790504, 0.03515293821692467, 0.00812758319079876, 0.017524780705571175, 0.14721167087554932, 0.010591686703264713, 0.11378104984760284, 0.016095375642180443, 0.01230578776448965, 0.14453695714473724, 0.025787172839045525, 0.021700125187635422, 0.014577440917491913, 0.1516302078962326, 0.017683565616607666, 0.04095231741666794, 0.015997927635908127], [0.19523222744464874, 0.09032570570707321, 0.01425154972821474, 0.033137038350105286, 0.009447232820093632, 0.008336426690220833, 0.0072546349838376045, 0.01007083710283041, 0.07064300775527954, 0.018896091729402542, 0.07956253737211227, 0.014256378635764122, 0.011773091740906239, 0.08916699886322021, 0.01754823513329029, 0.02306213229894638, 0.038270965218544006, 0.11894458532333374, 0.011349096894264221, 0.029735581949353218, 0.10873556137084961], [0.19689401984214783, 0.07280870527029037, 0.007243160158395767, 0.011901122517883778, 0.00749760027974844, 0.01029092539101839, 0.005312064662575722, 0.006819042842835188, 0.08167640119791031, 0.011470961384475231, 0.07709325850009918, 0.007606399245560169, 0.010347946546971798, 0.093182273209095, 0.013560675084590912, 0.027764149010181427, 0.049291715025901794, 0.1309235543012619, 0.017592107877135277, 0.02023361437022686, 0.14049027860164642], [0.3837842643260956, 0.012358293868601322, 0.006287137977778912, 0.01065195631235838, 0.006217826157808304, 0.0016590772429481149, 0.011612212285399437, 0.00142741110175848, 0.007604881655424833, 0.033951565623283386, 0.009491348639130592, 0.004392808303236961, 0.006428368855267763, 0.008264411240816116, 0.022617923095822334, 0.0076360576786100864, 0.0468374565243721, 0.015460616908967495, 0.04449373483657837, 0.006146564614027739, 0.35267606377601624]], [[0.20103925466537476, 0.09001655131578445, 0.02573699876666069, 0.012604784220457077, 0.013823539018630981, 0.03683217242360115, 0.006189348176121712, 0.03138275071978569, 0.10037156939506531, 0.007907272316515446, 0.08014833182096481, 0.018731972202658653, 0.014397919178009033, 0.10372860729694366, 0.019577817991375923, 0.017618805170059204, 0.04443872720003128, 0.071424201130867, 0.008477775380015373, 0.021345900371670723, 0.07420568913221359], [0.08943919837474823, 0.10267960280179977, 0.010169820860028267, 0.021835608407855034, 0.01039297878742218, 0.016747336834669113, 0.011081510223448277, 0.04070475697517395, 0.11972323805093765, 0.03544244170188904, 0.10925929248332977, 0.011734587140381336, 0.010436133481562138, 0.12623433768749237, 0.03221328929066658, 0.01442456804215908, 0.017503852024674416, 0.11329569667577744, 0.03030296415090561, 0.03369750827550888, 0.04268120974302292], [0.019683154299855232, 0.11455971002578735, 0.004714748356491327, 0.0013147267745807767, 0.019012369215488434, 0.09505660831928253, 0.004701843485236168, 0.052954383194446564, 0.09169821441173553, 0.013938860967755318, 0.07781334966421127, 0.0034695568028837442, 0.025833459571003914, 0.11176494508981705, 0.00046344741713255644, 0.01571051776409149, 0.01744493469595909, 0.11451667547225952, 0.0028065189253538847, 0.025592900812625885, 0.18694913387298584], [0.03880004584789276, 0.15973040461540222, 0.002270851284265518, 0.0018869644263759255, 0.002730708569288254, 0.012682405300438404, 0.0013816290302202106, 0.05263809487223625, 0.15637443959712982, 0.0026873587630689144, 0.11213995516300201, 0.0017246886854991317, 0.0033317178022116423, 0.16468995809555054, 0.001549061737023294, 0.014961129054427147, 0.02447332814335823, 0.16660234332084656, 0.0008926556911319494, 0.023840412497520447, 0.054611969739198685], [0.04898407682776451, 0.12471923977136612, 0.002194128232076764, 0.002901304978877306, 0.009885603561997414, 0.028116408735513687, 0.0011666304199025035, 0.03011425957083702, 0.12655848264694214, 0.0026456862688064575, 0.10200958698987961, 0.0014627180062234402, 0.012287130579352379, 0.15280672907829285, 0.0004504169337451458, 0.02554585412144661, 0.02403605543076992, 0.12203431874513626, 0.0005841944948770106, 0.03345582261681557, 0.1480412483215332], [0.050372473895549774, 0.14031493663787842, 0.005850822664797306, 0.007064893841743469, 0.013783767819404602, 0.016250435262918472, 0.0030470036435872316, 0.042387932538986206, 0.13839180767536163, 0.008865736424922943, 0.10535555332899094, 0.004977641627192497, 0.014425016939640045, 0.15883511304855347, 0.0027500074356794357, 0.013275734148919582, 0.023483455181121826, 0.1314121037721634, 0.004832844715565443, 0.03991961479187012, 0.07440298050642014], [0.059632137417793274, 0.11687325686216354, 0.0061785574071109295, 0.007080928888171911, 0.007353296037763357, 0.018486665561795235, 0.0017402541125193238, 0.07445972412824631, 0.11035389453172684, 0.01960880495607853, 0.10174579918384552, 0.004511280916631222, 0.008352423086762428, 0.09056505560874939, 0.0047600422985851765, 0.017796184867620468, 0.038290031254291534, 0.11480668187141418, 0.01641613245010376, 0.057266220450401306, 0.12372249364852905], [0.030020447447896004, 0.13097301125526428, 0.004322614520788193, 0.004382906015962362, 0.011043072678148746, 0.019278215244412422, 0.0028762228321284056, 0.10288987308740616, 0.11817348003387451, 0.006218250375241041, 0.10031787306070328, 0.0039006639271974564, 0.012674213387072086, 0.1318863034248352, 0.002557676285505295, 0.022733177989721298, 0.0380917526781559, 0.12913592159748077, 0.00768397469073534, 0.03940576687455177, 0.08143454790115356], [0.10480052977800369, 0.1015806570649147, 0.008267219178378582, 0.03465663641691208, 0.007199397310614586, 0.012460144236683846, 0.009751786477863789, 0.02059301920235157, 0.12122452259063721, 0.022851018235087395, 0.10761546343564987, 0.00942563358694315, 0.007122202310711145, 0.13711382448673248, 0.03411136195063591, 0.021219251677393913, 0.01997082494199276, 0.1179242953658104, 0.02353266067802906, 0.04463479295372963, 0.03394472971558571], [0.0437157042324543, 0.14493945240974426, 0.006049003452062607, 0.0035891984589397907, 0.004573724698275328, 0.02843608520925045, 0.00774792954325676, 0.04222112521529198, 0.11151018738746643, 0.01373191550374031, 0.10541214048862457, 0.004026583395898342, 0.005864162929356098, 0.12569281458854675, 0.0011315729934722185, 0.0275955218821764, 0.04243882745504379, 0.1253325492143631, 0.0068461219780147076, 0.05915788188576698, 0.08998753130435944], [0.11628568172454834, 0.11122872680425644, 0.008590673096477985, 0.029401248320937157, 0.005070522893220186, 0.010349160060286522, 0.0086683239787817, 0.015908490866422653, 0.1276663988828659, 0.02017311193048954, 0.10915271192789078, 0.009610017761588097, 0.005251646041870117, 0.1484948992729187, 0.026788605377078056, 0.014721724204719067, 0.014928319491446018, 0.12409751117229462, 0.02149922214448452, 0.03995843604207039, 0.03215460479259491], [0.02472831681370735, 0.1199561357498169, 0.007573802024126053, 0.0014287938829511404, 0.014979511499404907, 0.0693918913602829, 0.007762389723211527, 0.04750606045126915, 0.09051686525344849, 0.01805455982685089, 0.07622876018285751, 0.005583474412560463, 0.02324930764734745, 0.11211562156677246, 0.0006564806099049747, 0.014520430006086826, 0.020202262327075005, 0.11841002106666565, 0.0048874965868890285, 0.03282541781663895, 0.18942250311374664], [0.05531520023941994, 0.11813894659280777, 0.004006925970315933, 0.003596212947741151, 0.0087346863001585, 0.028224335983395576, 0.003147668670862913, 0.030219780281186104, 0.11865223199129105, 0.0049943155609071255, 0.09464059770107269, 0.00255323457531631, 0.0116512356325984, 0.1508866548538208, 0.0009265993721783161, 0.041590094566345215, 0.03849320486187935, 0.11651968955993652, 0.0014329139376059175, 0.04329133406281471, 0.12298408150672913], [0.11709840595722198, 0.10530055314302444, 0.007244857493788004, 0.031486622989177704, 0.0038593877106904984, 0.008504427969455719, 0.009935186244547367, 0.013920009136199951, 0.13005556166172028, 0.02576233632862568, 0.11048837006092072, 0.00780271552503109, 0.003681115573272109, 0.14925169944763184, 0.034310974180698395, 0.01612219586968422, 0.014538333751261234, 0.12374356389045715, 0.026337498798966408, 0.03761216253042221, 0.022943908348679543], [0.11406367272138596, 0.12790408730506897, 0.0010179432574659586, 0.0039018115494400263, 0.0010436399606987834, 0.003575321054086089, 0.0015711314044892788, 0.012850118800997734, 0.14950771629810333, 0.0038002680521458387, 0.12147684395313263, 0.0009519053273834288, 0.001692316378466785, 0.15130166709423065, 0.0010801195167005062, 0.017121747136116028, 0.03425215184688568, 0.16682657599449158, 0.0044262041337788105, 0.028049558401107788, 0.053585175424814224], [0.031591035425662994, 0.15661753714084625, 0.0019213928608223796, 0.003284954931586981, 0.0015892707742750645, 0.018309110775589943, 0.002343852771446109, 0.02117902599275112, 0.16617538034915924, 0.002089220564812422, 0.14629563689231873, 0.0017002056119963527, 0.0017086606239899993, 0.15811090171337128, 0.003069972852244973, 0.007591703906655312, 0.017163995653390884, 0.19943098723888397, 0.005284682381898165, 0.026125652715563774, 0.028416840359568596], [0.028576228767633438, 0.11465387046337128, 0.00495846988633275, 0.005897216498851776, 0.005743852816522121, 0.035177938640117645, 0.008084443397819996, 0.05079285427927971, 0.13212326169013977, 0.005979880224913359, 0.12073540687561035, 0.005156221799552441, 0.006834847386926413, 0.14085394144058228, 0.0031566829420626163, 0.02279646508395672, 0.04157261550426483, 0.15478157997131348, 0.006284960079938173, 0.06004874035716057, 0.04579060524702072], [0.08845391869544983, 0.11462225019931793, 0.006610535550862551, 0.032204922288656235, 0.00305375293828547, 0.007205608766525984, 0.009609614498913288, 0.012265530414879322, 0.1349894404411316, 0.018778586760163307, 0.11175548285245895, 0.007390567101538181, 0.0029805353842675686, 0.16467303037643433, 0.03283006697893143, 0.015075480565428734, 0.015184805728495121, 0.1316862255334854, 0.028325935825705528, 0.041207145899534225, 0.02109655737876892], [0.03300360590219498, 0.18635161221027374, 0.020389586687088013, 0.006410256959497929, 0.002275946782901883, 0.006823762785643339, 0.011677855625748634, 0.040947504341602325, 0.11849924176931381, 0.029845047742128372, 0.0912032276391983, 0.013202711939811707, 0.002742993412539363, 0.12648016214370728, 0.008770284242928028, 0.008984492160379887, 0.05064846947789192, 0.12345490604639053, 0.026409277692437172, 0.0616881363093853, 0.03019094094634056], [0.02673552744090557, 0.13576386868953705, 0.013858336955308914, 0.005617720540612936, 0.004296088125556707, 0.010063177905976772, 0.007819092832505703, 0.08555471897125244, 0.11251530796289444, 0.015771985054016113, 0.09739097207784653, 0.016681533306837082, 0.006845925468951464, 0.1143898293375969, 0.006033557932823896, 0.01382132712751627, 0.056631311774253845, 0.12786586582660675, 0.02357037365436554, 0.0693562924861908, 0.04941720515489578], [0.04022185504436493, 0.15862755477428436, 0.042025525122880936, 0.008973016403615475, 0.01689586602151394, 0.038101375102996826, 0.00967264361679554, 0.02233821526169777, 0.10112737864255905, 0.010460076853632927, 0.08268524706363678, 0.04302924871444702, 0.024872103706002235, 0.11300940066576004, 0.005255709867924452, 0.0076041496358811855, 0.02179693430662155, 0.09733079373836517, 0.014778566546738148, 0.03382748365402222, 0.10736676305532455]], [[0.04678596556186676, 0.012891874648630619, 0.00030487545882351696, 0.000423068820964545, 0.00020761822815984488, 0.0002551591023802757, 0.00016238012176472694, 0.001023025717586279, 0.016233932226896286, 0.0022619967348873615, 0.013191752135753632, 0.0002467195154167712, 0.00023378657351713628, 0.012605707161128521, 0.0006900503649376333, 0.000773794308770448, 0.000597540580201894, 0.013792697340250015, 0.0015661342767998576, 0.0016518256161361933, 0.8741000294685364], [0.03870074078440666, 0.0919625461101532, 0.018377073109149933, 0.011394481174647808, 0.007673919666558504, 0.01292762067168951, 0.0071346755139529705, 0.007537995930761099, 0.10468373447656631, 0.03041967563331127, 0.10070271790027618, 0.014742821455001831, 0.005650163162499666, 0.11801112443208694, 0.01831313781440258, 0.009388986974954605, 0.004841457586735487, 0.1089019849896431, 0.028232529759407043, 0.015510131604969501, 0.24489252269268036], [0.07050656527280807, 0.08267519623041153, 0.002438452560454607, 0.005339884664863348, 0.0014497205847874284, 0.021818172186613083, 0.005892184562981129, 0.005789433605968952, 0.1541004776954651, 0.010748750530183315, 0.12860696017742157, 0.00296984426677227, 0.003527606837451458, 0.18276827037334442, 0.0035629423800855875, 0.010649509727954865, 0.0023921325337141752, 0.15819711983203888, 0.014957760460674763, 0.04490599036216736, 0.08670299500226974], [0.16620264947414398, 0.09712055325508118, 0.0017072485061362386, 0.0024567819200456142, 0.00244180578738451, 0.008977600373327732, 0.005667869001626968, 0.008130718022584915, 0.12744104862213135, 0.005712172947824001, 0.10587777197360992, 0.001957685686647892, 0.004285604692995548, 0.1421147733926773, 0.00535856606438756, 0.02757381647825241, 0.01924017444252968, 0.15178987383842468, 0.0030346857383847237, 0.011169621720910072, 0.10173900425434113], [0.036606062203645706, 0.08858638256788254, 0.0037256868090480566, 0.004090691916644573, 0.0009781413245946169, 0.020895931869745255, 0.002403323072940111, 0.0023872973397374153, 0.17390193045139313, 0.011760779656469822, 0.13487310707569122, 0.004393789451569319, 0.0016644807765260339, 0.26546594500541687, 0.00543574895709753, 0.008606640622019768, 0.0010494260350242257, 0.18349748849868774, 0.0048724692314863205, 0.022930361330509186, 0.02187424898147583], [0.08824023604393005, 0.08320533484220505, 0.010582144372165203, 0.010249311104416847, 0.0028043303173035383, 0.021786948665976524, 0.0029979569371789694, 0.006544442381709814, 0.14123763144016266, 0.015771357342600822, 0.12136904895305634, 0.012297325767576694, 0.005284210667014122, 0.16382329165935516, 0.009200342930853367, 0.01578175462782383, 0.003295646281912923, 0.15589043498039246, 0.007753162644803524, 0.029890261590480804, 0.09199490398168564], [0.05453171953558922, 0.08360239863395691, 0.02980918437242508, 0.04284025356173515, 0.01017917413264513, 0.05080041661858559, 0.002861731918528676, 0.01053518708795309, 0.09759250283241272, 0.06750202924013138, 0.09679365158081055, 0.031879425048828125, 0.018315710127353668, 0.10093235969543457, 0.014642233029007912, 0.008173476904630661, 0.0029422235675156116, 0.10954567790031433, 0.015498475171625614, 0.11576052755117416, 0.035261668264865875], [0.02885504625737667, 0.07054290920495987, 0.002904642606154084, 0.0068979039788246155, 0.0029415299650281668, 0.01587962731719017, 0.0034021646715700626, 0.005109183024615049, 0.14076416194438934, 0.004096056334674358, 0.1251642107963562, 0.003915807232260704, 0.005695936270058155, 0.16639016568660736, 0.004318664316087961, 0.02582690306007862, 0.0069857132621109486, 0.1356353759765625, 0.004996655974537134, 0.04777471721172333, 0.19190260767936707], [0.030583800747990608, 0.10676193237304688, 0.034052956849336624, 0.01883535645902157, 0.015525948256254196, 0.017312297597527504, 0.008261955343186855, 0.008584396913647652, 0.10092537105083466, 0.026166090741753578, 0.10280100256204605, 0.026872465386986732, 0.010754433460533619, 0.11831138283014297, 0.03192359581589699, 0.009530037641525269, 0.005358726717531681, 0.1148364469408989, 0.03153480961918831, 0.025027897208929062, 0.15603916347026825], [0.11350283771753311, 0.04549790918827057, 0.03889050707221031, 0.04017152637243271, 0.004574794787913561, 0.10813111066818237, 0.006510735955089331, 0.005814299453049898, 0.07273253798484802, 0.030723998323082924, 0.06491290032863617, 0.05147019773721695, 0.010052955709397793, 0.07853881269693375, 0.049482040107250214, 0.012659871019423008, 0.003561945864930749, 0.0848616287112236, 0.0780242383480072, 0.0914425328373909, 0.008442672900855541], [0.03730432689189911, 0.10404800623655319, 0.041482701897621155, 0.022499946877360344, 0.017941029742360115, 0.02360321395099163, 0.010428672656416893, 0.011187532916665077, 0.0998838022351265, 0.0278017558157444, 0.09701250493526459, 0.032498497515916824, 0.013105425052344799, 0.11689285188913345, 0.02728991024196148, 0.01397294458001852, 0.007549280300736427, 0.11390450596809387, 0.030282536521553993, 0.02597205899655819, 0.12533846497535706], [0.0606575571000576, 0.0807511955499649, 0.005132446996867657, 0.008038075640797615, 0.0030481668654829264, 0.040617894381284714, 0.009350870735943317, 0.007211672607809305, 0.13428539037704468, 0.01832789182662964, 0.11300427466630936, 0.006435592658817768, 0.00725517375394702, 0.1583600789308548, 0.006239091046154499, 0.014452077448368073, 0.0029279030859470367, 0.14508625864982605, 0.01557940524071455, 0.08333732187747955, 0.07990161329507828], [0.05701281502842903, 0.09329754114151001, 0.005367845296859741, 0.0037025047931820154, 0.0010102310916408896, 0.019308097660541534, 0.001727545983158052, 0.0030772776808589697, 0.16506792604923248, 0.018068907782435417, 0.12625426054000854, 0.006530935410410166, 0.0019024594221264124, 0.24388165771961212, 0.004926948808133602, 0.00925226230174303, 0.0014818134950473905, 0.18123823404312134, 0.0051947119645774364, 0.020655956119298935, 0.031040245667099953], [0.03457101061940193, 0.11761650443077087, 0.03412259370088577, 0.01438947394490242, 0.010109753347933292, 0.015405936166644096, 0.006977742537856102, 0.008923209272325039, 0.10603784024715424, 0.03166499733924866, 0.10242802649736404, 0.026203028857707977, 0.007104542106389999, 0.12619341909885406, 0.03060479275882244, 0.007979949936270714, 0.004195850808173418, 0.12369420379400253, 0.03254546597599983, 0.019511960446834564, 0.13971981406211853], [0.16549301147460938, 0.08041474223136902, 0.005942194722592831, 0.006898402702063322, 0.0014071210753172636, 0.010350136086344719, 0.0012970748357474804, 0.004581031855195761, 0.15291638672351837, 0.007927793078124523, 0.11619892716407776, 0.007424496114253998, 0.0035507765132933855, 0.1691349744796753, 0.0021468037739396095, 0.021801209077239037, 0.006138987839221954, 0.18137021362781525, 0.004288854543119669, 0.026403173804283142, 0.024313731119036674], [0.06449078023433685, 0.11346440762281418, 0.004352636635303497, 0.004903899505734444, 0.0032105918508023024, 0.009747047908604145, 0.0015569414244964719, 0.014278968796133995, 0.14585140347480774, 0.00562235526740551, 0.11810792237520218, 0.004071557428687811, 0.004149432294070721, 0.1849353015422821, 0.006218551658093929, 0.026557674631476402, 0.010602964088320732, 0.18513257801532745, 0.00406265864148736, 0.0173597801476717, 0.07132257521152496], [0.07838393747806549, 0.1042572408914566, 0.004700724501162767, 0.005196621175855398, 0.003285061102360487, 0.012489959597587585, 0.0023836856707930565, 0.016289927065372467, 0.1458396166563034, 0.006401094142347574, 0.11943097412586212, 0.004233375657349825, 0.004934669006615877, 0.16615095734596252, 0.006915265694260597, 0.031538140028715134, 0.01134859211742878, 0.16828617453575134, 0.0013075334718450904, 0.017618348821997643, 0.08900805562734604], [0.03981572017073631, 0.11280015110969543, 0.03246421739459038, 0.018425654619932175, 0.015677612274885178, 0.017476944252848625, 0.007722994312644005, 0.010893993079662323, 0.100588358938694, 0.023134296759963036, 0.09601044654846191, 0.023749832063913345, 0.010616186074912548, 0.1170801892876625, 0.02673272229731083, 0.010438724420964718, 0.0073030199855566025, 0.1180756688117981, 0.026711732149124146, 0.020353564992547035, 0.16392791271209717], [0.2171538919210434, 0.07818203419446945, 0.007207841612398624, 0.01304453145712614, 0.0025154869072139263, 0.015204834751784801, 0.0020989926997572184, 0.004596070386469364, 0.10904588550329208, 0.015376324765384197, 0.09831764549016953, 0.0074165198020637035, 0.004682638216763735, 0.11508230119943619, 0.019831961020827293, 0.006683574058115482, 0.0037620575167238712, 0.1294829398393631, 0.009295584633946419, 0.03449157625436783, 0.10652726143598557], [0.10660573840141296, 0.06474332511425018, 0.005087634082883596, 0.005853664129972458, 0.004127961117774248, 0.008941623382270336, 0.0014696670696139336, 0.006801004521548748, 0.10452062636613846, 0.006419321522116661, 0.089828260242939, 0.006801826413720846, 0.00966387428343296, 0.11647336930036545, 0.0031565851531922817, 0.014963215216994286, 0.01094483770430088, 0.12288414686918259, 0.005289101041853428, 0.026182133704423904, 0.27924206852912903], [0.09865009784698486, 0.03012031316757202, 0.0010410115355625749, 0.0021917119156569242, 0.0010304903844371438, 0.0011802074732258916, 0.0017310790717601776, 0.004959196783602238, 0.036373723298311234, 0.01946466974914074, 0.031971778720617294, 0.001071101170964539, 0.0012823670404031873, 0.036504123359918594, 0.0057019940577447414, 0.005627996288239956, 0.006997260730713606, 0.03888188675045967, 0.006617267616093159, 0.0038108390290290117, 0.6647908091545105]], [[0.12629181146621704, 0.1439550668001175, 0.007244566921144724, 0.005339034367352724, 0.01376342587172985, 0.03768869489431381, 0.0064439610578119755, 0.01902543008327484, 0.15041084587574005, 0.002799504203721881, 0.12425557523965836, 0.011022769846022129, 0.01840324141085148, 0.11341623961925507, 0.021121935918927193, 0.019319944083690643, 0.005889719817787409, 0.117052361369133, 0.0016221188707277179, 0.0141269750893116, 0.04080677777528763], [0.0454416424036026, 0.1523461490869522, 0.08670298755168915, 0.023566553369164467, 0.031019730493426323, 0.047774069011211395, 0.05198531225323677, 0.03205915167927742, 0.08262545615434647, 0.055260881781578064, 0.0696902647614479, 0.040458351373672485, 0.01814085617661476, 0.049717288464307785, 0.042629044502973557, 0.016228847205638885, 0.01966496929526329, 0.05563747510313988, 0.029972707852721214, 0.02496924065053463, 0.024109046906232834], [0.040248770266771317, 0.24212951958179474, 0.024338500574231148, 0.005847154185175896, 0.07687164098024368, 0.06257025897502899, 0.006479361560195684, 0.04389425739645958, 0.12333249300718307, 0.002275686478242278, 0.09131938219070435, 0.011025692336261272, 0.034545037895441055, 0.07584895193576813, 0.001076892833225429, 0.020075099542737007, 0.006666294299066067, 0.08005174249410629, 0.0005959237460047007, 0.012837528251111507, 0.03796975687146187], [0.044057879596948624, 0.13674131035804749, 0.01657789945602417, 0.0025293121580034494, 0.0465116985142231, 0.055841684341430664, 0.008853352628648281, 0.1471647471189499, 0.1302170753479004, 0.010666959919035435, 0.0972837582230568, 0.008856667205691338, 0.0319652184844017, 0.06345047056674957, 0.003908718470484018, 0.02439866214990616, 0.022258032113313675, 0.08678847551345825, 0.007244615815579891, 0.027247829362750053, 0.027435652911663055], [0.03279877454042435, 0.19020937383174896, 0.018078481778502464, 0.004371717106550932, 0.034071460366249084, 0.0762583389878273, 0.00909951701760292, 0.16864225268363953, 0.12310486286878586, 0.005200700834393501, 0.0943959429860115, 0.008860846981406212, 0.01354290172457695, 0.06089692935347557, 0.002764032455161214, 0.01711125485599041, 0.019380873069167137, 0.06972205638885498, 0.001478291698731482, 0.028216296806931496, 0.02179509587585926], [0.04090778902173042, 0.16296006739139557, 0.022905590012669563, 0.00986202247440815, 0.02654724009335041, 0.07549913972616196, 0.009967535734176636, 0.1425182819366455, 0.1084570437669754, 0.007098814472556114, 0.09266618639230728, 0.014246471226215363, 0.013104853220283985, 0.06456167250871658, 0.00526364054530859, 0.02141275629401207, 0.027488334104418755, 0.07714635878801346, 0.0030031809583306313, 0.046745091676712036, 0.027637891471385956], [0.042105432599782944, 0.18584884703159332, 0.007619447074830532, 0.005314142443239689, 0.005272373557090759, 0.01447757426649332, 0.0020536170341074467, 0.01951577141880989, 0.17079149186611176, 0.0028737392276525497, 0.152940571308136, 0.007109362166374922, 0.0062127490527927876, 0.12766949832439423, 0.004739599302411079, 0.016249405220150948, 0.0064613656140863895, 0.1545855551958084, 0.003426471259444952, 0.011094964109361172, 0.05363805964589119], [0.019605234265327454, 0.12862829864025116, 0.008515930734574795, 0.004978229757398367, 0.030662652105093002, 0.06347333639860153, 0.01158859208226204, 0.19551993906497955, 0.10574090480804443, 0.00387617782689631, 0.09203867614269257, 0.007435790728777647, 0.020712219178676605, 0.07377398759126663, 0.003444114001467824, 0.022101428359746933, 0.025511475279927254, 0.0952824279665947, 0.0018368405289947987, 0.05213587358593941, 0.03313790261745453], [0.03985785320401192, 0.09112687408924103, 0.0580781027674675, 0.056941695511341095, 0.01659441739320755, 0.017648328095674515, 0.05052177980542183, 0.018601572141051292, 0.058604173362255096, 0.07471896708011627, 0.06500913202762604, 0.046906422823667526, 0.01916075311601162, 0.05455036461353302, 0.06835213303565979, 0.01602894440293312, 0.035108909010887146, 0.05271749198436737, 0.08074568212032318, 0.02645142562687397, 0.052274931222200394], [0.02731655351817608, 0.1715109795331955, 0.0024187718518078327, 0.005148600786924362, 0.0222835261374712, 0.02198639325797558, 0.0057802964001894, 0.011988580226898193, 0.15004098415374756, 0.001025739824399352, 0.12438028305768967, 0.0035153585486114025, 0.025995900854468346, 0.13465982675552368, 0.0019442441407591105, 0.012784063816070557, 0.006468473933637142, 0.12332119792699814, 0.0012715079355984926, 0.005065955687314272, 0.1410927176475525], [0.047631192952394485, 0.10346445441246033, 0.04368732497096062, 0.047603122889995575, 0.012037641368806362, 0.014115311205387115, 0.04195263236761093, 0.0173400416970253, 0.07029388844966888, 0.05216897279024124, 0.08329083770513535, 0.04001082479953766, 0.016428977251052856, 0.06815959513187408, 0.060322146862745285, 0.017995186150074005, 0.035757578909397125, 0.07095623016357422, 0.06674807518720627, 0.025796206668019295, 0.06423989683389664], [0.05575815960764885, 0.15593038499355316, 0.009927352890372276, 0.014770821668207645, 0.02927471324801445, 0.023746388033032417, 0.004131367430090904, 0.01811443641781807, 0.10133086889982224, 0.0022017427254468203, 0.11421122401952744, 0.011485639028251171, 0.04169098287820816, 0.12006653845310211, 0.002222652081400156, 0.028555938974022865, 0.01198460441082716, 0.11372681707143784, 0.0013308963971212506, 0.020691124722361565, 0.11884740740060806], [0.04530332237482071, 0.1870904266834259, 0.004671775735914707, 0.006038269959390163, 0.010220865719020367, 0.027924997732043266, 0.003617280861362815, 0.04386823624372482, 0.1375907063484192, 0.0026712261606007814, 0.13908161222934723, 0.0045702168717980385, 0.011210912838578224, 0.11868664622306824, 0.004194749053567648, 0.018122464418411255, 0.017822153866291046, 0.1232367530465126, 0.0012585578951984644, 0.019771704450249672, 0.0730472058057785], [0.05485939979553223, 0.08271588385105133, 0.036770422011613846, 0.06066862866282463, 0.009855834767222404, 0.011014039628207684, 0.03613511472940445, 0.015384441241621971, 0.05826759710907936, 0.06204073131084442, 0.07321172952651978, 0.034568510949611664, 0.014749924652278423, 0.06554388254880905, 0.08916804939508438, 0.018121307715773582, 0.0362824946641922, 0.06661194562911987, 0.07693221420049667, 0.025651946663856506, 0.07144587486982346], [0.04605606570839882, 0.12594909965991974, 0.0008738344185985625, 0.001795646850951016, 0.0021670430433005095, 0.0045767840929329395, 0.0007689193007536232, 0.012587647885084152, 0.12413528561592102, 0.0012363410787656903, 0.14771172404289246, 0.0014196609845384955, 0.003934030421078205, 0.13987793028354645, 0.0019248960306867957, 0.01614438183605671, 0.008407439105212688, 0.19717448949813843, 0.0016991375014185905, 0.0066532474011182785, 0.1549065262079239], [0.023066936060786247, 0.11922570317983627, 0.0014890277525410056, 0.00320568960160017, 0.003908049780875444, 0.015414685942232609, 0.0017184315947815776, 0.06001387536525726, 0.1251244693994522, 0.001205354812555015, 0.1390751451253891, 0.0016807691426947713, 0.004548039752990007, 0.11136046051979065, 0.0024355535861104727, 0.017353922128677368, 0.023898949846625328, 0.19132821261882782, 0.0009934684494510293, 0.01866740919649601, 0.13428574800491333], [0.031093643978238106, 0.11399006843566895, 0.003204083302989602, 0.009939401410520077, 0.018955791369080544, 0.024576853960752487, 0.009026666171848774, 0.04844634234905243, 0.10778336226940155, 0.0013405638746917248, 0.12727397680282593, 0.004375419579446316, 0.02593211457133293, 0.10498550534248352, 0.004407709930092096, 0.041178807616233826, 0.021779675036668777, 0.15864112973213196, 0.0023654066026210785, 0.023406503722071648, 0.11729705333709717], [0.04422441124916077, 0.08994872123003006, 0.03624941036105156, 0.04946451634168625, 0.010976132936775684, 0.01113654300570488, 0.04305402189493179, 0.01796731725335121, 0.061293236911296844, 0.05083222687244415, 0.08042984455823898, 0.03386625647544861, 0.015345201827585697, 0.0644712895154953, 0.06971327215433121, 0.022518036887049675, 0.04287295788526535, 0.0782221332192421, 0.07526029646396637, 0.02629726193845272, 0.07585694640874863], [0.024689827114343643, 0.11884904652833939, 0.002085051266476512, 0.0029220804572105408, 0.010388687252998352, 0.019561056047677994, 0.003277142532169819, 0.016077004373073578, 0.11192893236875534, 0.001190032227896154, 0.14481759071350098, 0.0035937833599746227, 0.020785793662071228, 0.11784562468528748, 0.0043690805323421955, 0.03184864670038223, 0.011289357207715511, 0.17699380218982697, 0.0015908741625025868, 0.01496396865695715, 0.16093261539936066], [0.029754934832453728, 0.12657587230205536, 0.004050950985401869, 0.004836421459913254, 0.009739159606397152, 0.02814018353819847, 0.002640377264469862, 0.03413587808609009, 0.12672893702983856, 0.0011160689173266292, 0.1388944536447525, 0.006198307499289513, 0.014256549999117851, 0.1210608258843422, 0.004482281394302845, 0.0273814108222723, 0.009432709775865078, 0.1685078889131546, 0.0015717772766947746, 0.02823881432414055, 0.11225607246160507], [0.016645990312099457, 0.13432659208774567, 0.002068786881864071, 0.003425800474360585, 0.012617290019989014, 0.036628399044275284, 0.0035716653801500797, 0.010430910624563694, 0.15869247913360596, 0.0007484933012165129, 0.14023780822753906, 0.003207738045603037, 0.012619777582585812, 0.1422884613275528, 0.0031979240011423826, 0.01176101341843605, 0.005759617313742638, 0.14879371225833893, 0.0004137078358326107, 0.009276315569877625, 0.1432875543832779]], [[0.19559651613235474, 0.12707258760929108, 0.01591123640537262, 0.012409140355885029, 0.012713541276752949, 0.012726166285574436, 0.008627800270915031, 0.02500106208026409, 0.09602285176515579, 0.011553642340004444, 0.08153823763132095, 0.009957573376595974, 0.011314531788229942, 0.12460216879844666, 0.010176273062825203, 0.022252114489674568, 0.02419121190905571, 0.12278242409229279, 0.00866112019866705, 0.02088956907391548, 0.04600023105740547], [0.13042311370372772, 0.15767447650432587, 0.016358360648155212, 0.019602546468377113, 0.018034031614661217, 0.013944105245172977, 0.005228095687925816, 0.014672127552330494, 0.09188265353441238, 0.0056538209319114685, 0.08087033778429031, 0.00514612253755331, 0.004861750639975071, 0.09429577738046646, 0.004951301496475935, 0.01036596205085516, 0.011029713787138462, 0.0700078085064888, 0.002582229906693101, 0.006531412247568369, 0.2358841598033905], [0.022173721343278885, 0.06297443807125092, 0.0152982696890831, 0.023959245532751083, 0.11950237303972244, 0.14351432025432587, 0.048252563923597336, 0.01466912031173706, 0.03818841651082039, 0.08991115540266037, 0.0493277832865715, 0.010038582608103752, 0.08228614926338196, 0.035974837839603424, 0.06684181094169617, 0.017466019839048386, 0.007716604508459568, 0.04040969908237457, 0.044488225132226944, 0.016000661998987198, 0.05100608989596367], [0.06793112307786942, 0.20758984982967377, 0.023802591487765312, 0.011316744610667229, 0.012379154562950134, 0.04086233675479889, 0.013171161524951458, 0.034129079431295395, 0.1428946703672409, 0.01415352150797844, 0.08920838683843613, 0.007315958384424448, 0.006703091785311699, 0.08491862565279007, 0.013347635045647621, 0.025084031745791435, 0.045698851346969604, 0.12149446457624435, 0.009599985554814339, 0.007596156094223261, 0.020802484825253487], [0.03912829980254173, 0.15082070231437683, 0.05130584165453911, 0.06449990719556808, 0.02995540015399456, 0.06557725369930267, 0.030469363555312157, 0.041749007999897, 0.1388574242591858, 0.07679856568574905, 0.07395868003368378, 0.011664771474897861, 0.013965792022645473, 0.07483256608247757, 0.012018227018415928, 0.009837431833148003, 0.00867767445743084, 0.06267934292554855, 0.005922329146414995, 0.008108789101243019, 0.02917269617319107], [0.060697536915540695, 0.09815075993537903, 0.11152145266532898, 0.023881549015641212, 0.030745014548301697, 0.00918674562126398, 0.07183637470006943, 0.031201083213090897, 0.16408568620681763, 0.038273539394140244, 0.08917482197284698, 0.044152598828077316, 0.017051605507731438, 0.07725270092487335, 0.013253509066998959, 0.010693232528865337, 0.006303008180111647, 0.06820417940616608, 0.01164013147354126, 0.0079393545165658, 0.014755132608115673], [0.027013806626200676, 0.07361361384391785, 0.018667321652173996, 0.04034542292356491, 0.03692540526390076, 0.05825843662023544, 0.004832296632230282, 0.039616309106349945, 0.18278686702251434, 0.06729820370674133, 0.12822960317134857, 0.013790191151201725, 0.028566740453243256, 0.08963000029325485, 0.017239471897482872, 0.022444766014814377, 0.03026430867612362, 0.07970105111598969, 0.013539735227823257, 0.014515697956085205, 0.012720686383545399], [0.03475227952003479, 0.06601835787296295, 0.030838342383503914, 0.038724277168512344, 0.047135476022958755, 0.046318940818309784, 0.041594818234443665, 0.01666010357439518, 0.11956758797168732, 0.07344461977481842, 0.160612091422081, 0.04479155316948891, 0.027883118018507957, 0.07793533802032471, 0.013461800292134285, 0.017810814082622528, 0.009352944791316986, 0.07378993183374405, 0.016662554815411568, 0.010852591134607792, 0.031792521476745605], [0.10767954587936401, 0.09533116221427917, 0.008915440179407597, 0.015390993095934391, 0.012859267182648182, 0.022759614512324333, 0.018008938059210777, 0.029462018981575966, 0.11772406101226807, 0.012747823260724545, 0.147614985704422, 0.014532625675201416, 0.01547678280621767, 0.13170960545539856, 0.010947884060442448, 0.025056786835193634, 0.02975376695394516, 0.1151084154844284, 0.008454508148133755, 0.011518093757331371, 0.048947613686323166], [0.0460955910384655, 0.05773039534687996, 0.012965118512511253, 0.007764969952404499, 0.013594705611467361, 0.028149651363492012, 0.06714054197072983, 0.01387594174593687, 0.12171712517738342, 0.016040774062275887, 0.13651986420154572, 0.03017980419099331, 0.07355649769306183, 0.1482439786195755, 0.02643413096666336, 0.009014966897666454, 0.008624735288321972, 0.10116083174943924, 0.04137413203716278, 0.031059671193361282, 0.00875655747950077], [0.09224815666675568, 0.08032476156949997, 0.009571688249707222, 0.012388652190566063, 0.007290133275091648, 0.014091016724705696, 0.015004502609372139, 0.04265689477324486, 0.1432262659072876, 0.017266971990466118, 0.09649567306041718, 0.011675620451569557, 0.01712832599878311, 0.16088080406188965, 0.021956082433462143, 0.031602948904037476, 0.032468922436237335, 0.11552742123603821, 0.012995289638638496, 0.01846611499786377, 0.046733755618333817], [0.005429752171039581, 0.009473874233663082, 0.0042621721513569355, 0.008919009007513523, 0.022300491109490395, 0.03148767724633217, 0.040390077978372574, 0.010162871330976486, 0.025856170803308487, 0.15719902515411377, 0.02761761285364628, 0.01210810337215662, 0.14294663071632385, 0.03139834851026535, 0.19816236197948456, 0.027138924226164818, 0.006895328871905804, 0.029387639835476875, 0.14759103953838348, 0.04578176140785217, 0.015491144731640816], [0.016169661656022072, 0.022201748564839363, 0.016268951818346977, 0.027620241045951843, 0.011357658542692661, 0.02653510868549347, 0.03303266316652298, 0.0214021485298872, 0.06583933532238007, 0.18054404854774475, 0.0738103985786438, 0.03919558972120285, 0.029406767338514328, 0.07000376284122467, 0.08852292597293854, 0.05417404696345329, 0.024881012737751007, 0.06526051461696625, 0.04451778903603554, 0.05473576858639717, 0.034519895911216736], [0.17880143225193024, 0.06429838389158249, 0.003550690831616521, 0.006637313403189182, 0.0028352858498692513, 0.0058691310696303844, 0.008199031464755535, 0.01780373975634575, 0.10934995114803314, 0.010778347961604595, 0.14190706610679626, 0.008749597705900669, 0.006554600317031145, 0.12041659653186798, 0.012108375318348408, 0.030317973345518112, 0.038688600063323975, 0.17545023560523987, 0.01091752853244543, 0.018138330429792404, 0.028627783060073853], [0.028650404885411263, 0.03921446204185486, 0.016667285934090614, 0.007744304370135069, 0.006651789881289005, 0.019391870126128197, 0.0092761917039752, 0.01824178919196129, 0.0629233866930008, 0.023559197783470154, 0.09397275745868683, 0.059129372239112854, 0.05224710702896118, 0.09664425998926163, 0.011410878039896488, 0.06797856837511063, 0.09694671630859375, 0.1612766534090042, 0.057613812386989594, 0.06092626601457596, 0.009532881900668144], [0.06207599490880966, 0.033438630402088165, 0.0056682610884308815, 0.016613062471151352, 0.00209215865470469, 0.010972741059958935, 0.0077859219163656235, 0.017477812245488167, 0.07082720845937729, 0.021803345531225204, 0.08281871676445007, 0.01827635057270527, 0.02598016895353794, 0.1905430108308792, 0.08184444159269333, 0.01799171231687069, 0.05696500465273857, 0.15263959765434265, 0.058244138956069946, 0.035162415355443954, 0.030779309570789337], [0.04132718965411186, 0.03143537417054176, 0.013875857926905155, 0.01624544896185398, 0.0050862981006503105, 0.012961065396666527, 0.007078026421368122, 0.02011352963745594, 0.07552199810743332, 0.04180996119976044, 0.06779606640338898, 0.03688804805278778, 0.021904105320572853, 0.1434774100780487, 0.057842355221509933, 0.07408624142408371, 0.05546553060412407, 0.12309668213129044, 0.07204855978488922, 0.04709482938051224, 0.03484535589814186], [0.14413626492023468, 0.0462290495634079, 0.005334445741027594, 0.011400018818676472, 0.004595629405230284, 0.00788041576743126, 0.006819926202297211, 0.01808711141347885, 0.08269163966178894, 0.009973590262234211, 0.08855552971363068, 0.011913727968931198, 0.012295027263462543, 0.165411114692688, 0.03062182292342186, 0.05611652508378029, 0.04622191935777664, 0.13068203628063202, 0.016212791204452515, 0.03248973190784454, 0.07233171164989471], [0.030013149604201317, 0.01793738082051277, 0.019890954717993736, 0.0039800661616027355, 0.0023253345862030983, 0.006566125433892012, 0.01358659379184246, 0.006184135098010302, 0.040065474808216095, 0.0557544082403183, 0.058227550238370895, 0.10488373786211014, 0.0282574649900198, 0.09719972312450409, 0.10098633170127869, 0.03917798772454262, 0.024717526510357857, 0.12703865766525269, 0.05216541886329651, 0.1247878149151802, 0.046254128217697144], [0.022329159080982208, 0.013021452352404594, 0.006144387647509575, 0.0053594959899783134, 0.002573441481217742, 0.005996124353259802, 0.034539662301540375, 0.007602864410728216, 0.02064547874033451, 0.03604546934366226, 0.030403874814510345, 0.027813611552119255, 0.024891512468457222, 0.03728523105382919, 0.09599704295396805, 0.04682734236121178, 0.07493717968463898, 0.07043813169002533, 0.2998705208301544, 0.08163099735975266, 0.055646974593400955], [0.11285192519426346, 0.10290592908859253, 0.006103161256760359, 0.00781589187681675, 0.004069829825311899, 0.007644854951649904, 0.008193167857825756, 0.020047685131430626, 0.08194296807050705, 0.009754512459039688, 0.0747537910938263, 0.00911658350378275, 0.010752161033451557, 0.1531245857477188, 0.023014944046735764, 0.028552260249853134, 0.02640199102461338, 0.1770562380552292, 0.018173327669501305, 0.025086961686611176, 0.09263718128204346]], [[0.06650784611701965, 0.09771238267421722, 0.006338939536362886, 0.028645109385252, 0.011177276261150837, 0.02061121165752411, 0.005450586322695017, 0.022290630266070366, 0.13131451606750488, 0.020420322194695473, 0.1176956444978714, 0.009631235152482986, 0.013974144123494625, 0.15902598202228546, 0.00736171193420887, 0.012305659241974354, 0.009440809488296509, 0.14254184067249298, 0.012266459874808788, 0.020993851125240326, 0.08429374545812607], [0.07667814195156097, 0.0997854545712471, 0.012122027575969696, 0.07344693690538406, 0.009517576545476913, 0.016582975164055824, 0.006833623629063368, 0.013469921424984932, 0.10007311403751373, 0.02645036019384861, 0.08884543925523758, 0.011969726532697678, 0.008082419633865356, 0.11621228605508804, 0.03485990688204765, 0.009436270222067833, 0.014994151890277863, 0.10027053207159042, 0.026386430487036705, 0.020370103418827057, 0.13361255824565887], [0.02403373457491398, 0.184352844953537, 0.007811588700860739, 0.0022745525930076838, 0.01706823520362377, 0.03311486914753914, 0.0003990795521531254, 0.02397027797996998, 0.13872380554676056, 0.012621932663023472, 0.11043104529380798, 0.003903135657310486, 0.02251167967915535, 0.1283356249332428, 0.0015538239385932684, 0.00569906085729599, 0.005000859033316374, 0.207956463098526, 0.002194792265072465, 0.03270488232374191, 0.03533763065934181], [0.06490374356508255, 0.150324746966362, 0.0011375239118933678, 0.0030460769776254892, 0.003935159184038639, 0.016894349828362465, 0.0005564008024521172, 0.0069872853346168995, 0.16341011226177216, 0.003615034744143486, 0.12881909310817719, 0.0009441311121918261, 0.0042847758159041405, 0.19515539705753326, 0.0010069271083921194, 0.0033082137815654278, 0.0014654839178547263, 0.20932656526565552, 0.002743035787716508, 0.013743055053055286, 0.024392930790781975], [0.03695039451122284, 0.2147311419248581, 0.005041796248406172, 0.002827283227816224, 0.01081861276179552, 0.021091872826218605, 0.0008207620121538639, 0.026661189272999763, 0.13835930824279785, 0.01570131815969944, 0.10682074725627899, 0.00361478328704834, 0.011779336258769035, 0.1582690328359604, 0.0008118890109471977, 0.004091847222298384, 0.004575185012072325, 0.1685287356376648, 0.00401646364480257, 0.016507171094417572, 0.047981102019548416], [0.03411836177110672, 0.17533166706562042, 0.004879177547991276, 0.007730139885097742, 0.00764375040307641, 0.019706696271896362, 0.0008143273880705237, 0.009666550904512405, 0.1571388691663742, 0.011911127716302872, 0.1160927340388298, 0.0030832632910460234, 0.007349374238401651, 0.17496010661125183, 0.0019510132260620594, 0.004361119586974382, 0.0037283850833773613, 0.20160113275051117, 0.003437728388234973, 0.014255685731768608, 0.04023879021406174], [0.05895927548408508, 0.17443116009235382, 0.010660897009074688, 0.00691980728879571, 0.008201436139643192, 0.015880009159445763, 0.0008438439108431339, 0.010456401854753494, 0.1425548642873764, 0.021232597529888153, 0.09695662558078766, 0.006046010181307793, 0.008225667290389538, 0.16353140771389008, 0.003398861037567258, 0.0034570489078760147, 0.003666849108412862, 0.2021624743938446, 0.008286463096737862, 0.017492061480879784, 0.03663614019751549], [0.02035992033779621, 0.16202525794506073, 0.008108780719339848, 0.003486958798021078, 0.01029509212821722, 0.017970165237784386, 0.0008131134673021734, 0.3133915960788727, 0.08197576552629471, 0.014271539635956287, 0.06481604278087616, 0.004535531159490347, 0.009928185492753983, 0.07110337913036346, 0.0017514820210635662, 0.007980826310813427, 0.037636373192071915, 0.0991290733218193, 0.003859549527987838, 0.021815160289406776, 0.04474618285894394], [0.11233355849981308, 0.09729290008544922, 0.008565320633351803, 0.0701225996017456, 0.007056339643895626, 0.013447649776935577, 0.006984152365475893, 0.006964513100683689, 0.0952310711145401, 0.018361752852797508, 0.09131220728158951, 0.008218108676373959, 0.006350602488964796, 0.10975734889507294, 0.05072242021560669, 0.008406604640185833, 0.01449013315141201, 0.09974697232246399, 0.028987962752580643, 0.014644072391092777, 0.13100367784500122], [0.10362961143255234, 0.18980291485786438, 0.005734192207455635, 0.0011723499046638608, 0.008184903301298618, 0.03739378601312637, 0.0016491722781211138, 0.004678428638726473, 0.10680843889713287, 0.03274068236351013, 0.09707016497850418, 0.002956622513011098, 0.010511738248169422, 0.12630794942378998, 0.0022564041428267956, 0.004512989427894354, 0.0030451000202447176, 0.15937726199626923, 0.010983755812048912, 0.026105456054210663, 0.06507807224988937], [0.11585480719804764, 0.10357703268527985, 0.007127474062144756, 0.05908890813589096, 0.006337966304272413, 0.013649346306920052, 0.005631559994071722, 0.006872888188809156, 0.10176356136798859, 0.01689271815121174, 0.09530633687973022, 0.006487199570983648, 0.005667765159159899, 0.11895649880170822, 0.0403936468064785, 0.008115741424262524, 0.011822300963103771, 0.10879123210906982, 0.025563057512044907, 0.015714306384325027, 0.12638576328754425], [0.034560251981019974, 0.17448033392429352, 0.006064833607524633, 0.0018957433057948947, 0.013228761963546276, 0.028589483350515366, 0.000541605637408793, 0.021387167274951935, 0.14330533146858215, 0.013601248152554035, 0.11650601029396057, 0.0034477361477911472, 0.018320316448807716, 0.13465800881385803, 0.0019046018132939935, 0.005767666269093752, 0.0046760146506130695, 0.2078578919172287, 0.0031973998993635178, 0.026692267507314682, 0.03931727260351181], [0.049098435789346695, 0.18671374022960663, 0.003994739148765802, 0.0026254302356392145, 0.008961213752627373, 0.021343296393752098, 0.0012765354476869106, 0.014830651693046093, 0.14119143784046173, 0.01728261262178421, 0.11492660641670227, 0.0033889496698975563, 0.011540904641151428, 0.16847705841064453, 0.0013375399867072701, 0.0035890103317797184, 0.0031699405517429113, 0.17094285786151886, 0.005785482935607433, 0.01803797297179699, 0.05148550868034363], [0.10177560150623322, 0.08609627187252045, 0.008535022847354412, 0.09178436547517776, 0.007641828153282404, 0.013791459612548351, 0.010251418687403202, 0.007841943763196468, 0.0963045209646225, 0.019177692010998726, 0.09136438369750977, 0.008847180753946304, 0.006880942732095718, 0.11232402175664902, 0.049157608300447464, 0.008324773982167244, 0.015019307844340801, 0.10085026174783707, 0.03549171984195709, 0.016813678666949272, 0.11172593384981155], [0.21838167309761047, 0.07262180745601654, 0.011511323973536491, 0.06793936342000961, 0.031901322305202484, 0.02661135606467724, 0.0024192456621676683, 0.007632825523614883, 0.06206079572439194, 0.015588517300784588, 0.06224736198782921, 0.01115410216152668, 0.040535032749176025, 0.059441614896059036, 0.05811312422156334, 0.015113607980310917, 0.01522437296807766, 0.058383915573358536, 0.009932585060596466, 0.010405776090919971, 0.1427803635597229], [0.09471288323402405, 0.17702798545360565, 0.0034121456556022167, 0.008296187035739422, 0.009992980398237705, 0.01936497539281845, 0.0006076107383705676, 0.01411231979727745, 0.12419794499874115, 0.0070511344820261, 0.10357580333948135, 0.0023221008013933897, 0.010425906628370285, 0.14332056045532227, 0.006919968407601118, 0.003772422671318054, 0.0035886759869754314, 0.17985564470291138, 0.003024656092748046, 0.022501667961478233, 0.06191646680235863], [0.07339707016944885, 0.15652064979076385, 0.004138719290494919, 0.008313543163239956, 0.009481730870902538, 0.021662654355168343, 0.0008136113174259663, 0.13244350254535675, 0.1241978332400322, 0.011549212038516998, 0.09528666734695435, 0.002541459398344159, 0.00861547701060772, 0.1130257323384285, 0.005252431146800518, 0.007170901168137789, 0.01470832247287035, 0.14669431746006012, 0.003170468145981431, 0.02836180292069912, 0.032653793692588806], [0.08448954671621323, 0.09965450316667557, 0.0078002638183534145, 0.07505625486373901, 0.007407415192574263, 0.016787471249699593, 0.008691116236150265, 0.008124819956719875, 0.10684255510568619, 0.017476320266723633, 0.10172460973262787, 0.0075040291994810104, 0.006580975838005543, 0.1213373914361, 0.04078652337193489, 0.00950338039547205, 0.014474481344223022, 0.11512895673513412, 0.029240163043141365, 0.01753706857562065, 0.10385210067033768], [0.019626682624220848, 0.17432522773742676, 0.0030289613641798496, 0.001892432221211493, 0.009989645332098007, 0.051224060356616974, 0.0020813369192183018, 0.008340948261320591, 0.16040077805519104, 0.014911757782101631, 0.13882006704807281, 0.0022452622652053833, 0.012751247733831406, 0.1588113158941269, 0.001219007303006947, 0.004757293500006199, 0.0013918029144406319, 0.19213008880615234, 0.005720531102269888, 0.02069648541510105, 0.01563505083322525], [0.035143449902534485, 0.1376471072435379, 0.007223925553262234, 0.001691432436928153, 0.014886680990457535, 0.08439452946186066, 0.002974690403789282, 0.01893136464059353, 0.12045538425445557, 0.015858782455325127, 0.10944605618715286, 0.005198332481086254, 0.018265027552843094, 0.12238658219575882, 0.00250236876308918, 0.009511943906545639, 0.0031244922429323196, 0.14731186628341675, 0.006390891503542662, 0.08890508860349655, 0.047749921679496765], [0.03425213694572449, 0.16391944885253906, 0.0036601314786821604, 0.0038593278732150793, 0.008492927066981792, 0.06405818462371826, 0.002115867333486676, 0.015679683536291122, 0.1321057230234146, 0.014399724081158638, 0.10957595705986023, 0.003100763540714979, 0.009946870617568493, 0.15712107717990875, 0.0029718088917434216, 0.004661320708692074, 0.0034025968052446842, 0.17506088316440582, 0.005094749387353659, 0.025489632040262222, 0.06103118509054184]], [[0.2780221998691559, 0.1664130985736847, 0.004882955923676491, 0.00038037385093048215, 0.0007110545411705971, 0.0005511838826350868, 0.004998461343348026, 0.007811716292053461, 0.07707571238279343, 0.022512711584568024, 0.10591967403888702, 0.0030087768100202084, 0.0005768394912593067, 0.07826816290616989, 0.005202025640755892, 0.017102619633078575, 0.008838413283228874, 0.12541912496089935, 0.006822733208537102, 0.011201762594282627, 0.07428032904863358], [0.05857270210981369, 0.1254528909921646, 0.04327318072319031, 0.0060979570262134075, 0.0028295093216001987, 0.0022781293373554945, 0.005527818109840155, 0.0030693348962813616, 0.07088164985179901, 0.05943937227129936, 0.0740763247013092, 0.023677200078964233, 0.0035057985223829746, 0.1042475700378418, 0.07938933372497559, 0.002645788248628378, 0.004676892887800932, 0.11988407373428345, 0.027724355459213257, 0.013872017152607441, 0.16887807846069336], [0.07844206690788269, 0.09603682160377502, 0.0042238798923790455, 0.007678554393351078, 0.006111511494964361, 0.015476018190383911, 0.014798390679061413, 0.00481523759663105, 0.1254184991121292, 0.02554977871477604, 0.11413833498954773, 0.004579298198223114, 0.008029749616980553, 0.1417052298784256, 0.015642669051885605, 0.007954186759889126, 0.005442183930426836, 0.13614003360271454, 0.003678441746160388, 0.019978400319814682, 0.16416068375110626], [0.12255114316940308, 0.14320974051952362, 0.008129846304655075, 0.00463268393650651, 0.0034795061219483614, 0.0024137452710419893, 0.0031753433868288994, 0.0028771483339369297, 0.10699570178985596, 0.0117093650624156, 0.11659477651119232, 0.00459704315289855, 0.003530532354488969, 0.11084869503974915, 0.009898197837173939, 0.0067216153256595135, 0.007924753241240978, 0.18230430781841278, 0.0038339332677423954, 0.01330858375877142, 0.13126328587532043], [0.09902266412973404, 0.07717148214578629, 0.06639883667230606, 0.006920346058905125, 0.002901689615100622, 0.0016478454926982522, 0.014714200049638748, 0.0028302001301199198, 0.06735042482614517, 0.05173136666417122, 0.06854506582021713, 0.053408700972795486, 0.003483699867501855, 0.07231329381465912, 0.04920404031872749, 0.004506224300712347, 0.011371223255991936, 0.10872490704059601, 0.01399573590606451, 0.012475156225264072, 0.211282879114151], [0.04928705096244812, 0.09002599120140076, 0.04262149706482887, 0.05250287428498268, 0.008333652280271053, 0.012294810265302658, 0.033702973276376724, 0.006227500271052122, 0.07562729716300964, 0.03416679799556732, 0.07099767029285431, 0.04370126128196716, 0.010419554077088833, 0.09573173522949219, 0.027816152200102806, 0.0061909169889986515, 0.011914529837667942, 0.08288435637950897, 0.009541706182062626, 0.009166337549686432, 0.22684535384178162], [0.05754722282290459, 0.13261020183563232, 0.007864666171371937, 0.0018712347373366356, 0.0019973525777459145, 0.005539471749216318, 0.0036089704371988773, 0.0023237166460603476, 0.120982326567173, 0.021588871255517006, 0.12204549461603165, 0.008731383830308914, 0.003346700919792056, 0.20802941918373108, 0.006353443954139948, 0.005917215719819069, 0.0032179260160773993, 0.18957553803920746, 0.013235796242952347, 0.014901998452842236, 0.06871121376752853], [0.05244011804461479, 0.12019138038158417, 0.01573297381401062, 0.008009523153305054, 0.006366651505231857, 0.01174511294811964, 0.009125075303018093, 0.017039326950907707, 0.08896283805370331, 0.009579502046108246, 0.10316895693540573, 0.010354921221733093, 0.004630487412214279, 0.08153893053531647, 0.006812396924942732, 0.013742712326347828, 0.013806232251226902, 0.12569084763526917, 0.007846525870263577, 0.05488564446568489, 0.23832973837852478], [0.07299625873565674, 0.09656435996294022, 0.0470382422208786, 0.012405885383486748, 0.004558880813419819, 0.003411875804886222, 0.00904125440865755, 0.005528172943741083, 0.07012203335762024, 0.06758701801300049, 0.07134485244750977, 0.030796043574810028, 0.005781894084066153, 0.09761305153369904, 0.08882388472557068, 0.004729490261524916, 0.008218788541853428, 0.10746107250452042, 0.04266398027539253, 0.021354418247938156, 0.13195855915546417], [0.13332876563072205, 0.08495613187551498, 0.031168336048722267, 0.0029495437629520893, 0.002702661557123065, 0.004608966875821352, 0.024915946647524834, 0.0010562059469521046, 0.13772052526474, 0.007065202575176954, 0.11384741961956024, 0.029840493574738503, 0.0024169604294002056, 0.1102951392531395, 0.006482625845819712, 0.005595275666564703, 0.0034080673940479755, 0.15509426593780518, 0.00853761937469244, 0.010455690324306488, 0.12355411052703857], [0.08715803176164627, 0.10172537714242935, 0.040521666407585144, 0.01262250542640686, 0.004060388542711735, 0.002752459142357111, 0.010126023553311825, 0.006483040750026703, 0.07413187623023987, 0.05327766761183739, 0.0762244462966919, 0.028901128098368645, 0.005400270223617554, 0.10600724071264267, 0.06582916527986526, 0.006827209610491991, 0.009292365051805973, 0.11442868411540985, 0.04153310880064964, 0.025191761553287506, 0.12750543653964996], [0.06489010900259018, 0.08565851300954819, 0.0026477985084056854, 0.007696096319705248, 0.006955509539693594, 0.02278132177889347, 0.014043486677110195, 0.00817098468542099, 0.13627482950687408, 0.030567031353712082, 0.11678987741470337, 0.003263693768531084, 0.009226699359714985, 0.14737823605537415, 0.010618706233799458, 0.01271572895348072, 0.006370140705257654, 0.1377590298652649, 0.002947807079181075, 0.03146149590611458, 0.1417829990386963], [0.10115953534841537, 0.08289054036140442, 0.03277627006173134, 0.004746288061141968, 0.0033032300416380167, 0.003129300195723772, 0.015162932686507702, 0.005191446281969547, 0.09081681072711945, 0.04801950976252556, 0.08576629310846329, 0.03162088617682457, 0.003827362786978483, 0.09440705180168152, 0.030150113627314568, 0.008269712328910828, 0.0122219268232584, 0.13546547293663025, 0.013282489962875843, 0.017869500443339348, 0.17992326617240906], [0.07459006458520889, 0.09913954138755798, 0.04789261147379875, 0.01090645045042038, 0.0031921868212521076, 0.0024307332932949066, 0.010110732167959213, 0.005575545597821474, 0.07906148582696915, 0.061188116669654846, 0.07753127068281174, 0.03177318722009659, 0.004017445258796215, 0.10860980302095413, 0.07720288634300232, 0.007475048769265413, 0.011470885947346687, 0.11990617215633392, 0.047930847853422165, 0.02325783297419548, 0.09673722088336945], [0.10387562960386276, 0.07246997207403183, 0.014960476197302341, 0.011849191971123219, 0.009650321677327156, 0.011572746559977531, 0.004879254847764969, 0.0033834269270300865, 0.13705983757972717, 0.03838832676410675, 0.10050556808710098, 0.018085671588778496, 0.010642449371516705, 0.15817812085151672, 0.0004769829101860523, 0.006821884773671627, 0.007100938353687525, 0.17481288313865662, 0.010030694305896759, 0.058771029114723206, 0.046484630554914474], [0.08138163387775421, 0.08637063950300217, 0.008884843438863754, 0.022349700331687927, 0.0261443592607975, 0.05186789482831955, 0.005849093664437532, 0.025800935924053192, 0.09815862774848938, 0.0053118192590773106, 0.09233884513378143, 0.005485733039677143, 0.016402918845415115, 0.10302082449197769, 0.0030409859027713537, 0.013309251517057419, 0.023047035560011864, 0.11400425434112549, 0.004017161671072245, 0.05486186966300011, 0.15835148096084595], [0.11661513149738312, 0.09136384725570679, 0.01039035152643919, 0.0026386575773358345, 0.00862424261868, 0.011506117880344391, 0.00381476036272943, 0.030486879870295525, 0.11408067494630814, 0.0056367614306509495, 0.1167234256863594, 0.006700641009956598, 0.006345909554511309, 0.11549879610538483, 0.0020749305840581656, 0.013957146555185318, 0.006348403170704842, 0.17062827944755554, 0.0062344251200556755, 0.04883623868227005, 0.11149432510137558], [0.08935856819152832, 0.10715186595916748, 0.027292152866721153, 0.008732226677238941, 0.003765051020309329, 0.003253062255680561, 0.007723362650722265, 0.006991171278059483, 0.08343895524740219, 0.04447673633694649, 0.08359336107969284, 0.015700947493314743, 0.004235145170241594, 0.11351996660232544, 0.06019600108265877, 0.0072771767154335976, 0.009063425473868847, 0.13066688179969788, 0.03662922978401184, 0.0348188541829586, 0.1221158429980278], [0.07586269080638885, 0.07428031414747238, 0.0031670057214796543, 0.001204763655550778, 0.005399762652814388, 0.02417345531284809, 0.007299140561372042, 0.010250912979245186, 0.17063987255096436, 0.019903842359781265, 0.12462606281042099, 0.0025385250337421894, 0.0030047614127397537, 0.13882945477962494, 0.0025044300127774477, 0.007850786671042442, 0.002761459443718195, 0.16298408806324005, 0.00337871047668159, 0.04292387142777443, 0.11641612648963928], [0.07279553264379501, 0.10695016384124756, 0.007119611371308565, 0.014850630424916744, 0.015682034194469452, 0.025609178468585014, 0.011501559987664223, 0.0274126548320055, 0.10949020087718964, 0.008976011537015438, 0.112442247569561, 0.005654819309711456, 0.012227841652929783, 0.10518058389425278, 0.006594126578420401, 0.01528529729694128, 0.014311452396214008, 0.13576799631118774, 0.003947818651795387, 0.032598454505205154, 0.15560173988342285], [0.06638429313898087, 0.4796999990940094, 0.005197308026254177, 0.0005417896318249404, 0.0009070677915588021, 0.001344145042821765, 0.00977451354265213, 0.023404927924275398, 0.04179828241467476, 0.008427229709923267, 0.06050945073366165, 0.0012291466118767858, 0.0004804219352081418, 0.037128400057554245, 0.004517700523138046, 0.009487496688961983, 0.012536760419607162, 0.04388067498803139, 0.006569564808160067, 0.010253116488456726, 0.17592774331569672]]], [[[0.9796605706214905, 0.0008367780828848481, 0.00037757266545668244, 0.0012206259416416287, 0.0007218498503789306, 0.0012815921800211072, 0.0003530879912432283, 0.0006047563510946929, 0.001493335934355855, 0.0034507177770137787, 0.0010426671942695975, 0.0006086062057875097, 0.002261656103655696, 0.0013666131999343634, 0.00015338818775489926, 0.0006828625919297338, 0.0010262539144605398, 0.0012847076868638396, 0.0008219659794121981, 0.00046515854774042964, 0.000285277608782053], [0.0014146463945508003, 0.14237375557422638, 0.008788703940808773, 0.00730907404795289, 0.05449046567082405, 0.023930102586746216, 0.014998475089669228, 0.07249167561531067, 0.07940157502889633, 0.02346975915133953, 0.047610823065042496, 0.006157283205538988, 0.029850823804736137, 0.10750435292720795, 0.021035613492131233, 0.038236089050769806, 0.029824666678905487, 0.10709074884653091, 0.020189816132187843, 0.02585604600608349, 0.13797540962696075], [0.0012649846030399203, 0.11200475692749023, 0.005287557374686003, 0.003046546597033739, 0.03856942430138588, 0.03173048049211502, 0.003822609316557646, 0.12087137997150421, 0.05935467779636383, 0.002359346952289343, 0.04171540215611458, 0.003917696885764599, 0.026228640228509903, 0.11203397065401077, 0.0029510222375392914, 0.049854930490255356, 0.04243651404976845, 0.10751897841691971, 0.002961257239803672, 0.03461410105228424, 0.1974557638168335], [0.0032217407133430243, 0.14308016002178192, 0.006469183135777712, 0.0030013988725841045, 0.026169756427407265, 0.04714310169219971, 0.007675490342080593, 0.07708735764026642, 0.08969978988170624, 0.008556362241506577, 0.054545603692531586, 0.005255071446299553, 0.021258581429719925, 0.10330867767333984, 0.008436677046120167, 0.05191712826490402, 0.04459172114729881, 0.10428686439990997, 0.0141122592613101, 0.023286106064915657, 0.15689703822135925], [0.0013473080471158028, 0.10069802403450012, 0.010095071978867054, 0.006621642969548702, 0.034426555037498474, 0.0278201662003994, 0.011342592537403107, 0.08624573796987534, 0.05265713483095169, 0.007434584200382233, 0.031384918838739395, 0.008273504674434662, 0.02212013676762581, 0.08620412647724152, 0.010813037864863873, 0.06531884521245956, 0.050134941935539246, 0.06732086837291718, 0.006514017004519701, 0.04063540697097778, 0.2725914418697357], [0.0025845433119684458, 0.11036977171897888, 0.01372284721583128, 0.010135489515960217, 0.07608246058225632, 0.03263815864920616, 0.016387829557061195, 0.07180105894804001, 0.06408106535673141, 0.008939429186284542, 0.04033779725432396, 0.009707472287118435, 0.042259931564331055, 0.09566507488489151, 0.010823004879057407, 0.05386416241526604, 0.042772844433784485, 0.08358027786016464, 0.008386737667024136, 0.04475545883178711, 0.16110458970069885], [0.0003741773252841085, 0.08149198442697525, 0.003550855675712228, 0.006527523510158062, 0.014016801491379738, 0.014272771775722504, 0.002984031103551388, 0.0574265718460083, 0.07268612086772919, 0.00436032097786665, 0.05023965239524841, 0.0035471732262521982, 0.006720751989632845, 0.07271299511194229, 0.008533463813364506, 0.02696281485259533, 0.01376994140446186, 0.06781979650259018, 0.004534044768661261, 0.01405410934239626, 0.47341403365135193], [0.0018813451752066612, 0.07956049591302872, 0.01046715211123228, 0.002699214732274413, 0.1323024034500122, 0.05758246034383774, 0.010507014580070972, 0.07975407689809799, 0.029429834336042404, 0.005902926437556744, 0.013752548024058342, 0.00640536192804575, 0.06894466280937195, 0.05853288993239403, 0.0027103517204523087, 0.06367912143468857, 0.05532115697860718, 0.03642315790057182, 0.002683633239939809, 0.054344821721315384, 0.2271154224872589], [0.005167844705283642, 0.09351345151662827, 0.012578034773468971, 0.011621220968663692, 0.03412933275103569, 0.02759224735200405, 0.019361937418580055, 0.06598129123449326, 0.08398187160491943, 0.03229743242263794, 0.05645646154880524, 0.010094599798321724, 0.02017511986196041, 0.09507199376821518, 0.04233381524682045, 0.03086237609386444, 0.03124173730611801, 0.08884468674659729, 0.03425297141075134, 0.027278007939457893, 0.17716355621814728], [0.0011319959303364158, 0.049970194697380066, 0.008645905181765556, 0.0035810742992907763, 0.06807795912027359, 0.03980157524347305, 0.009751084260642529, 0.0642281100153923, 0.022846069186925888, 0.007813751697540283, 0.012361385859549046, 0.005058899521827698, 0.022686170414090157, 0.03748936951160431, 0.00539018027484417, 0.025019997730851173, 0.04618506133556366, 0.022273173555731773, 0.0033123583998531103, 0.04655816778540611, 0.4978175461292267], [0.00194152956828475, 0.09287118911743164, 0.012422429397702217, 0.011562608182430267, 0.034690532833337784, 0.02593366429209709, 0.01755605824291706, 0.06081290915608406, 0.07673775404691696, 0.022375918924808502, 0.054650578647851944, 0.009843017905950546, 0.01810440979897976, 0.09464994817972183, 0.03960437327623367, 0.0307475533336401, 0.027736229822039604, 0.08824154734611511, 0.02854851447045803, 0.02887069247663021, 0.2220984250307083], [0.0016147666610777378, 0.08400055766105652, 0.0072008538991212845, 0.0038663141895085573, 0.029918797314167023, 0.035614605993032455, 0.0025919817853718996, 0.10068043321371078, 0.06341060250997543, 0.0016988898860290647, 0.05170375853776932, 0.0052500455640256405, 0.017719348892569542, 0.09811286628246307, 0.0034890687093138695, 0.05239138752222061, 0.043569810688495636, 0.09310174733400345, 0.0020242808386683464, 0.025786610320210457, 0.27625322341918945], [0.0023065037094056606, 0.06979137659072876, 0.012835558503866196, 0.008864014409482479, 0.0421411357820034, 0.03830093517899513, 0.010625516064465046, 0.07648412883281708, 0.044379107654094696, 0.005062219686806202, 0.03211205452680588, 0.010204819031059742, 0.02124878205358982, 0.06511884927749634, 0.008721297606825829, 0.05534813180565834, 0.05382084846496582, 0.04971461743116379, 0.004411005415022373, 0.05427022650837898, 0.3342389464378357], [0.002906125970184803, 0.08780793100595474, 0.01312064379453659, 0.011669516563415527, 0.029366029426455498, 0.02316438779234886, 0.021079320460557938, 0.06006912514567375, 0.08226117491722107, 0.029696444049477577, 0.059038758277893066, 0.01037625502794981, 0.01614355482161045, 0.09322694689035416, 0.055106453597545624, 0.027979739010334015, 0.027413038536906242, 0.08815586566925049, 0.04144247621297836, 0.02888324111700058, 0.19109290838241577], [0.0010661722626537085, 0.1415269523859024, 0.0020854512695223093, 0.0010827555088326335, 0.02510988898575306, 0.030000029131770134, 0.0018595261499285698, 0.16750472784042358, 0.0817912220954895, 0.004066039342433214, 0.03510487452149391, 0.0015659108757972717, 0.014978093095123768, 0.1071924939751625, 0.0014336506137624383, 0.029475953429937363, 0.024639053270220757, 0.07844255119562149, 0.005233448464423418, 0.02262864075601101, 0.22321252524852753], [0.008527555502951145, 0.08138828724622726, 0.0109771229326725, 0.0038761349860578775, 0.06913241744041443, 0.05527405068278313, 0.009069419465959072, 0.1245540902018547, 0.06761764734983444, 0.006318113300949335, 0.03625192120671272, 0.010144931264221668, 0.04818166792392731, 0.09465674310922623, 0.0025878080632537603, 0.04171246290206909, 0.05584074184298515, 0.070726677775383, 0.005592998582869768, 0.045842356979846954, 0.15172690153121948], [0.004942544735968113, 0.08413063734769821, 0.01812303066253662, 0.0027360457461327314, 0.11179425567388535, 0.06494531035423279, 0.018097160384058952, 0.09875965863466263, 0.04328277334570885, 0.011687167920172215, 0.021189218387007713, 0.012849732302129269, 0.07027928531169891, 0.07242263853549957, 0.005914279259741306, 0.04426628351211548, 0.05445844307541847, 0.05043359473347664, 0.006789684295654297, 0.06006472185254097, 0.1428336352109909], [0.004001892637461424, 0.08862995356321335, 0.018618721514940262, 0.01514473371207714, 0.055544380098581314, 0.029035093262791634, 0.02516244910657406, 0.06424274295568466, 0.07493767887353897, 0.03400843217968941, 0.05422607809305191, 0.014030535705387592, 0.03114021010696888, 0.09555424749851227, 0.04778413102030754, 0.03016904927790165, 0.03202374279499054, 0.0890287235379219, 0.041011445224285126, 0.035381980240345, 0.12032373994588852], [0.006139672826975584, 0.0952145978808403, 0.01906190626323223, 0.006176866125315428, 0.10241196304559708, 0.055191945284605026, 0.007049341686069965, 0.10048579424619675, 0.04523124173283577, 0.013442814350128174, 0.021358320489525795, 0.010128412395715714, 0.042154546827077866, 0.06743643432855606, 0.0074675800278782845, 0.04490844905376434, 0.06288750469684601, 0.041011545807123184, 0.004372004885226488, 0.05624237656593323, 0.1916266530752182], [0.0020303772762417793, 0.08035162836313248, 0.014147123321890831, 0.004926116205751896, 0.09265383332967758, 0.05699409171938896, 0.01058682706207037, 0.08911532908678055, 0.04477623477578163, 0.003918733447790146, 0.027899866923689842, 0.008619090542197227, 0.05041933059692383, 0.10008647292852402, 0.007412055507302284, 0.03619532287120819, 0.07574806362390518, 0.06577052175998688, 0.005053376778960228, 0.055878426879644394, 0.16741719841957092], [0.000540144566912204, 0.06044042110443115, 0.03441402688622475, 0.008704627864062786, 0.3591202199459076, 0.024770990014076233, 0.026868153363466263, 0.03337763994932175, 0.01260543055832386, 0.011614150367677212, 0.008500944823026657, 0.013367700390517712, 0.12429032474756241, 0.03473948314785957, 0.008190308697521687, 0.039504364132881165, 0.050537969917058945, 0.02047010324895382, 0.0031408092472702265, 0.09166789799928665, 0.033134303987026215]], [[0.11182638257741928, 0.12938816845417023, 0.0038271844387054443, 0.1195622906088829, 0.015900425612926483, 0.008427178487181664, 0.001006315927952528, 0.0379917249083519, 0.07286886870861053, 0.05820394307374954, 0.039337124675512314, 0.001773933181539178, 0.008365505374968052, 0.07579828053712845, 0.02459041401743889, 0.005613573826849461, 0.012161199003458023, 0.05573105812072754, 0.05105028674006462, 0.006771930493414402, 0.15980426967144012], [0.06555312126874924, 0.16068658232688904, 0.00820921827107668, 0.02073485031723976, 0.012046090327203274, 0.03974216803908348, 0.00805166456848383, 0.011352292262017727, 0.1519041657447815, 0.031946681439876556, 0.09580868482589722, 0.006172816734761, 0.012803212739527225, 0.12549187242984772, 0.013363629579544067, 0.01011111494153738, 0.00903165154159069, 0.13261140882968903, 0.02354743890464306, 0.02527722530066967, 0.0355541817843914], [0.030120231211185455, 0.15178324282169342, 0.0032276692800223827, 0.009766647592186928, 0.0067625888623297215, 0.03345920145511627, 0.0010626602452248335, 0.013642726466059685, 0.17210033535957336, 0.0061731222085654736, 0.09009774774312973, 0.0032232473604381084, 0.009647617116570473, 0.26440951228141785, 0.003068474819883704, 0.004862775560468435, 0.006009702105075121, 0.13886608183383942, 0.02875133603811264, 0.010660571977496147, 0.012304523959755898], [0.0684477686882019, 0.15639157593250275, 0.002824940951541066, 0.0025221912655979395, 0.007606629282236099, 0.02994811162352562, 0.0006290356977842748, 0.005625287536531687, 0.156947523355484, 0.0018621643539518118, 0.12876534461975098, 0.002446636790409684, 0.0074819158762693405, 0.2455839365720749, 0.00173485919367522, 0.008496532216668129, 0.003658327739685774, 0.1381930112838745, 0.0062979040667414665, 0.01774662733078003, 0.00678968382999301], [0.06613228470087051, 0.17417408525943756, 0.008752930909395218, 0.011700734496116638, 0.02064003422856331, 0.07054437696933746, 0.0015103237237781286, 0.013159193098545074, 0.1161579117178917, 0.004779257345944643, 0.09624013304710388, 0.007043803576380014, 0.020759955048561096, 0.20268426835536957, 0.006428520195186138, 0.010170787572860718, 0.005881291348487139, 0.11260062456130981, 0.01611391454935074, 0.009215793572366238, 0.02530977874994278], [0.12217169255018234, 0.13836540281772614, 0.0061474391259253025, 0.011090761981904507, 0.016265539452433586, 0.02684572897851467, 0.0016548262210562825, 0.011496965773403645, 0.14228978753089905, 0.00785888358950615, 0.09904329478740692, 0.005881462246179581, 0.014506970532238483, 0.18414457142353058, 0.007689653895795345, 0.012153849005699158, 0.007598001044243574, 0.11986041814088821, 0.022076336666941643, 0.013671254739165306, 0.029187127947807312], [0.006056793034076691, 0.10972148925065994, 0.002710460452362895, 0.0037771835923194885, 0.01052077580243349, 0.05427416041493416, 0.0026309886015951633, 0.007829464040696621, 0.14152739942073822, 0.0008000523084774613, 0.1595464050769806, 0.004569148179143667, 0.019829558208584785, 0.2556617558002472, 0.004048265051096678, 0.009468691423535347, 0.006874881684780121, 0.1833679974079132, 0.00746841449290514, 0.006084418389946222, 0.003231676062569022], [0.1486733853816986, 0.1458519548177719, 0.005014113616198301, 0.018072903156280518, 0.02638721652328968, 0.015507221221923828, 0.0004761351447086781, 0.038698554039001465, 0.11585374921560287, 0.008807610720396042, 0.06716451048851013, 0.004092152696102858, 0.015944333747029305, 0.1505996584892273, 0.007802614476531744, 0.0073576136492192745, 0.015564730390906334, 0.08280254155397415, 0.04349081963300705, 0.006987146567553282, 0.0748511254787445], [0.020449792966246605, 0.10860536992549896, 0.0037212364841252565, 0.00534234382212162, 0.006006835028529167, 0.02529093064367771, 0.006041144952178001, 0.004397477023303509, 0.2206745445728302, 0.006706551183015108, 0.16238407790660858, 0.004597221501171589, 0.011303319595754147, 0.16796481609344482, 0.006586695555597544, 0.007145354524254799, 0.005098424386233091, 0.19312269985675812, 0.009534853510558605, 0.017518166452646255, 0.00750813540071249], [0.11424124985933304, 0.12008634954690933, 0.013133278116583824, 0.03264820948243141, 0.013594876043498516, 0.017904290929436684, 0.0041876137256622314, 0.0340573787689209, 0.11432909220457077, 0.02724798582494259, 0.06209302693605423, 0.014131613075733185, 0.013133165426552296, 0.1091974675655365, 0.008712598122656345, 0.011031459085643291, 0.020197225734591484, 0.09187319129705429, 0.0780731663107872, 0.020569106563925743, 0.0795576199889183], [0.021963633596897125, 0.08924657851457596, 0.0028151548467576504, 0.0042884452268481255, 0.006375228054821491, 0.02874949388206005, 0.005727087147533894, 0.003887457773089409, 0.2142898142337799, 0.00466080941259861, 0.17155835032463074, 0.00407019816339016, 0.012118221260607243, 0.17004382610321045, 0.005975109525024891, 0.007858174853026867, 0.004349440801888704, 0.2030664086341858, 0.008560404181480408, 0.021555548533797264, 0.008840512484312057], [0.0132526233792305, 0.1105407252907753, 0.0013820086605846882, 0.004555453546345234, 0.004302456974983215, 0.026820311322808266, 0.0007013203576207161, 0.006531072314828634, 0.19357946515083313, 0.0019057901808992028, 0.11601008474826813, 0.001790928654372692, 0.007642590440809727, 0.3108096718788147, 0.0013838947052136064, 0.003560656448826194, 0.003904051845893264, 0.16205689311027527, 0.013747044838964939, 0.011345376260578632, 0.0041775996796786785], [0.0390603169798851, 0.14571581780910492, 0.003929253667593002, 0.006783708464354277, 0.011411543004214764, 0.04569949954748154, 0.0007869186229072511, 0.007857372052967548, 0.15060560405254364, 0.001942875562235713, 0.12315505743026733, 0.004686912056058645, 0.015162382274866104, 0.2580443322658539, 0.003495078766718507, 0.010722417384386063, 0.004635445307940245, 0.13494548201560974, 0.007974437437951565, 0.007065197452902794, 0.016320262104272842], [0.010771024972200394, 0.0933016985654831, 0.0015701192896813154, 0.002508555306121707, 0.0036949391942471266, 0.02928617224097252, 0.0038241762667894363, 0.0021163716446608305, 0.22251015901565552, 0.0029207265470176935, 0.17842912673950195, 0.0021571102552115917, 0.009190811775624752, 0.19022803008556366, 0.0033370363526046276, 0.005235682707279921, 0.0024837683886289597, 0.2144245207309723, 0.0049452874809503555, 0.012981012463569641, 0.004083695821464062], [0.011802786961197853, 0.13387639820575714, 0.00046742381528019905, 0.0018953661201521754, 0.002485808217898011, 0.02493891492486, 0.00032017036573961377, 0.005349889863282442, 0.2160158008337021, 0.001636778935790062, 0.11881639808416367, 0.0007452182471752167, 0.003844461403787136, 0.3004406988620758, 0.0009771025506779552, 0.0035568939056247473, 0.0026309096720069647, 0.1520899087190628, 0.009031705558300018, 0.006181173026561737, 0.0028962150681763887], [0.04389816150069237, 0.10688602179288864, 0.000517040491104126, 0.0047240606509149075, 0.00795706082135439, 0.0204324834048748, 0.000374695286154747, 0.010894624516367912, 0.19224251806735992, 0.001509140245616436, 0.13226155936717987, 0.0004420940822456032, 0.007831979542970657, 0.25356152653694153, 0.0013433649437502027, 0.005449419375509024, 0.00645050872117281, 0.16605335474014282, 0.00802918616682291, 0.014412476681172848, 0.014728736132383347], [0.09610986709594727, 0.13185659050941467, 0.0022850027307868004, 0.012531681917607784, 0.021590564399957657, 0.019741900265216827, 0.0010332694509997964, 0.018992621451616287, 0.13455253839492798, 0.003476985264569521, 0.11994866281747818, 0.0019235358340665698, 0.017541959881782532, 0.19141556322574615, 0.0033829943276941776, 0.010182080790400505, 0.010380948893725872, 0.12044524401426315, 0.01038244366645813, 0.01612483337521553, 0.05610065162181854], [0.011402438394725323, 0.09296668320894241, 0.0018717757193371654, 0.0035493585746735334, 0.003818642580881715, 0.02602330408990383, 0.0055625964887440205, 0.0023212176747620106, 0.22670629620552063, 0.0033081795554608107, 0.17846964299678802, 0.0024942662566900253, 0.00858078058809042, 0.17491953074932098, 0.003979228902608156, 0.005754311103373766, 0.0029975215438753366, 0.21825826168060303, 0.005915933288633823, 0.01734577678143978, 0.0037543203216046095], [0.055616460740566254, 0.2647566497325897, 0.001520288991741836, 0.02038874477148056, 0.009570436552166939, 0.016084471717476845, 0.00036436860682442784, 0.02283243089914322, 0.14983929693698883, 0.00820939615368843, 0.06981367617845535, 0.0010769915534183383, 0.004222312476485968, 0.17035338282585144, 0.0031593635212630033, 0.014484607614576817, 0.009050454944372177, 0.11001776158809662, 0.016949571669101715, 0.011504332534968853, 0.04018503800034523], [0.040229834616184235, 0.10585074871778488, 0.002209232421591878, 0.011969718150794506, 0.007339243311434984, 0.022157521918416023, 0.0018945573829114437, 0.014320919290184975, 0.14002616703510284, 0.0059281266294419765, 0.10127662122249603, 0.0021937841083854437, 0.008293721824884415, 0.23107150197029114, 0.0037443044129759073, 0.007596326060593128, 0.007066954858601093, 0.15240898728370667, 0.08847164362668991, 0.030315224081277847, 0.015634767711162567], [0.3346432149410248, 0.0535116083920002, 0.005179912317544222, 0.07940363883972168, 0.030559394508600235, 0.004462513141334057, 0.0012858002446591854, 0.02327888458967209, 0.017284559085965157, 0.022905053570866585, 0.009221919812262058, 0.0019810425583273172, 0.006134537514299154, 0.016922762617468834, 0.017588160932064056, 0.005893068853765726, 0.011891557835042477, 0.01322713028639555, 0.02455773763358593, 0.005240938626229763, 0.3148265779018402]], [[0.26558879017829895, 0.09403882920742035, 0.01636906899511814, 0.0057508498430252075, 0.006367553491145372, 0.004228711593896151, 0.0031115314923226833, 0.003609446808695793, 0.14109766483306885, 0.004125934559851885, 0.07489622384309769, 0.009519216604530811, 0.0047645787708461285, 0.11661761999130249, 0.005571153946220875, 0.007038597017526627, 0.003909177612513304, 0.09194761514663696, 0.0024949887301772833, 0.004225615411996841, 0.13472677767276764], [0.13113662600517273, 0.08527591824531555, 0.02392914704978466, 0.03306470066308975, 0.017938407137989998, 0.006728284060955048, 0.0029951161704957485, 0.0038750662934035063, 0.0484541617333889, 0.017342107370495796, 0.04022115468978882, 0.013713742606341839, 0.008721733465790749, 0.05237742140889168, 0.14524313807487488, 0.007754764519631863, 0.010278604924678802, 0.04376662150025368, 0.0284372977912426, 0.005741412285715342, 0.27300456166267395], [0.05662711337208748, 0.13618168234825134, 0.012388456612825394, 0.0032019088976085186, 0.006783475633710623, 0.007029084488749504, 0.006145633291453123, 0.0058626169338822365, 0.16670067608356476, 0.006482069846242666, 0.1768931746482849, 0.014068874530494213, 0.009039649739861488, 0.1146017462015152, 0.005509051028639078, 0.014724206179380417, 0.005158673040568829, 0.1597883254289627, 0.005078648217022419, 0.007076784502714872, 0.08065808564424515], [0.03752053901553154, 0.21558958292007446, 0.004596559330821037, 0.0010434221476316452, 0.002160182688385248, 0.005202095955610275, 0.0007815974531695247, 0.0030810972675681114, 0.18192757666110992, 0.001627108664251864, 0.1348552107810974, 0.002321483800187707, 0.003117811633273959, 0.17933590710163116, 0.001511364826001227, 0.004831324331462383, 0.005269092973321676, 0.19190192222595215, 0.00031168246641755104, 0.017026441171765327, 0.005987915210425854], [0.09487453103065491, 0.09341859072446823, 0.03847121447324753, 0.011018904857337475, 0.045827362686395645, 0.03671429306268692, 0.006282885558903217, 0.040278974920511246, 0.10993166267871857, 0.01842513307929039, 0.10772006213665009, 0.03454936668276787, 0.04422258585691452, 0.09658186137676239, 0.010004638694226742, 0.042094506323337555, 0.019385574385523796, 0.09177394211292267, 0.005699257832020521, 0.04099990054965019, 0.011724863201379776], [0.02387300133705139, 0.10202337056398392, 0.021804165095090866, 0.00985508132725954, 0.029969818890094757, 0.07455045729875565, 0.009159722365438938, 0.043281570076942444, 0.14191865921020508, 0.012906347401440144, 0.12471935153007507, 0.020859744399785995, 0.03257687762379646, 0.12494011968374252, 0.007298897486180067, 0.01806515082716942, 0.0158005990087986, 0.12479043751955032, 0.007736991159617901, 0.03721790760755539, 0.016651645302772522], [0.023610305041074753, 0.0547194741666317, 0.0360870361328125, 0.0029487984720617533, 0.010010856203734875, 0.034537456929683685, 0.01922505721449852, 0.02585435099899769, 0.11497631669044495, 0.10020927339792252, 0.09633632004261017, 0.03748181089758873, 0.01256959792226553, 0.09781158715486526, 0.006707306951284409, 0.005925438366830349, 0.004597636871039867, 0.11413709074258804, 0.016220247372984886, 0.180653378367424, 0.005380709655582905], [0.028057744726538658, 0.10538987815380096, 0.036413758993148804, 0.003221964929252863, 0.01871502958238125, 0.048079609870910645, 0.0065278043039143085, 0.12541015446186066, 0.11406665295362473, 0.01100027747452259, 0.09611166268587112, 0.02621670812368393, 0.015598933212459087, 0.08933187276124954, 0.001358245499432087, 0.019838837906718254, 0.02396969124674797, 0.09816275537014008, 0.0014268438098952174, 0.11306899040937424, 0.018032660707831383], [0.1431487649679184, 0.04521920159459114, 0.041696202009916306, 0.027859866619110107, 0.017200490459799767, 0.01062860619276762, 0.01327102817595005, 0.013449130579829216, 0.07302835583686829, 0.06136089935898781, 0.07210838794708252, 0.041041094809770584, 0.01464100368320942, 0.07862245291471481, 0.1436930000782013, 0.010724261403083801, 0.020144421607255936, 0.06627938896417618, 0.06722260266542435, 0.02026352472603321, 0.018397297710180283], [0.013509711250662804, 0.10604076832532883, 0.008577943779528141, 0.007503134198486805, 0.0028315652161836624, 0.00890842080116272, 0.014938457868993282, 0.003228158224374056, 0.2002471685409546, 0.0031543313525617123, 0.16920195519924164, 0.009261908940970898, 0.005423345603048801, 0.19058552384376526, 0.002449778374284506, 0.003928577993065119, 0.0021634758450090885, 0.22285935282707214, 0.0015701638767495751, 0.007535433862358332, 0.016080843284726143], [0.13545969128608704, 0.040886975824832916, 0.04583040624856949, 0.03285825997591019, 0.02340688183903694, 0.011361693032085896, 0.010333271697163582, 0.018536794930696487, 0.07252980023622513, 0.06505326181650162, 0.07989931851625443, 0.04898839443922043, 0.02071228437125683, 0.07549750804901123, 0.10996069014072418, 0.013300914317369461, 0.025494372472167015, 0.0689706951379776, 0.06530041992664337, 0.02575356513261795, 0.009864803403615952], [0.04937243461608887, 0.0740010216832161, 0.019333472475409508, 0.004859511740505695, 0.012746487744152546, 0.01273135095834732, 0.016748983412981033, 0.01942925900220871, 0.16761787235736847, 0.018122896552085876, 0.19832155108451843, 0.032976433634757996, 0.01894698105752468, 0.11170350015163422, 0.004700617399066687, 0.02164396084845066, 0.011750560253858566, 0.1533830463886261, 0.013340073637664318, 0.018026527017354965, 0.02024337649345398], [0.07246682792901993, 0.061376672238111496, 0.04025539010763168, 0.01811395213007927, 0.05557577311992645, 0.03544148430228233, 0.012439658865332603, 0.048690326511859894, 0.0975189357995987, 0.01532752439379692, 0.10453550517559052, 0.04030942544341087, 0.06332384794950485, 0.0927039235830307, 0.0076184687204658985, 0.039776429533958435, 0.026284415274858475, 0.09355757385492325, 0.010980324819684029, 0.05367249995470047, 0.010031096637248993], [0.16757620871067047, 0.03943340480327606, 0.03068024106323719, 0.03199508413672447, 0.016141662374138832, 0.007385647390037775, 0.008193014189600945, 0.007688628509640694, 0.06998999416828156, 0.04265197366476059, 0.06818999350070953, 0.029732711613178253, 0.01390574686229229, 0.08738740533590317, 0.17690660059452057, 0.008325359784066677, 0.019186673685908318, 0.06730759888887405, 0.07780399918556213, 0.012207165360450745, 0.017310917377471924], [0.0932956263422966, 0.14948154985904694, 0.010076980106532574, 0.0020874112378805876, 0.0011379675706848502, 0.0015003447188064456, 0.0006550786783918738, 0.0007773456163704395, 0.16105885803699493, 0.0007116972119547427, 0.1333688646554947, 0.004669340793043375, 0.0022829456720501184, 0.21149316430091858, 0.0013973312452435493, 0.0037779216654598713, 0.004437913186848164, 0.2104821652173996, 0.0002933921932708472, 0.004292746540158987, 0.00272135017439723], [0.007787148468196392, 0.10694380104541779, 0.01346349623054266, 0.004432430025190115, 0.015615996904671192, 0.019893471151590347, 0.0025623932015150785, 0.010402700863778591, 0.15950354933738708, 0.009616762399673462, 0.14493423700332642, 0.012064037844538689, 0.023462818935513496, 0.1713445782661438, 0.0007929631392471492, 0.0032566331792622805, 0.003380129113793373, 0.20650772750377655, 0.009156821295619011, 0.04596429690718651, 0.02891395054757595], [0.04211071878671646, 0.1266331523656845, 0.027755126357078552, 0.003475493984296918, 0.007236826233565807, 0.020458288490772247, 0.003881048643961549, 0.0329253226518631, 0.13037386536598206, 0.005956823006272316, 0.10566119849681854, 0.019356904551386833, 0.00995546393096447, 0.13587503135204315, 0.0015734391054138541, 0.014126638881862164, 0.01731128990650177, 0.16046194732189178, 0.0019549785647541285, 0.09583855420351028, 0.03707785904407501], [0.12455674260854721, 0.03878221660852432, 0.039761003106832504, 0.04100220650434494, 0.019984038546681404, 0.009697604924440384, 0.012865182012319565, 0.011311476118862629, 0.05856650695204735, 0.04899684712290764, 0.06083421781659126, 0.04033743590116501, 0.019886882975697517, 0.07095550000667572, 0.16801956295967102, 0.010074298828840256, 0.02198408916592598, 0.06352761387825012, 0.08742779493331909, 0.02170795202255249, 0.02972082793712616], [0.008860107511281967, 0.11918371915817261, 0.010199198499321938, 0.002698441268876195, 0.001269131782464683, 0.011875550262629986, 0.018366239964962006, 0.007572325412184, 0.18581008911132812, 0.001988362753763795, 0.16499771177768707, 0.009032531641423702, 0.002793962601572275, 0.15723635256290436, 0.002362304599955678, 0.008907852694392204, 0.006272098049521446, 0.24605697393417358, 0.0005150894867256284, 0.03004327230155468, 0.003958644345402718], [0.017140738666057587, 0.10490453243255615, 0.012895094230771065, 0.007308460306376219, 0.010809963569045067, 0.022576788440346718, 0.02207031287252903, 0.012769900262355804, 0.16034215688705444, 0.008021066896617413, 0.14901475608348846, 0.012709483504295349, 0.011360526084899902, 0.13712063431739807, 0.0022895541042089462, 0.015825746580958366, 0.008677501231431961, 0.17736278474330902, 0.0019365731859579682, 0.07405883073806763, 0.03080463409423828], [0.028651989996433258, 0.2775286138057709, 0.020378341898322105, 0.0038428790867328644, 0.0030249941628426313, 0.006915273144841194, 0.008725118823349476, 0.0048050605691969395, 0.1412826031446457, 0.001776503981091082, 0.08759328722953796, 0.01050774846225977, 0.004210297483950853, 0.14000137150287628, 0.012780969962477684, 0.02539588324725628, 0.011525738053023815, 0.14990626275539398, 0.0002932411734946072, 0.017401598393917084, 0.043452270328998566]], [[0.23729142546653748, 0.06594868004322052, 0.02474948763847351, 0.028221530839800835, 0.02037162519991398, 0.019625483080744743, 0.008813553489744663, 0.061170198023319244, 0.0713004544377327, 0.010128703899681568, 0.04810205101966858, 0.02045929618179798, 0.030029019340872765, 0.07396779209375381, 0.008807883597910404, 0.02411787025630474, 0.012737032026052475, 0.07247547805309296, 0.010234602726995945, 0.06212259456515312, 0.08932523429393768], [0.022916972637176514, 0.07649432122707367, 0.028593340888619423, 0.04681188985705376, 0.022923467680811882, 0.0216451995074749, 0.027268199250102043, 0.029325004667043686, 0.09820672124624252, 0.04874846711754799, 0.07122159004211426, 0.02508113719522953, 0.014921925030648708, 0.09861328452825546, 0.16583704948425293, 0.019824882969260216, 0.02142028510570526, 0.07286003232002258, 0.02880062721669674, 0.018175696954131126, 0.040309838950634], [0.014764976687729359, 0.08134976029396057, 0.004022393841296434, 0.05220203846693039, 0.09066320210695267, 0.06087532266974449, 0.008987540379166603, 0.009592088870704174, 0.10088042914867401, 0.014435183256864548, 0.09787817299365997, 0.005478500388562679, 0.10122969001531601, 0.10110590606927872, 0.005203705746680498, 0.026243096217513084, 0.014431235380470753, 0.10852843523025513, 0.003976043313741684, 0.031958043575286865, 0.06619434803724289], [0.02341650426387787, 0.05695488676428795, 0.06692058593034744, 0.057772647589445114, 0.06756827235221863, 0.028145238757133484, 0.015483853407204151, 0.07944394648075104, 0.03569849953055382, 0.02348831482231617, 0.03307827562093735, 0.06884818524122238, 0.10398944467306137, 0.0530230812728405, 0.027255918830633163, 0.04668019711971283, 0.07202915102243423, 0.0329505130648613, 0.007418063934892416, 0.06929129362106323, 0.030543114989995956], [0.025720292702317238, 0.095492422580719, 0.0032681007869541645, 0.031241539865732193, 0.002688293345272541, 0.018716448917984962, 0.006430925335735083, 0.01960054226219654, 0.1374049335718155, 0.003987734671682119, 0.11057040095329285, 0.0062907543033361435, 0.00702086603268981, 0.1850692331790924, 0.056699544191360474, 0.05983838438987732, 0.023070335388183594, 0.12343768030405045, 0.0014028807636350393, 0.026232708245515823, 0.05581599846482277], [0.02471972443163395, 0.1165306493639946, 0.013427200727164745, 0.05213351547718048, 0.020498042926192284, 0.00833194237202406, 0.0032414537854492664, 0.012771292589604855, 0.14045332372188568, 0.011363896541297436, 0.1341373324394226, 0.02021767385303974, 0.021549014374613762, 0.1607789397239685, 0.020049432292580605, 0.019639845937490463, 0.011411604471504688, 0.12551647424697876, 0.004320461302995682, 0.027013642713427544, 0.05189457908272743], [0.08414098620414734, 0.13935694098472595, 0.014387767761945724, 0.028293494135141373, 0.0040482706390321255, 0.005020517855882645, 0.00040665711276233196, 0.006919606123119593, 0.1458335518836975, 0.0048038046807050705, 0.10503735393285751, 0.016461258754134178, 0.006492316722869873, 0.214237779378891, 0.004606764297932386, 0.010305006057024002, 0.008087674155831337, 0.13674822449684143, 0.0012965125497430563, 0.01560231763869524, 0.04791317880153656], [0.09967061877250671, 0.09652547538280487, 0.017010368406772614, 0.022670675069093704, 0.02135111391544342, 0.02575652115046978, 0.005748804192990065, 0.005883625242859125, 0.09768540412187576, 0.009001852944493294, 0.09733152389526367, 0.03193971887230873, 0.035186924040317535, 0.15223397314548492, 0.004413517192006111, 0.01732836663722992, 0.015633800998330116, 0.1128641813993454, 0.0036169032100588083, 0.012798767536878586, 0.11534784734249115], [0.04325999319553375, 0.07754167169332504, 0.020227210596203804, 0.024830451235175133, 0.007765589281916618, 0.013263381086289883, 0.02090645395219326, 0.013532374054193497, 0.10345951467752457, 0.03914952650666237, 0.07640361040830612, 0.024786673486232758, 0.010318538174033165, 0.15048286318778992, 0.1322512924671173, 0.020525537431240082, 0.022676147520542145, 0.1013667955994606, 0.03802362456917763, 0.017780350521206856, 0.0414484478533268], [0.22392749786376953, 0.12789301574230194, 0.004017663653939962, 0.01623760163784027, 0.001542653189972043, 0.00661470415070653, 0.0009985840879380703, 0.008038302883505821, 0.12455856055021286, 0.0007631565677002072, 0.05676005780696869, 0.004969507921487093, 0.005474775098264217, 0.18696901202201843, 0.0034722513519227505, 0.01512005552649498, 0.013442281633615494, 0.13272345066070557, 0.0005829510046169162, 0.008193432353436947, 0.05770043656229973], [0.03608871251344681, 0.08350495249032974, 0.018151352182030678, 0.029041148722171783, 0.007106950040906668, 0.011563437059521675, 0.012804064899682999, 0.013200879096984863, 0.1223350316286087, 0.029573902487754822, 0.07644759863615036, 0.019539281725883484, 0.009775213897228241, 0.1638650745153427, 0.13343386352062225, 0.027322452515363693, 0.023843271657824516, 0.10875393450260162, 0.022156400606036186, 0.01858876459300518, 0.032903701066970825], [0.015735920518636703, 0.07087165862321854, 0.0028007742948830128, 0.034255217760801315, 0.030461512506008148, 0.049625080078840256, 0.004681483376771212, 0.010534373112022877, 0.11140339076519012, 0.009022676385939121, 0.0890837088227272, 0.004605824593454599, 0.07369820028543472, 0.14776790142059326, 0.005456052254885435, 0.03552338108420372, 0.014866823330521584, 0.14753641188144684, 0.004451813641935587, 0.04687389358878136, 0.09074392169713974], [0.028431657701730728, 0.07247871160507202, 0.0023205894976854324, 0.02359808422625065, 0.002304455963894725, 0.016568392515182495, 0.0026033809408545494, 0.015911972150206566, 0.11582186073064804, 0.0022649853490293026, 0.10172130912542343, 0.006846756208688021, 0.011077415198087692, 0.2127750962972641, 0.027262039482593536, 0.05914941430091858, 0.032398659735918045, 0.15980611741542816, 0.0019303789595142007, 0.03411933779716492, 0.07060939073562622], [0.02836260199546814, 0.06525945663452148, 0.02125655859708786, 0.024934763088822365, 0.008864152245223522, 0.009233267046511173, 0.020268572494387627, 0.014742488972842693, 0.09326234459877014, 0.06014532968401909, 0.06903790682554245, 0.023762984201312065, 0.010432408191263676, 0.11532408744096756, 0.19494859874248505, 0.01902265101671219, 0.023456959053874016, 0.0974852442741394, 0.054320890456438065, 0.017544236034154892, 0.02833450585603714], [0.09764397889375687, 0.0282551571726799, 0.12486902624368668, 0.025234784930944443, 0.02684335596859455, 0.015962783247232437, 0.03029121644794941, 0.08378811925649643, 0.01868448778986931, 0.06976497173309326, 0.013064843602478504, 0.13633498549461365, 0.03970547765493393, 0.026120727881789207, 0.02033666893839836, 0.04930967837572098, 0.04777557775378227, 0.019392166286706924, 0.03016328252851963, 0.06643731892108917, 0.03002137690782547], [0.04422851651906967, 0.09827166050672531, 0.025919342413544655, 0.013168315403163433, 0.018232561647892, 0.013576825149357319, 0.00738978898152709, 0.04781078174710274, 0.10660655796527863, 0.022934777662158012, 0.06996359676122665, 0.03334517031908035, 0.04807271435856819, 0.158933624625206, 0.015777336433529854, 0.025708025321364403, 0.009281144477427006, 0.10995503515005112, 0.012045699171721935, 0.08196127414703369, 0.03681722283363342], [0.12195790559053421, 0.06667391210794449, 0.02274545282125473, 0.01450387667864561, 0.02794680744409561, 0.009372596628963947, 0.007348982151597738, 0.006161050871014595, 0.09683094918727875, 0.01157344039529562, 0.07336433976888657, 0.0289918165653944, 0.06585706770420074, 0.15708912909030914, 0.0063599636778235435, 0.014968992210924625, 0.007778270170092583, 0.11532194912433624, 0.014004378579556942, 0.02743140235543251, 0.10371777415275574], [0.022474255412817, 0.05513110011816025, 0.022110717371106148, 0.024642521515488625, 0.008964816108345985, 0.011181441135704517, 0.025327231734991074, 0.013033123686909676, 0.08578278124332428, 0.0392015166580677, 0.06106628477573395, 0.025469951331615448, 0.011636314913630486, 0.12165850400924683, 0.22950705885887146, 0.025186773389577866, 0.022224251180887222, 0.0931534394621849, 0.05560801923274994, 0.021803880110383034, 0.024835942313075066], [0.09460600465536118, 0.15634946525096893, 0.0015835457015782595, 0.006193053908646107, 0.00250692549161613, 0.0020008159335702658, 0.00025652998010627925, 0.0007836592849344015, 0.13681064546108246, 0.0005302885547280312, 0.09115661680698395, 0.0023095968645066023, 0.007466805167496204, 0.19821694493293762, 0.00018259031639900059, 0.004891009535640478, 0.01610884629189968, 0.2393350452184677, 0.00019619434897322208, 0.005910202860832214, 0.03260521963238716], [0.015484810806810856, 0.08364231139421463, 0.012690429575741291, 0.03431424871087074, 0.013817038387060165, 0.03190973773598671, 0.007000762969255447, 0.019398314878344536, 0.1147703155875206, 0.011379807256162167, 0.10260812193155289, 0.016697030514478683, 0.03351200744509697, 0.1652175635099411, 0.010466202162206173, 0.027682265266776085, 0.04737738519906998, 0.19219741225242615, 0.004225045908242464, 0.026184091344475746, 0.029425116255879402], [0.020507415756583214, 0.11314546316862106, 0.01242201216518879, 0.0370108000934124, 0.009697767905890942, 0.017891108989715576, 0.00549188582226634, 0.03408972918987274, 0.11014685779809952, 0.003426177194342017, 0.07994885742664337, 0.014276959002017975, 0.028265271335840225, 0.17037247121334076, 0.005380464252084494, 0.032021913677453995, 0.018108254298567772, 0.17154347896575928, 0.0038749936502426863, 0.05924857407808304, 0.05312950164079666]], [[0.22199004888534546, 0.06692763417959213, 0.04811352491378784, 0.025232186540961266, 0.020345818251371384, 0.01861652173101902, 0.014561349526047707, 0.021132120862603188, 0.05158432573080063, 0.049476224929094315, 0.03825816512107849, 0.04552263766527176, 0.021747412160038948, 0.04408855363726616, 0.03083236701786518, 0.06243288889527321, 0.04536882042884827, 0.04306012764573097, 0.0418161116540432, 0.015967795625329018, 0.0729253888130188], [0.06005462259054184, 0.09957373142242432, 0.01790417730808258, 0.026179112493991852, 0.028142308816313744, 0.02719394490122795, 0.012541296891868114, 0.014201154932379723, 0.12151604890823364, 0.015121594071388245, 0.09515279531478882, 0.015934227034449577, 0.024481480941176414, 0.15323220193386078, 0.02324572578072548, 0.036640606820583344, 0.01986316405236721, 0.13146397471427917, 0.02150040678679943, 0.019502729177474976, 0.03655471280217171], [0.04084492847323418, 0.042389292269945145, 0.018183471634984016, 0.08717892318964005, 0.021861765533685684, 0.02434568852186203, 0.0371646024286747, 0.01648707315325737, 0.02008765935897827, 0.08487726747989655, 0.018956132233142853, 0.014892488718032837, 0.036855850368738174, 0.023029377683997154, 0.12805552780628204, 0.02135431580245495, 0.018357960507273674, 0.020118487998843193, 0.1620406210422516, 0.024340862408280373, 0.13857775926589966], [0.04619760066270828, 0.05594771355390549, 0.03865141049027443, 0.029173659160733223, 0.05631980299949646, 0.03495434299111366, 0.02724943496286869, 0.020432572811841965, 0.030767591670155525, 0.09779798239469528, 0.027162643149495125, 0.027595825493335724, 0.038929324597120285, 0.030889514833688736, 0.0680999755859375, 0.017770811915397644, 0.034554373472929, 0.03192085400223732, 0.08353617787361145, 0.03929172456264496, 0.1627567559480667], [0.05897057428956032, 0.05015353858470917, 0.04678792133927345, 0.035110119730234146, 0.04129203036427498, 0.03985651209950447, 0.05780569463968277, 0.031991079449653625, 0.03166363388299942, 0.07579455524682999, 0.025018954649567604, 0.04362370818853378, 0.041974544525146484, 0.026622014120221138, 0.06951995193958282, 0.02104617841541767, 0.028116164728999138, 0.025606263428926468, 0.07179167866706848, 0.048662781715393066, 0.12859199941158295], [0.04222496598958969, 0.04806580767035484, 0.04234984144568443, 0.04593654349446297, 0.062359292060136795, 0.025514760985970497, 0.033181894570589066, 0.04590233042836189, 0.04006217420101166, 0.06279348582029343, 0.030765369534492493, 0.03912876918911934, 0.05116697773337364, 0.03452114760875702, 0.05422641709446907, 0.029582837596535683, 0.05335935577750206, 0.0364161916077137, 0.05582006275653839, 0.06298431009054184, 0.10363752394914627], [0.054138343781232834, 0.11450689285993576, 0.028475133702158928, 0.06599214673042297, 0.027577202767133713, 0.031015116721391678, 0.008433187380433083, 0.016807420179247856, 0.05911625921726227, 0.014725949615240097, 0.062234655022621155, 0.02303183265030384, 0.042301859706640244, 0.09392943233251572, 0.08302781730890274, 0.04386252164840698, 0.03346949443221092, 0.0551595501601696, 0.05168122053146362, 0.045529358088970184, 0.04498458281159401], [0.08949577808380127, 0.0672561451792717, 0.03715018928050995, 0.08414451032876968, 0.030521970242261887, 0.026909904554486275, 0.02384468913078308, 0.019461028277873993, 0.03714779391884804, 0.02885148860514164, 0.03498781844973564, 0.02534249797463417, 0.025620440021157265, 0.04586130380630493, 0.12610812485218048, 0.026808511465787888, 0.06229003518819809, 0.03434109687805176, 0.0649329423904419, 0.019615886732935905, 0.08930785953998566], [0.08339371532201767, 0.09283439815044403, 0.00943674985319376, 0.0196982529014349, 0.01823982410132885, 0.023620888590812683, 0.008234535343945026, 0.00860225223004818, 0.12455414980649948, 0.008310412988066673, 0.11440391093492508, 0.009650828316807747, 0.023270312696695328, 0.19132666289806366, 0.01238059252500534, 0.027237731963396072, 0.01302036177366972, 0.1581566482782364, 0.010592182166874409, 0.01895967870950699, 0.024075878784060478], [0.09132857620716095, 0.024773601442575455, 0.03579741716384888, 0.019781649112701416, 0.017267543822526932, 0.01698463037610054, 0.05947834998369217, 0.036903608590364456, 0.02347845397889614, 0.13074178993701935, 0.013556759804487228, 0.032851457595825195, 0.03801916539669037, 0.02207832597196102, 0.14133548736572266, 0.02327478677034378, 0.023371051996946335, 0.021467456594109535, 0.10625527054071426, 0.02331482246518135, 0.09793977439403534], [0.08424296975135803, 0.10357273370027542, 0.01022186130285263, 0.017401451244950294, 0.016323750838637352, 0.02668493613600731, 0.009328922256827354, 0.007657896727323532, 0.12464974075555801, 0.0070705171674489975, 0.1162431612610817, 0.01013600081205368, 0.020186979323625565, 0.18652988970279694, 0.012611671350896358, 0.02605089172720909, 0.012951213866472244, 0.15208196640014648, 0.009505287744104862, 0.022348012775182724, 0.024200154468417168], [0.05914260447025299, 0.02959388494491577, 0.014770775102078915, 0.0738183781504631, 0.017504684627056122, 0.018426019698381424, 0.043784379959106445, 0.015598049387335777, 0.016784587875008583, 0.0921194925904274, 0.0153208551928401, 0.015355221927165985, 0.03358988091349602, 0.01804998144507408, 0.1339821070432663, 0.020495308563113213, 0.015702998265624046, 0.015699783340096474, 0.15040597319602966, 0.03517363965511322, 0.1646813303232193], [0.08121494203805923, 0.032731205224990845, 0.03165271133184433, 0.0197939220815897, 0.02379973791539669, 0.02807426080107689, 0.06170091778039932, 0.02099788561463356, 0.026387521997094154, 0.09177306294441223, 0.019728180021047592, 0.038056883960962296, 0.03461235389113426, 0.02304835617542267, 0.08065439015626907, 0.027314629405736923, 0.019820688292384148, 0.023893242701888084, 0.09682130813598633, 0.0549396388232708, 0.1629841923713684], [0.06337978690862656, 0.0926607996225357, 0.009753666818141937, 0.013714632950723171, 0.017539409920573235, 0.026385826990008354, 0.0067182318307459354, 0.007443481124937534, 0.12863534688949585, 0.007992533035576344, 0.11780156940221786, 0.010042550973594189, 0.02462943084537983, 0.18871808052062988, 0.011682194657623768, 0.028042973950505257, 0.01269742101430893, 0.18112634122371674, 0.00919260922819376, 0.02079044096171856, 0.021052632480859756], [0.04905470833182335, 0.05542798712849617, 0.021158268675208092, 0.032011132687330246, 0.015120035968720913, 0.01107713021337986, 0.026523863896727562, 0.022653909400105476, 0.04443739354610443, 0.09503308683633804, 0.033793654292821884, 0.017869774252176285, 0.0294260885566473, 0.050972335040569305, 0.06505521386861801, 0.028495540842413902, 0.030399229377508163, 0.045425768941640854, 0.17708954215049744, 0.053732167929410934, 0.0952431783080101], [0.0699012503027916, 0.10470018535852432, 0.016687756404280663, 0.029580719769001007, 0.00978908222168684, 0.013353370130062103, 0.008608144707977772, 0.004483120050281286, 0.07382556796073914, 0.03300671651959419, 0.08670700341463089, 0.012381786480545998, 0.01303858868777752, 0.13712899386882782, 0.1390254646539688, 0.036867864429950714, 0.020674586296081543, 0.08232855051755905, 0.05773002281785011, 0.016972627490758896, 0.033208563923835754], [0.08778724819421768, 0.08878563344478607, 0.017457302659749985, 0.02913876436650753, 0.020318906754255295, 0.031099339947104454, 0.018068158999085426, 0.00868719257414341, 0.08494192361831665, 0.021805183961987495, 0.08076106756925583, 0.014189998619258404, 0.020158203318715096, 0.12068028002977371, 0.09256673604249954, 0.040209487080574036, 0.018692325800657272, 0.08004627376794815, 0.049742795526981354, 0.02087637037038803, 0.053986821323633194], [0.06031046807765961, 0.09909447282552719, 0.00847402960062027, 0.011080337688326836, 0.013301344588398933, 0.022700229659676552, 0.006318054161965847, 0.005272957030683756, 0.132672980427742, 0.005497368052601814, 0.1311715692281723, 0.008948225528001785, 0.018035106360912323, 0.21588969230651855, 0.008007639087736607, 0.022834576666355133, 0.009463073685765266, 0.1820622831583023, 0.005249828100204468, 0.016628211364150047, 0.016987493261694908], [0.07130985707044601, 0.035143278539180756, 0.022981997579336166, 0.017021076753735542, 0.010886843316257, 0.01569235324859619, 0.027793284505605698, 0.049903396517038345, 0.03909953683614731, 0.11691930145025253, 0.02339715138077736, 0.02704719454050064, 0.03050210513174534, 0.044347457587718964, 0.07597353309392929, 0.04918943718075752, 0.03649938106536865, 0.036545295268297195, 0.17264162003993988, 0.051492661237716675, 0.0456133671104908], [0.08696915209293365, 0.06134875863790512, 0.024603577330708504, 0.057909250259399414, 0.010572976432740688, 0.022778954356908798, 0.02095627784729004, 0.011508442461490631, 0.04291617125272751, 0.01828300952911377, 0.03379559889435768, 0.01994704082608223, 0.016189031302928925, 0.06221068650484085, 0.17780444025993347, 0.0439920574426651, 0.015109078958630562, 0.044391267001628876, 0.16424576938152313, 0.029456136748194695, 0.03501240164041519], [0.03749699518084526, 0.10357926785945892, 0.08939961344003677, 0.021403847262263298, 0.04771572723984718, 0.05265405401587486, 0.02028755098581314, 0.025716256350278854, 0.06242135912179947, 0.07678427547216415, 0.045253291726112366, 0.05646418035030365, 0.03581313416361809, 0.047288693487644196, 0.056129418313503265, 0.024530448019504547, 0.023732425644993782, 0.05200331658124924, 0.0502590611577034, 0.017038855701684952, 0.05402820557355881]], [[0.824591875076294, 0.010378125123679638, 0.005766293033957481, 0.0031191555317491293, 0.0010985815897583961, 0.0018605514196678996, 0.0011260169558227062, 0.0035712590906769037, 0.012701485306024551, 0.004141972400248051, 0.013351249508559704, 0.007402315735816956, 0.005852051544934511, 0.02653350494801998, 0.0027384613640606403, 0.006167699582874775, 0.009626627899706364, 0.02244802564382553, 0.006407605949789286, 0.007998066022992134, 0.02311905473470688], [0.5342287421226501, 0.059766337275505066, 0.17359216511249542, 0.052820876240730286, 0.009739653207361698, 0.001509720808826387, 0.0016350889345631003, 0.006041693966835737, 0.011859211139380932, 0.00514074694365263, 0.0024777406360954046, 0.0008836109773255885, 0.0009910829830914736, 0.0028172864113003016, 0.00020851301087532192, 0.00011927627201657742, 0.001832581590861082, 0.015394879505038261, 0.02386186644434929, 0.03440605849027634, 0.060672879219055176], [0.43565887212753296, 0.004346387926489115, 0.009181423112750053, 0.09367543458938599, 0.10163936764001846, 0.002897102851420641, 0.0012406912865117192, 0.005467795301228762, 0.012832500040531158, 0.009582635015249252, 0.004502550233155489, 0.00014691257092636079, 0.0008741862839087844, 0.004276565741747618, 0.0010142149403691292, 0.0006575576844625175, 0.0006849226192571223, 0.0021376488730311394, 0.028099212795495987, 0.12247386574745178, 0.15861015021800995], [0.24128791689872742, 0.008426440879702568, 0.022710202261805534, 0.0870392844080925, 0.19308768212795258, 0.04613365978002548, 0.06475487351417542, 0.013903074897825718, 0.025870976969599724, 0.018345199525356293, 0.023327719420194626, 0.004048673436045647, 0.0008496481459587812, 0.02807575650513172, 0.007218929007649422, 0.0029984810389578342, 0.001417152350768447, 0.0028879260644316673, 0.00321799423545599, 0.03861935809254646, 0.16577893495559692], [0.00785090308636427, 0.00042701110942289233, 0.0014662090688943863, 0.0030146921053528786, 0.0075623332522809505, 0.14632819592952728, 0.7818629741668701, 0.02783757448196411, 0.0020143731962889433, 0.010678506456315517, 0.0009126196382567286, 0.0010817262809723616, 1.693223930487875e-05, 0.0010847842786461115, 0.0006093656411394477, 0.0003090854734182358, 0.00032235580147244036, 0.00013885660155210644, 0.00019976920157205313, 9.351286280434579e-05, 0.0061880978755652905], [0.16262413561344147, 0.0016496271127834916, 0.0002509436453692615, 0.00026948729646392167, 0.0004625094879884273, 0.006544583477079868, 0.617263674736023, 0.17419125139713287, 0.020185235887765884, 0.00482341879978776, 0.0015973005210980773, 0.0004494992026593536, 0.00030021852580830455, 0.0035297705326229334, 0.00033152231480926275, 0.00017611525254324079, 0.0006248343270272017, 0.0017205984331667423, 0.0004598537052515894, 6.715628842357546e-05, 0.0024782794062048197], [0.08812239021062851, 0.0028914781287312508, 0.003049739869311452, 0.001821972313337028, 0.0007721683359704912, 0.013604387640953064, 0.019907161593437195, 0.3777065575122833, 0.32907193899154663, 0.12192022800445557, 0.012310164980590343, 0.00338891358114779, 0.004791345912963152, 0.007267968729138374, 0.004163831938058138, 0.00031472527189180255, 0.0004896281170658767, 0.0025229109451174736, 0.0022753726225346327, 0.00020399215281940997, 0.0034030647948384285], [0.2096620351076126, 0.0008519791881553829, 0.0028849116060882807, 0.0011395991314202547, 0.00010835667490027845, 0.0001193368952954188, 0.002380198333412409, 0.03322956711053848, 0.48105552792549133, 0.21503037214279175, 0.026912398636341095, 0.0036991701927036047, 0.002211362589150667, 0.004586950875818729, 0.004099123179912567, 0.0008423299877904356, 0.00023411134316120297, 0.0018054003594443202, 0.00405707536265254, 0.0017939654644578695, 0.0032962264958769083], [0.2741990089416504, 0.0007500270148739219, 0.0014753289287909865, 0.002431420609354973, 0.0004985568812116981, 0.00015857824473641813, 0.0004553062899503857, 0.011576257646083832, 0.14115497469902039, 0.3479718565940857, 0.15019315481185913, 0.019417326897382736, 0.005199265666306019, 0.006554771680384874, 0.003546549705788493, 0.007087639532983303, 0.005572670139372349, 0.003604214172810316, 0.0023389009293168783, 0.003316196147352457, 0.012497959658503532], [0.49091655015945435, 0.00046036395360715687, 0.0005627765785902739, 0.0004346384957898408, 0.000609277980402112, 0.0002156313566956669, 0.00025230663595721126, 0.0006504470948129892, 0.017480412498116493, 0.03227868303656578, 0.3029420077800751, 0.09368082880973816, 0.025512121617794037, 0.004392672795802355, 0.0024611633270978928, 0.004188916180282831, 0.002744299126788974, 0.0033462897408753633, 0.004595062229782343, 0.0032527472358196974, 0.009022790938615799], [0.35160282254219055, 0.0004347316571511328, 0.00032183018629439175, 0.0004962396342307329, 0.0006071068346500397, 0.0007938274065963924, 0.000395399663830176, 0.0007791697280481458, 0.002625096123665571, 0.017417116090655327, 0.09307222813367844, 0.2758517563343048, 0.1908961683511734, 0.015264643356204033, 0.0042451354674994946, 0.0037759088445454836, 0.006549804471433163, 0.006931070238351822, 0.0042079719714820385, 0.0032431334257125854, 0.020488880574703217], [0.1724594235420227, 0.0003381234419066459, 6.31168732070364e-05, 0.00032156467204913497, 0.00019888620590791106, 0.00039360602386295795, 0.0008347246330231428, 0.0022253210190683603, 0.0017046213615685701, 0.005114647559821606, 0.01825043372809887, 0.0230798851698637, 0.47928494215011597, 0.12520518898963928, 0.06166233494877815, 0.01342599093914032, 0.010136186145246029, 0.007544180378317833, 0.023892978206276894, 0.01454127486795187, 0.0393226183950901], [0.005295174662023783, 0.00010341241431888193, 0.0024903491139411926, 0.00014737799938302487, 8.76662215887336e-06, 9.98424511635676e-05, 0.0032574778888374567, 0.004056052304804325, 0.0008385201799683273, 0.005326251499354839, 0.00039400733658112586, 0.035067275166511536, 0.02050883322954178, 0.14147573709487915, 0.7096432447433472, 0.0245957113802433, 0.0035756099969148636, 0.0013694543158635497, 0.023379698395729065, 0.011690708808600903, 0.006676549557596445], [0.34304267168045044, 0.0013779227156192064, 0.0014090791810303926, 0.0011103611905127764, 0.0003990849363617599, 0.0003479531442280859, 0.000606179644819349, 0.005924126133322716, 0.020362699404358864, 0.012231512926518917, 0.0034658752847462893, 0.0032675284892320633, 0.015538561157882214, 0.13253262639045715, 0.1845209300518036, 0.13034911453723907, 0.039511654525995255, 0.02353549562394619, 0.009731843136250973, 0.013408783823251724, 0.05732597038149834], [0.3876371681690216, 0.005978464614599943, 0.0010932296281680465, 0.0008321318309754133, 0.00019786327902693301, 9.955615678336471e-05, 5.619421790470369e-05, 0.0007294949609786272, 0.024201275780797005, 0.009728603065013885, 0.012381301261484623, 0.002371134702116251, 0.0036362078972160816, 0.07470366358757019, 0.06034966930747032, 0.04924774914979935, 0.06284907460212708, 0.2141231894493103, 0.05020448938012123, 0.006751166190952063, 0.032828446477651596], [0.21614201366901398, 0.003699545981362462, 0.0005001634708605707, 0.00017988822946790606, 5.9175174101255834e-05, 0.00019172886095475405, 6.24866588623263e-05, 0.0002448833838570863, 0.0026065674610435963, 0.005371395032852888, 0.00847326498478651, 0.0016602491959929466, 0.0003446317568887025, 0.0029539307579398155, 0.00967614445835352, 0.046198856085538864, 0.3262399435043335, 0.30284690856933594, 0.03835894167423248, 0.010747483931481838, 0.02344176545739174], [0.15382273495197296, 0.012789121828973293, 0.012477774173021317, 0.0009519910090602934, 0.00012871234503109008, 0.00014867237769067287, 0.00010500192729523405, 0.0001343102048849687, 0.0009976743021979928, 0.0014147459296509624, 0.0045995344407856464, 0.00626183720305562, 0.0014053484192118049, 0.001355498912744224, 0.0023205482866615057, 0.015117920003831387, 0.03941601887345314, 0.34260275959968567, 0.23918382823467255, 0.12506553530693054, 0.039700452238321304], [0.2452927529811859, 0.01285393163561821, 0.01786554418504238, 0.004452993627637625, 0.00036269446718506515, 0.00021080598526168615, 0.0001811694382922724, 0.000958634540438652, 0.0019515713211148977, 0.0014067557640373707, 0.002372023183852434, 0.0029878795612603426, 0.002670346526429057, 0.004447196144610643, 0.0009742556139826775, 0.0024811672046780586, 0.04152453690767288, 0.1410057246685028, 0.13292008638381958, 0.26299887895584106, 0.12008100003004074], [0.734165608882904, 0.005185094196349382, 0.00832668598741293, 0.004811993800103664, 0.000989491119980812, 0.00011432968312874436, 8.783744124229997e-05, 0.0005007678992114961, 0.004428290296345949, 0.0007210040930658579, 0.002238929970189929, 0.000997008290141821, 0.002526929834857583, 0.018321149051189423, 0.001833712449297309, 0.0016850497340783477, 0.002461131429299712, 0.03905957192182541, 0.02647656761109829, 0.06348292529582977, 0.08158577978610992], [0.7497766613960266, 0.0006752347690053284, 0.0026697469875216484, 0.008469119668006897, 0.006518267560750246, 0.0008324513328261673, 0.0001240984711330384, 0.00012223976955283433, 0.0010849547106772661, 0.000419075891841203, 0.0007800217135809362, 0.00047515175538137555, 0.0004785924102179706, 0.007284590974450111, 0.0019418238662183285, 0.0014838407514616847, 0.0011195598635822535, 0.00512359756976366, 0.012501241639256477, 0.04284704104065895, 0.15527254343032837], [0.6737840175628662, 0.00733209028840065, 0.007548048626631498, 0.013744990341365337, 0.025146571919322014, 0.02017270214855671, 0.009425820782780647, 0.002742552198469639, 0.0055400654673576355, 0.004542164504528046, 0.0041089230217039585, 0.004000868648290634, 0.002552682999521494, 0.012812661938369274, 0.004299753811210394, 0.002165229758247733, 0.006613217294216156, 0.019909581169486046, 0.013220272958278656, 0.02610587701201439, 0.1342318207025528]], [[0.1206217110157013, 0.10020383447408676, 0.012022322975099087, 0.030213749036192894, 0.013953039422631264, 0.015771372243762016, 0.055137649178504944, 0.019703876227140427, 0.11314591765403748, 0.06722107529640198, 0.08899688720703125, 0.008677576668560505, 0.028129059821367264, 0.08713256567716599, 0.05610702186822891, 0.010120128281414509, 0.017477789893746376, 0.06473176926374435, 0.05803683027625084, 0.0061423140577971935, 0.0264535304158926], [0.048804961144924164, 0.08735387772321701, 0.015807632356882095, 0.014749597758054733, 0.027821287512779236, 0.026001615449786186, 0.028247462585568428, 0.01438464317470789, 0.11559440940618515, 0.03234037384390831, 0.09532520174980164, 0.017882388085126877, 0.03154110908508301, 0.13784536719322205, 0.02377001941204071, 0.013712644577026367, 0.010907694697380066, 0.1302947700023651, 0.038728758692741394, 0.022207772359251976, 0.06667838990688324], [0.08680471032857895, 0.06238354742527008, 0.002675961470231414, 0.020049424842000008, 0.019531015306711197, 0.012226982042193413, 0.014522102661430836, 0.02034916542470455, 0.07902932167053223, 0.01637105457484722, 0.056789472699165344, 0.0017624228494241834, 0.034692466259002686, 0.09625975787639618, 0.0187830850481987, 0.015925493091344833, 0.022673238068819046, 0.09980112314224243, 0.08114858716726303, 0.028186466544866562, 0.21003462374210358], [0.09620621800422668, 0.1292271614074707, 0.026815230026841164, 0.00026040576631203294, 0.003068069461733103, 0.005930709186941385, 0.026896506547927856, 0.009062599390745163, 0.13643912971019745, 0.03500790148973465, 0.09258591383695602, 0.016882289201021194, 0.005421781912446022, 0.16522622108459473, 0.015155909582972527, 0.0008747766842134297, 0.0030294866301119328, 0.1489996761083603, 0.016261955723166466, 0.014482593163847923, 0.05216553062200546], [0.06408239156007767, 0.11358887702226639, 0.01824030466377735, 0.010893845930695534, 0.012162250466644764, 0.02609376423060894, 0.023565560579299927, 0.015768053010106087, 0.11317313462495804, 0.032830413430929184, 0.08784045279026031, 0.012415573000907898, 0.015588412061333656, 0.13701492547988892, 0.019757749512791634, 0.011298407800495625, 0.01203884370625019, 0.12132718414068222, 0.04076404869556427, 0.03199649602174759, 0.07955926656723022], [0.050548210740089417, 0.08815270662307739, 0.01645188219845295, 0.010463939979672432, 0.01509522832930088, 0.009309434331953526, 0.020311571657657623, 0.020858893170952797, 0.1285690814256668, 0.02720128372311592, 0.08995655924081802, 0.016359545290470123, 0.019903218373656273, 0.1549459844827652, 0.019799554720520973, 0.00834362767636776, 0.012448186986148357, 0.14663714170455933, 0.05546009913086891, 0.023295335471630096, 0.06588850915431976], [0.055902332067489624, 0.07612700015306473, 0.04114079847931862, 0.011761997826397419, 0.023300325497984886, 0.04914635792374611, 0.005696823354810476, 0.048259131610393524, 0.07269378006458282, 0.14758050441741943, 0.05818750336766243, 0.043356627225875854, 0.029725482687354088, 0.08595936000347137, 0.010771305300295353, 0.022652650251984596, 0.028022026643157005, 0.06373629719018936, 0.0757666528224945, 0.02002170868217945, 0.030191412195563316], [0.04420500993728638, 0.12005475163459778, 0.011679868213832378, 0.010997746139764786, 0.016735689714550972, 0.02822616696357727, 0.012014778330922127, 0.00926196202635765, 0.14012260735034943, 0.04442429915070534, 0.11872884631156921, 0.008912740275263786, 0.025161730125546455, 0.15916897356510162, 0.016502294689416885, 0.007766965311020613, 0.01106175221502781, 0.1397905796766281, 0.023006660863757133, 0.012327875010669231, 0.0398486964404583], [0.042333438992500305, 0.09486407786607742, 0.024977797642350197, 0.014392061159014702, 0.0154527323320508, 0.01595616154372692, 0.018455788493156433, 0.01268860138952732, 0.11457551270723343, 0.04013467952609062, 0.09113427996635437, 0.025143157690763474, 0.018810560926795006, 0.13907194137573242, 0.04132743924856186, 0.009323657490313053, 0.007601797115057707, 0.1295144408941269, 0.0650312751531601, 0.018709758296608925, 0.060500916093587875], [0.10586843639612198, 0.050879333168268204, 0.021470362320542336, 0.03792819380760193, 0.020335035398602486, 0.009181284345686436, 0.005704538896679878, 0.010205645114183426, 0.05556420609354973, 0.012316824868321419, 0.05087639018893242, 0.016977988183498383, 0.039342038333415985, 0.05833785608410835, 0.1734665185213089, 0.01987079530954361, 0.00885931495577097, 0.06671197712421417, 0.11003779619932175, 0.02218669466674328, 0.1038786917924881], [0.05561986565589905, 0.10434337705373764, 0.01795530878007412, 0.011263422667980194, 0.01521860808134079, 0.015272482298314571, 0.016268473118543625, 0.011882266961038113, 0.1248282790184021, 0.034596990793943405, 0.09874102473258972, 0.018512660637497902, 0.018763059750199318, 0.1552867293357849, 0.025546124204993248, 0.008091866038739681, 0.007890031673014164, 0.14290201663970947, 0.04723912477493286, 0.013983174227178097, 0.055795274674892426], [0.1232927218079567, 0.056255027651786804, 0.0036514534149318933, 0.010536214336752892, 0.015074964612722397, 0.010314992628991604, 0.02250925824046135, 0.026028374210000038, 0.08565913140773773, 0.026939455419778824, 0.05506341531872749, 0.0020378294866532087, 0.028585009276866913, 0.1004117801785469, 0.03232723847031593, 0.01345077808946371, 0.02105392888188362, 0.09576553106307983, 0.0822746530175209, 0.026028824970126152, 0.16273945569992065], [0.05527621880173683, 0.09084658324718475, 0.03136404976248741, 0.015187874436378479, 0.010926044546067715, 0.02120436541736126, 0.01767757721245289, 0.02428947202861309, 0.09498001635074615, 0.04542525112628937, 0.07574553042650223, 0.02076127380132675, 0.014073171652853489, 0.10678257793188095, 0.03926214575767517, 0.013773993588984013, 0.014011547900736332, 0.09648912400007248, 0.08430812507867813, 0.036582101136446, 0.09103284031152725], [0.032869670540094376, 0.07824014127254486, 0.03587038815021515, 0.02175467275083065, 0.021499721333384514, 0.02551143988966942, 0.030564814805984497, 0.018414460122585297, 0.1000235378742218, 0.042881544679403305, 0.08296466618776321, 0.04314717650413513, 0.02165030501782894, 0.11446750164031982, 0.03673769161105156, 0.017165319994091988, 0.011677716858685017, 0.10678475350141525, 0.07332868129014969, 0.027451423928141594, 0.05699429288506508], [0.03628140315413475, 0.06456557661294937, 0.0195681881159544, 0.02990165539085865, 0.03753127530217171, 0.04754418507218361, 0.006727124564349651, 0.03022673726081848, 0.07284776121377945, 0.02506386861205101, 0.08222322165966034, 0.024598360061645508, 0.05249205231666565, 0.09050985425710678, 0.004730758722871542, 0.017507145181298256, 0.029954874888062477, 0.11068639159202576, 0.05087500438094139, 0.05496566370129585, 0.11119887232780457], [0.05806226655840874, 0.08583188056945801, 0.04365671053528786, 0.01118586864322424, 0.01775539293885231, 0.021095942705869675, 0.013313215225934982, 0.024447401985526085, 0.11529800295829773, 0.03020627610385418, 0.10554122179746628, 0.03535549342632294, 0.026374876499176025, 0.13489679992198944, 0.02044503390789032, 0.005617722403258085, 0.02058550901710987, 0.14348414540290833, 0.03002837486565113, 0.027505388483405113, 0.029312439262866974], [0.0734325498342514, 0.11892896890640259, 0.01662641391158104, 0.010191124863922596, 0.016912108287215233, 0.028186490759253502, 0.006277693901211023, 0.0073125846683979034, 0.11641893535852432, 0.03204721957445145, 0.11977250874042511, 0.011873111128807068, 0.022248011082410812, 0.15453337132930756, 0.02153320237994194, 0.0052131423726677895, 0.006129508838057518, 0.15741491317749023, 0.019499793648719788, 0.017462052404880524, 0.03798629343509674], [0.03896419331431389, 0.09250583499670029, 0.024382198229432106, 0.014913436956703663, 0.016526103019714355, 0.0185850840061903, 0.01977911964058876, 0.012289757840335369, 0.11160614341497421, 0.036511197686195374, 0.09181792289018631, 0.026775531470775604, 0.018398504704236984, 0.13642409443855286, 0.03182508796453476, 0.01109795831143856, 0.00838308222591877, 0.12906919419765472, 0.0759163349866867, 0.02570725791156292, 0.058522023260593414], [0.16460709273815155, 0.06613389402627945, 0.04485359787940979, 0.018946561962366104, 0.017893675714731216, 0.007633316330611706, 0.010642996057868004, 0.013074766844511032, 0.07528384774923325, 0.03935225307941437, 0.06533588469028473, 0.02560148946940899, 0.03536040708422661, 0.0736086443066597, 0.13070496916770935, 0.00523617397993803, 0.018915224820375443, 0.08946365863084793, 0.00701105548068881, 0.026309870183467865, 0.06403055042028427], [0.049865178763866425, 0.07783962786197662, 0.021848350763320923, 0.007989619858562946, 0.015621968545019627, 0.025226153433322906, 0.007335514295846224, 0.024594701826572418, 0.10467331111431122, 0.05302182585000992, 0.09280640631914139, 0.02401035837829113, 0.02423386462032795, 0.1175830215215683, 0.021278858184814453, 0.01216240506619215, 0.010773804038763046, 0.11210661381483078, 0.10588590055704117, 0.02240506000816822, 0.06873735785484314], [0.077460877597332, 0.075894296169281, 0.015500271692872047, 0.013499590568244457, 0.03357325866818428, 0.048971984535455704, 0.03974473848938942, 0.021034054458141327, 0.10877939313650131, 0.03625170513987541, 0.10544528067111969, 0.01650846377015114, 0.05550080165266991, 0.1253281980752945, 0.023061027750372887, 0.010396817699074745, 0.01876426674425602, 0.10691668838262558, 0.027020147070288658, 0.022012177854776382, 0.018336018547415733]], [[0.07136432826519012, 0.04645268991589546, 0.007975704967975616, 0.04459873586893082, 0.037817396223545074, 0.04743030294775963, 0.007794145494699478, 0.01343148946762085, 0.04977094382047653, 0.00771748274564743, 0.05068116635084152, 0.006499846465885639, 0.04152006655931473, 0.05565445497632027, 0.06691499799489975, 0.0260631050914526, 0.056613530963659286, 0.06803741306066513, 0.052949897944927216, 0.03566917032003403, 0.20504316687583923], [0.029441919177770615, 0.04797283560037613, 0.03058077208697796, 0.045990124344825745, 0.08027452975511551, 0.07492252439260483, 0.023989129811525345, 0.07926677912473679, 0.046526387333869934, 0.02320590801537037, 0.04973570257425308, 0.0325654037296772, 0.06629788130521774, 0.040572989732027054, 0.02319449745118618, 0.05262140929698944, 0.08263327181339264, 0.048431042581796646, 0.021407483145594597, 0.04468219727277756, 0.055687181651592255], [0.08793580532073975, 0.03484581783413887, 0.03451456502079964, 0.031806349754333496, 0.009869925677776337, 0.0376916229724884, 0.02228246070444584, 0.015604949556291103, 0.0513475276529789, 0.07840694487094879, 0.04107344523072243, 0.033387936651706696, 0.026462122797966003, 0.06254454702138901, 0.20594312250614166, 0.021520357578992844, 0.007637121714651585, 0.06196426972746849, 0.07745784521102905, 0.023338304832577705, 0.03436492383480072], [0.07432357221841812, 0.07828576862812042, 0.045823365449905396, 0.02040979452431202, 0.014654949307441711, 0.06817042827606201, 0.0054745967499911785, 0.012100559659302235, 0.07452566921710968, 0.04368552193045616, 0.06234518811106682, 0.03782501071691513, 0.025148149579763412, 0.0860397219657898, 0.05333293601870537, 0.0262489914894104, 0.012418674305081367, 0.09931562840938568, 0.062091466039419174, 0.02776998095214367, 0.0700099915266037], [0.050951287150382996, 0.029272964224219322, 0.10102313756942749, 0.0751509964466095, 0.01979915425181389, 0.021488076075911522, 0.034759823232889175, 0.026606110855937004, 0.024824829772114754, 0.0891035869717598, 0.0209323950111866, 0.12109886854887009, 0.04528965801000595, 0.038889285176992416, 0.04091887176036835, 0.013868488371372223, 0.01927011087536812, 0.025578713044524193, 0.12746086716651917, 0.023357858881354332, 0.0503549724817276], [0.059221651405096054, 0.05089530348777771, 0.036151401698589325, 0.07921754568815231, 0.041448671370744705, 0.03957778960466385, 0.019497238099575043, 0.036409568041563034, 0.05656310170888901, 0.04209357500076294, 0.04192826896905899, 0.030425477772951126, 0.05137079954147339, 0.055581048130989075, 0.07025839388370514, 0.03157580643892288, 0.036385081708431244, 0.06060733646154404, 0.06721211224794388, 0.03134459629654884, 0.06223530322313309], [0.11402862519025803, 0.07726778835058212, 0.05502331256866455, 0.0025542082730680704, 0.025977537035942078, 0.017208587378263474, 0.006876108702272177, 0.011025302112102509, 0.09366674721240997, 0.08966679126024246, 0.06148165836930275, 0.0492669902741909, 0.06976701319217682, 0.08638609945774078, 0.04104155674576759, 0.00917248148471117, 0.004987621679902077, 0.09394814819097519, 0.019099460914731026, 0.018344715237617493, 0.053209248930215836], [0.11262628436088562, 0.0619211420416832, 0.029992537572979927, 0.03953993692994118, 0.00994140561670065, 0.029867097735404968, 0.007525290362536907, 0.01176448818296194, 0.04971393942832947, 0.007740310858935118, 0.05251368135213852, 0.014346586540341377, 0.012851626612246037, 0.059668149799108505, 0.17012330889701843, 0.009429527446627617, 0.046268001198768616, 0.08365349471569061, 0.08231602609157562, 0.0224225502461195, 0.08577467501163483], [0.03365499526262283, 0.06853443384170532, 0.02578706480562687, 0.0217179786413908, 0.061938099563121796, 0.06778709590435028, 0.02794303558766842, 0.06279008090496063, 0.06268402934074402, 0.02897842414677143, 0.07006771117448807, 0.023701410740613937, 0.05168639495968819, 0.05836031213402748, 0.022502528503537178, 0.057198259979486465, 0.06666082888841629, 0.06898036599159241, 0.01847611740231514, 0.04913812503218651, 0.05141270160675049], [0.18613213300704956, 0.028704911470413208, 0.02273627370595932, 0.017212143167853355, 0.00139211758505553, 0.0025754065718501806, 0.006077505182474852, 0.0008409422007389367, 0.03385254368185997, 0.01143618393689394, 0.025750532746315002, 0.012345969676971436, 0.006349184550344944, 0.051087792962789536, 0.31298670172691345, 0.005265724845230579, 0.0053221057169139385, 0.057420514523983, 0.13447622954845428, 0.01077103242278099, 0.06726401299238205], [0.03131914138793945, 0.059816207736730576, 0.036662690341472626, 0.02291877195239067, 0.07781992107629776, 0.0851006954908371, 0.027061011642217636, 0.06759469956159592, 0.056790538132190704, 0.023075252771377563, 0.06260000914335251, 0.03866754099726677, 0.06540868431329727, 0.05148332566022873, 0.01711909845471382, 0.05689084529876709, 0.06190403550863266, 0.05759420245885849, 0.012886886484920979, 0.0429040901362896, 0.04438242316246033], [0.07596128433942795, 0.02434828132390976, 0.06039196625351906, 0.01719709485769272, 0.006418516393750906, 0.028934013098478317, 0.016435956582427025, 0.013317693024873734, 0.043673720210790634, 0.13271144032478333, 0.032879993319511414, 0.06246066465973854, 0.022369645535945892, 0.05715825781226158, 0.1571832299232483, 0.020412825047969818, 0.004920340143144131, 0.053931426256895065, 0.1199357733130455, 0.02052156627178192, 0.02883632481098175], [0.04771614819765091, 0.013108793646097183, 0.08805740624666214, 0.041961636394262314, 0.006224421318620443, 0.007154969032853842, 0.027979295700788498, 0.009477605111896992, 0.012894229032099247, 0.10184264928102493, 0.010775717906653881, 0.09920179098844528, 0.02707258239388466, 0.02193896472454071, 0.0744720995426178, 0.009504579938948154, 0.010450785048305988, 0.014899739995598793, 0.3258891999721527, 0.01709078438580036, 0.032286692410707474], [0.02503512054681778, 0.054021190851926804, 0.02441943623125553, 0.0294423196464777, 0.0724744126200676, 0.08078070729970932, 0.03665122017264366, 0.07260319590568542, 0.05006519705057144, 0.02806563302874565, 0.05868116766214371, 0.022011470049619675, 0.05409740284085274, 0.045429348945617676, 0.02306806854903698, 0.07259245216846466, 0.09110401570796967, 0.056700415909290314, 0.017329618334770203, 0.04829316958785057, 0.037134334444999695], [0.06321167945861816, 0.06295450776815414, 0.006425525061786175, 0.029126696288585663, 0.010635016486048698, 0.02908995747566223, 0.023481251671910286, 0.004736600909382105, 0.06864089518785477, 0.002014528727158904, 0.056288521736860275, 0.005744876805692911, 0.02259368821978569, 0.09585913270711899, 0.11586499214172363, 0.019021162763237953, 0.02414536662399769, 0.1049032211303711, 0.13201193511486053, 0.03212771937251091, 0.09112268686294556], [0.04505379870533943, 0.04737413302063942, 0.0038708767388015985, 0.03173224255442619, 0.010351292788982391, 0.03146771714091301, 0.004316568374633789, 0.012593894265592098, 0.05093620717525482, 0.0046242098324000835, 0.044708002358675, 0.0029888576827943325, 0.01359246764332056, 0.08203200250864029, 0.26247361302375793, 0.03748021274805069, 0.0691145732998848, 0.09232223033905029, 0.057858657091856, 0.035224854946136475, 0.059883568435907364], [0.054795555770397186, 0.04525313526391983, 0.00442086486145854, 0.031402941793203354, 0.008225946687161922, 0.038087330758571625, 0.0019902477506548166, 0.015267642214894295, 0.046083953231573105, 0.0021989010274410248, 0.055875468999147415, 0.0030093619134277105, 0.009035436436533928, 0.05190340429544449, 0.28655579686164856, 0.029046401381492615, 0.06760898232460022, 0.08436889201402664, 0.026028677821159363, 0.05188857391476631, 0.08695250749588013], [0.02091931365430355, 0.06215471401810646, 0.02780771441757679, 0.02151716686785221, 0.07371342182159424, 0.08991685509681702, 0.04022220894694328, 0.07201657444238663, 0.05244709178805351, 0.025402486324310303, 0.06380695104598999, 0.02646555006504059, 0.0561477355659008, 0.0477474071085453, 0.017093058675527573, 0.06004871055483818, 0.07470565289258957, 0.05560780316591263, 0.02097938396036625, 0.05586659908294678, 0.035413630306720734], [0.07405354082584381, 0.01907321624457836, 0.007545121014118195, 0.021400514990091324, 0.0005937646492384374, 0.0029875575564801693, 0.005854269955307245, 0.0008400522638112307, 0.015968140214681625, 0.008493966422975063, 0.018058329820632935, 0.00456229830160737, 0.0029680051375180483, 0.028475511819124222, 0.17402279376983643, 0.007157959509640932, 0.010934815742075443, 0.03238421678543091, 0.47539493441581726, 0.016296206042170525, 0.07293476909399033], [0.01554630696773529, 0.005570105277001858, 0.0025106777902692556, 0.005692359525710344, 0.001292161294259131, 0.0035269209183752537, 0.0023313788697123528, 0.001303690136410296, 0.006760015152394772, 0.004742241930216551, 0.006256745662540197, 0.0018952639074996114, 0.0024353964254260063, 0.007390395272523165, 0.03434150293469429, 0.0019678985700011253, 0.0024484924506396055, 0.010368069633841515, 0.8575159907341003, 0.010438570752739906, 0.01566583290696144], [0.03723204880952835, 0.02740122564136982, 0.003495944896712899, 0.12059129774570465, 0.03130923584103584, 0.038299575448036194, 0.008560125716030598, 0.012583589181303978, 0.024012653157114983, 0.009348949417471886, 0.02271893620491028, 0.0034591411240398884, 0.03170766681432724, 0.025250360369682312, 0.053752388805150986, 0.00617325259372592, 0.02609507367014885, 0.030716897919774055, 0.32863813638687134, 0.038421522825956345, 0.12023195624351501]], [[0.3215864300727844, 0.04970009997487068, 0.020879525691270828, 0.03258807212114334, 0.03464796766638756, 0.028684888035058975, 0.036941513419151306, 0.014722663909196854, 0.050640642642974854, 0.012870389968156815, 0.042984239757061005, 0.013758820481598377, 0.01621299609541893, 0.05866601690649986, 0.01985696330666542, 0.012453963980078697, 0.02005736529827118, 0.04269838705658913, 0.024853987619280815, 0.015153441578149796, 0.13004156947135925], [0.10148986428976059, 0.14256443083286285, 0.010514598339796066, 0.0333063006401062, 0.02878592163324356, 0.04135691002011299, 0.008100834675133228, 0.009032691828906536, 0.09283679723739624, 0.008236905559897423, 0.10681907087564468, 0.005762653425335884, 0.014631643891334534, 0.1720704436302185, 0.013927839696407318, 0.01399302389472723, 0.007998855784535408, 0.10478581488132477, 0.009407875128090382, 0.0136788384988904, 0.060698725283145905], [0.08329980820417404, 0.20096880197525024, 0.007909059524536133, 0.06254946440458298, 0.042913276702165604, 0.06793378293514252, 0.029629714787006378, 0.02146180532872677, 0.0621526725590229, 0.023019760847091675, 0.07474450767040253, 0.0050346567295491695, 0.01904839463531971, 0.10335222631692886, 0.019119976088404655, 0.017679361626505852, 0.012273509055376053, 0.07723485678434372, 0.008602617308497429, 0.02068302035331726, 0.04038882255554199], [0.18969528377056122, 0.17639069259166718, 0.008554399944841862, 0.006121242884546518, 0.040388621389865875, 0.010875821113586426, 0.0021518415305763483, 0.006692855153232813, 0.06429976969957352, 0.019989442080259323, 0.054093532264232635, 0.002270167926326394, 0.011575736105442047, 0.12131059169769287, 0.0106838159263134, 0.004760768264532089, 0.005190289579331875, 0.0855991318821907, 0.02748352475464344, 0.010924228467047215, 0.14094826579093933], [0.12993280589580536, 0.34713804721832275, 0.015569424256682396, 0.03732873126864433, 0.010817711241543293, 0.016833722591400146, 0.004953939467668533, 0.006328781135380268, 0.07408256828784943, 0.005601260345429182, 0.08157258480787277, 0.0037691036704927683, 0.002452091546729207, 0.09290861338376999, 0.002884241519495845, 0.004498449619859457, 0.006721340585500002, 0.08506525307893753, 0.008485855534672737, 0.0045311423018574715, 0.058524489402770996], [0.05576230585575104, 0.23422123491764069, 0.013066221959888935, 0.04121798276901245, 0.027493489906191826, 0.014388502575457096, 0.0025513856671750546, 0.011558535508811474, 0.11509399861097336, 0.021895645186305046, 0.11263550817966461, 0.003331106388941407, 0.006294118240475655, 0.13878010213375092, 0.003366319928318262, 0.00364987226203084, 0.00602298928424716, 0.1021604984998703, 0.014983140863478184, 0.011700255796313286, 0.05982678383588791], [0.12553299963474274, 0.1710658073425293, 0.011673349887132645, 0.030011216178536415, 0.027501432225108147, 0.05670095235109329, 0.001165751600638032, 0.02310314029455185, 0.13484154641628265, 0.028183991089463234, 0.0827970802783966, 0.003410954028367996, 0.006090712267905474, 0.08600092679262161, 0.014238489791750908, 0.0032410798594355583, 0.011776343919336796, 0.07757967710494995, 0.02432022988796234, 0.0069331517443060875, 0.07383131980895996], [0.04351041093468666, 0.10784022510051727, 0.015356454066932201, 0.029989082366228104, 0.1479724943637848, 0.07193948328495026, 0.19767460227012634, 0.02020050212740898, 0.06621977686882019, 0.013349460437893867, 0.06295496225357056, 0.0060496339574456215, 0.016012009233236313, 0.08434095233678818, 0.015371117740869522, 0.008004666306078434, 0.004525800701230764, 0.03175933659076691, 0.008951379917562008, 0.015905726701021194, 0.03207188844680786], [0.10032330453395844, 0.09407354891300201, 0.008986697532236576, 0.035353511571884155, 0.035829152911901474, 0.0631738230586052, 0.01667378656566143, 0.020226599648594856, 0.14188912510871887, 0.009508807212114334, 0.12008257955312729, 0.007820266298949718, 0.017923075705766678, 0.1714625060558319, 0.008833351545035839, 0.014280674047768116, 0.007046847138553858, 0.06494584679603577, 0.00644833967089653, 0.009218410588800907, 0.045899707823991776], [0.16771458089351654, 0.05024378001689911, 0.04368433356285095, 0.019707132130861282, 0.021392790600657463, 0.029046662151813507, 0.11357621103525162, 0.045472413301467896, 0.08532854169607162, 0.028296852484345436, 0.037217095494270325, 0.04484016075730324, 0.011700364761054516, 0.04601772129535675, 0.005760927684605122, 0.006460696458816528, 0.011618241667747498, 0.033156801015138626, 0.05307512730360031, 0.005484531633555889, 0.1402050107717514], [0.0915384441614151, 0.08429230004549026, 0.00749936094507575, 0.027080170810222626, 0.02496977336704731, 0.04647359251976013, 0.014398137107491493, 0.018839538097381592, 0.1684698462486267, 0.009473304264247417, 0.14988362789154053, 0.008507149294018745, 0.020550783723592758, 0.19134736061096191, 0.007132220081984997, 0.011452040635049343, 0.00614768685773015, 0.06583349406719208, 0.0066312565468251705, 0.0064263008534908295, 0.03305366262793541], [0.05883405730128288, 0.09170231223106384, 0.005285256542265415, 0.060335926711559296, 0.028179848566651344, 0.05384751781821251, 0.04145016521215439, 0.03872624412178993, 0.13886874914169312, 0.02412526309490204, 0.17605453729629517, 0.012147105298936367, 0.025813709944486618, 0.12228342145681381, 0.011398250237107277, 0.012790372595191002, 0.008505160920321941, 0.051385458558797836, 0.004955804441124201, 0.012053302489221096, 0.021257618442177773], [0.08362957090139389, 0.08975328505039215, 0.02183155156672001, 0.028453297913074493, 0.013284782879054546, 0.016575267538428307, 0.032757144421339035, 0.023854590952396393, 0.12145280838012695, 0.037860628217458725, 0.16689608991146088, 0.06151748448610306, 0.02534446120262146, 0.11425349116325378, 0.012364418245851994, 0.012080881744623184, 0.0114124845713377, 0.05009929835796356, 0.019564511254429817, 0.006226790603250265, 0.05078716203570366], [0.06065816804766655, 0.06258224695920944, 0.007042984012514353, 0.023677267134189606, 0.013721502386033535, 0.03133435547351837, 0.00814020074903965, 0.015662087127566338, 0.13809965550899506, 0.01315106451511383, 0.18114802241325378, 0.014180794358253479, 0.02825886569917202, 0.22144579887390137, 0.0153923025354743, 0.02391195483505726, 0.009852278046309948, 0.0799834206700325, 0.012800676748156548, 0.009939039126038551, 0.029017312452197075], [0.0686904788017273, 0.053444765508174896, 0.02384953573346138, 0.017564794048666954, 0.013323931954801083, 0.016236623749136925, 0.013563775457441807, 0.01547941192984581, 0.09199213981628418, 0.035207703709602356, 0.12109500914812088, 0.08514822274446487, 0.06531825661659241, 0.17230959236621857, 0.029061108827590942, 0.02019019052386284, 0.015505732968449593, 0.058269113302230835, 0.016716713085770607, 0.01344506535679102, 0.053587764501571655], [0.08568394184112549, 0.043852631002664566, 0.007899414747953415, 0.013133234344422817, 0.015351458452641964, 0.013245372101664543, 0.010226444341242313, 0.006797189358621836, 0.06974314898252487, 0.01958348974585533, 0.09757736325263977, 0.02154206670820713, 0.07619573175907135, 0.24430778622627258, 0.07287716865539551, 0.013858267106115818, 0.012346651405096054, 0.0803881511092186, 0.026135006919503212, 0.00997101329267025, 0.059284474700689316], [0.047810979187488556, 0.05716864392161369, 0.009053142741322517, 0.008527993224561214, 0.0630919486284256, 0.022210853174328804, 0.03991984575986862, 0.018941419199109077, 0.04950801283121109, 0.010432939976453781, 0.0677613914012909, 0.011642677709460258, 0.08465462177991867, 0.22475598752498627, 0.059236425906419754, 0.03253447264432907, 0.013722269795835018, 0.0689057931303978, 0.04406985640525818, 0.022044843062758446, 0.04400588944554329], [0.05628303810954094, 0.05715709179639816, 0.006301778368651867, 0.01551822666078806, 0.015287071466445923, 0.02820131741464138, 0.008538194000720978, 0.009425237774848938, 0.07738208025693893, 0.009112951345741749, 0.10659974813461304, 0.013312888331711292, 0.04728512838482857, 0.27544528245925903, 0.0321740061044693, 0.041081566363573074, 0.014924985356628895, 0.11026803404092789, 0.01660463586449623, 0.015365876257419586, 0.04373086243867874], [0.02372439019382, 0.020647844299674034, 0.060994140803813934, 0.013160880655050278, 0.011426938697695732, 0.010211605578660965, 0.012837789952754974, 0.0038644173182547092, 0.024053530767560005, 0.18154026567935944, 0.017709117382764816, 0.14853356778621674, 0.062029194086790085, 0.03055400587618351, 0.19779269397258759, 0.006293666083365679, 0.011048072017729282, 0.0352199487388134, 0.07888194173574448, 0.00944039598107338, 0.04003559798002243], [0.0633457601070404, 0.026471493765711784, 0.02712872065603733, 0.02226255275309086, 0.02086031809449196, 0.01778346300125122, 0.01105070486664772, 0.007496936246752739, 0.0327959842979908, 0.03429239243268967, 0.030872242525219917, 0.0862782821059227, 0.08984240889549255, 0.07381357997655869, 0.17213399708271027, 0.013378008268773556, 0.02458302676677704, 0.0751929059624672, 0.08114627003669739, 0.008776363916695118, 0.08049461245536804], [0.07000726461410522, 0.06851302087306976, 0.01906023547053337, 0.03234059736132622, 0.07762211561203003, 0.02772517129778862, 0.040763117372989655, 0.016506029292941093, 0.06113744527101517, 0.0213287565857172, 0.05993326008319855, 0.014525623060762882, 0.04468197375535965, 0.08987697958946228, 0.03298775479197502, 0.0238939356058836, 0.02431175298988819, 0.08828315138816833, 0.04197145625948906, 0.036613110452890396, 0.10791724920272827]], [[0.2240891456604004, 0.01682806760072708, 0.008950416930019855, 0.011846388690173626, 0.008484822697937489, 0.007282239384949207, 0.00883314199745655, 0.014448835514485836, 0.029586967080831528, 0.022370830178260803, 0.024942420423030853, 0.00901793222874403, 0.013246984221041203, 0.026299456134438515, 0.023583928123116493, 0.032126035541296005, 0.04690846800804138, 0.027869772166013718, 0.058660998940467834, 0.037400342524051666, 0.3472229540348053], [0.05424671992659569, 0.06258197128772736, 0.044284045696258545, 0.042230989784002304, 0.031149985268712044, 0.03399253264069557, 0.0210272204130888, 0.03667858615517616, 0.081917904317379, 0.08972421288490295, 0.06484922766685486, 0.04170019179582596, 0.025721291080117226, 0.06856221705675125, 0.08674421161413193, 0.013777571730315685, 0.015419761650264263, 0.059446003288030624, 0.03399886190891266, 0.03355409577488899, 0.05839235708117485], [0.10215161740779877, 0.07951031625270844, 0.010759653523564339, 0.03707032650709152, 0.027801677584648132, 0.018535342067480087, 0.017876164987683296, 0.01777692325413227, 0.12144572287797928, 0.038872119039297104, 0.09934239834547043, 0.010738873854279518, 0.024660401046276093, 0.10389988869428635, 0.04216917231678963, 0.013222788460552692, 0.01763896271586418, 0.0907825231552124, 0.027685614302754402, 0.010918066836893559, 0.08714146912097931], [0.08669255673885345, 0.06489534676074982, 0.03768223151564598, 0.006904967129230499, 0.05047434940934181, 0.05683979019522667, 0.013322006911039352, 0.013823620975017548, 0.08685927093029022, 0.08396957814693451, 0.08658231049776077, 0.03318331390619278, 0.050114016979932785, 0.09193677455186844, 0.02546318620443344, 0.01786445453763008, 0.009571670554578304, 0.07379080355167389, 0.038799162954092026, 0.011146592907607555, 0.060083918273448944], [0.10332111269235611, 0.04306946322321892, 0.09852032363414764, 0.0156602393835783, 0.034835334867239, 0.07668520510196686, 0.010275042615830898, 0.007104036398231983, 0.055242836475372314, 0.07845062762498856, 0.04811201989650726, 0.11228834837675095, 0.04950592294335365, 0.05540916323661804, 0.026034332811832428, 0.009424473159015179, 0.0069915540516376495, 0.048364974558353424, 0.021300196647644043, 0.01254621148109436, 0.08685855567455292], [0.0721617117524147, 0.050101764500141144, 0.03244645893573761, 0.0273821409791708, 0.06796462833881378, 0.03864883631467819, 0.013469796627759933, 0.01613544300198555, 0.07731994241476059, 0.033652279525995255, 0.06583040952682495, 0.03822881355881691, 0.10703924298286438, 0.08080004900693893, 0.04423181340098381, 0.019587112590670586, 0.014054622501134872, 0.0723789855837822, 0.02080579847097397, 0.017173485830426216, 0.09058672934770584], [0.06728194653987885, 0.06884559988975525, 0.028414415195584297, 0.012542654760181904, 0.034754592925310135, 0.04180777817964554, 0.0025489714462310076, 0.005911799613386393, 0.13824249804019928, 0.03061286173760891, 0.09644181281328201, 0.02869594655930996, 0.04477992653846741, 0.1174222081899643, 0.05423527583479881, 0.008295194245874882, 0.0028055061120539904, 0.09011814743280411, 0.06320030242204666, 0.019341664388775826, 0.043700918555259705], [0.05814823880791664, 0.058754291385412216, 0.022529490292072296, 0.010314573533833027, 0.01335479412227869, 0.0175289586186409, 0.01076008751988411, 0.002950696274638176, 0.0759003758430481, 0.13554547727108002, 0.048815060406923294, 0.020458368584513664, 0.01979842409491539, 0.07235712558031082, 0.02952147275209427, 0.019829533994197845, 0.003396585350856185, 0.05649137869477272, 0.07722695171833038, 0.02108127623796463, 0.22523680329322815], [0.051862750202417374, 0.0708823949098587, 0.049175575375556946, 0.02913809008896351, 0.024804208427667618, 0.030029457062482834, 0.024244816973805428, 0.025203747674822807, 0.09336446225643158, 0.07029081135988235, 0.06890404969453812, 0.04709579795598984, 0.02509700320661068, 0.09213608503341675, 0.08607863634824753, 0.017507564276456833, 0.012087894603610039, 0.07795152813196182, 0.038628075271844864, 0.028827309608459473, 0.036689694970846176], [0.20341438055038452, 0.07199858129024506, 0.04929913580417633, 0.04922102391719818, 0.011585179716348648, 0.011821726337075233, 0.012367895804345608, 0.02466902881860733, 0.07000302523374557, 0.015490896068513393, 0.04696806147694588, 0.0557456910610199, 0.009840717539191246, 0.06950754672288895, 0.06222381815314293, 0.0071985553950071335, 0.018300848081707954, 0.06225993484258652, 0.050041746348142624, 0.023882245644927025, 0.07415994256734848], [0.05224534869194031, 0.0598023384809494, 0.04445108398795128, 0.02980216220021248, 0.03400387242436409, 0.038783010095357895, 0.024333655834197998, 0.028593657538294792, 0.08506935834884644, 0.06444784998893738, 0.06668267399072647, 0.04667186737060547, 0.03459135442972183, 0.08151568472385406, 0.06848320364952087, 0.022174391895532608, 0.015785543248057365, 0.07284607738256454, 0.04065484181046486, 0.03665946424007416, 0.052402567118406296], [0.08281800150871277, 0.06591460108757019, 0.013126994483172894, 0.03035372495651245, 0.03468389809131622, 0.025308657437562943, 0.02069239690899849, 0.017727630212903023, 0.11671639233827591, 0.03918381780385971, 0.09625109285116196, 0.013801852241158485, 0.043818678706884384, 0.10773245245218277, 0.038023654371500015, 0.014860923402011395, 0.016901519149541855, 0.09694759547710419, 0.028445808216929436, 0.011034452356398106, 0.0856558158993721], [0.07848773151636124, 0.026673754677176476, 0.13711871206760406, 0.013055934570729733, 0.01803986355662346, 0.04939502105116844, 0.010325495153665543, 0.009284058585762978, 0.042572639882564545, 0.09050006419420242, 0.033926043659448624, 0.19966067373752594, 0.04535088315606117, 0.04615728184580803, 0.02437257207930088, 0.010384935885667801, 0.009406337514519691, 0.044450316578149796, 0.032801344990730286, 0.019464772194623947, 0.05857159197330475], [0.051571059972047806, 0.06576943397521973, 0.05149758607149124, 0.02420721761882305, 0.020216241478919983, 0.022527076303958893, 0.01913505606353283, 0.02403523400425911, 0.09582636505365372, 0.06256744265556335, 0.06924322992563248, 0.05585090443491936, 0.029179934412240982, 0.09649334102869034, 0.08942762762308121, 0.01761075109243393, 0.01426168717443943, 0.0856756642460823, 0.042957376688718796, 0.029431186616420746, 0.0325155183672905], [0.05263958126306534, 0.0373227559030056, 0.04808056727051735, 0.007724684663116932, 0.0267846267670393, 0.041854191571474075, 0.022918706759810448, 0.008978861384093761, 0.09049209207296371, 0.06246023252606392, 0.081550732254982, 0.06442856043577194, 0.035993609577417374, 0.09992548078298569, 0.0041934046894311905, 0.022354500368237495, 0.01271240133792162, 0.09110192209482193, 0.059306491166353226, 0.03264062479138374, 0.09653600305318832], [0.044505294412374496, 0.04441896826028824, 0.038872163742780685, 0.02212744578719139, 0.037750206887722015, 0.04415154084563255, 0.019157247617840767, 0.027173761278390884, 0.07616422325372696, 0.02772144414484501, 0.06826851516962051, 0.03211264684796333, 0.04813320189714432, 0.09177622944116592, 0.05709795281291008, 0.03134436905384064, 0.02940146066248417, 0.08237703889608383, 0.04219583049416542, 0.06148412451148033, 0.0737662985920906], [0.06961943954229355, 0.0525585375726223, 0.030496273189783096, 0.013204124756157398, 0.013650250621140003, 0.023035893216729164, 0.020850127562880516, 0.005253004375845194, 0.06712155044078827, 0.06413735449314117, 0.06399006396532059, 0.029841765761375427, 0.021269068121910095, 0.08290942013263702, 0.050978098064661026, 0.04469574615359306, 0.007494573947042227, 0.07938545197248459, 0.07727576047182083, 0.026837727054953575, 0.1553957760334015], [0.037804022431373596, 0.06522290408611298, 0.045570258051157, 0.031824495643377304, 0.02298477292060852, 0.02722138725221157, 0.02747654728591442, 0.029254300519824028, 0.08831378072500229, 0.05260182544589043, 0.06783227622509003, 0.05018002912402153, 0.029570210725069046, 0.09082856774330139, 0.09573496133089066, 0.022601494565606117, 0.018222751095891, 0.08461575210094452, 0.04365316778421402, 0.03809661418199539, 0.030389897525310516], [0.08460349589586258, 0.045786891132593155, 0.0939105972647667, 0.016492528840899467, 0.017378779128193855, 0.024852249771356583, 0.02662992663681507, 0.051173847168684006, 0.0612441748380661, 0.19216491281986237, 0.03747449815273285, 0.08980007469654083, 0.03092137537896633, 0.06278742849826813, 0.03722443804144859, 0.010472826659679413, 0.011051599867641926, 0.05616400018334389, 0.00917173083871603, 0.016073133796453476, 0.024621492251753807], [0.05642472207546234, 0.04994659125804901, 0.05793771147727966, 0.028094008564949036, 0.023136701434850693, 0.02462591975927353, 0.027484918013215065, 0.05237102881073952, 0.0708349421620369, 0.05508781224489212, 0.06758680939674377, 0.07887972891330719, 0.040724657475948334, 0.08458646386861801, 0.0347282774746418, 0.03553491830825806, 0.02312503196299076, 0.07471330463886261, 0.031181255355477333, 0.010084965266287327, 0.07291028648614883], [0.06081097200512886, 0.039894457906484604, 0.017758194357156754, 0.023003993555903435, 0.016926296055316925, 0.013437412679195404, 0.012134261429309845, 0.013589221052825451, 0.04278786480426788, 0.055029116570949554, 0.042959630489349365, 0.022457214072346687, 0.021921679377555847, 0.04076110199093819, 0.09008553624153137, 0.02056487463414669, 0.017495017498731613, 0.04475269094109535, 0.0542704276740551, 0.02704656682908535, 0.32231342792510986]], [[0.05795469880104065, 0.22051401436328888, 0.007615240756422281, 0.006052723154425621, 0.005891550797969103, 0.0073463632725179195, 0.013246666640043259, 0.0064206733368337154, 0.13894669711589813, 0.0035732213873416185, 0.11357016861438751, 0.004580515902489424, 0.008103877305984497, 0.20503097772598267, 0.005064166150987148, 0.005491632502526045, 0.010470693930983543, 0.12566286325454712, 0.0021986975334584713, 0.01395463664084673, 0.03831003978848457], [0.10383211076259613, 0.10355318337678909, 0.05055214837193489, 0.029438534751534462, 0.016774537041783333, 0.011922018602490425, 0.019071074202656746, 0.011828606016933918, 0.11293590813875198, 0.015363411046564579, 0.08720213919878006, 0.046484481543302536, 0.019692597910761833, 0.11557076871395111, 0.03511799871921539, 0.012320583686232567, 0.010458658449351788, 0.09739198535680771, 0.020089581608772278, 0.01898713782429695, 0.06141255423426628], [0.0068819476291537285, 0.013265003450214863, 0.47173431515693665, 0.005576121620833874, 0.007874108850955963, 0.007734653074294329, 0.00327052129432559, 0.004526645410805941, 0.017547734081745148, 0.01424257829785347, 0.017747679725289345, 0.35839635133743286, 0.01300897728651762, 0.01975199207663536, 0.006143674720078707, 0.0018165326910093427, 0.0016755755059421062, 0.019725216552615166, 0.0012127368245273829, 0.002868728246539831, 0.004998901393264532], [0.016193602234125137, 0.08107925951480865, 0.0708981603384018, 0.16190575063228607, 0.022728899493813515, 0.02394125796854496, 0.008474868722259998, 0.029583996161818504, 0.07152560353279114, 0.015887295827269554, 0.08123352378606796, 0.04016917943954468, 0.02414957992732525, 0.11694900691509247, 0.03239452466368675, 0.029583169147372246, 0.03758400306105614, 0.09088505804538727, 0.004478976596146822, 0.016557274386286736, 0.02379700168967247], [0.007710750214755535, 0.015153968706727028, 0.00925679225474596, 0.003915854729712009, 0.32479697465896606, 0.006784479599446058, 0.0011110565392300487, 0.012244208715856075, 0.02143581211566925, 0.003248762572184205, 0.02425380051136017, 0.008495506830513477, 0.4742138087749481, 0.025166071951389313, 0.0016658181557431817, 0.0035808286629617214, 0.006468114908784628, 0.023523984476923943, 0.0042753503657877445, 0.006853937171399593, 0.01584404893219471], [0.010159612633287907, 0.02949926070868969, 0.03605743125081062, 0.024203402921557426, 0.03222864493727684, 0.42305266857147217, 0.006572225131094456, 0.03606772422790527, 0.05789349600672722, 0.014181398786604404, 0.050218962132930756, 0.030107909813523293, 0.04895390197634697, 0.07295279949903488, 0.007845519110560417, 0.007183309178799391, 0.014938940294086933, 0.05731387063860893, 0.00452607125043869, 0.025323523208498955, 0.01071933377534151], [0.05335835739970207, 0.10174118727445602, 0.03881663456559181, 0.01380295492708683, 0.02277565188705921, 0.01985442452132702, 0.022859930992126465, 0.015181176364421844, 0.11227519810199738, 0.012722067534923553, 0.09047303348779678, 0.02447601966559887, 0.024752167984843254, 0.14014652371406555, 0.01683775521814823, 0.009357857517898083, 0.015066387131810188, 0.125937819480896, 0.005185189191251993, 0.039714351296424866, 0.0946652814745903], [0.02169773355126381, 0.08212178945541382, 0.02214476652443409, 0.0182470865547657, 0.042700786143541336, 0.022835269570350647, 0.007360378745943308, 0.12695452570915222, 0.0907215029001236, 0.010114964097738266, 0.09579146653413773, 0.018640147522091866, 0.04954183101654053, 0.11337866634130478, 0.018963301554322243, 0.011918407864868641, 0.050045061856508255, 0.10354515165090561, 0.010429547168314457, 0.043098919093608856, 0.03974872827529907], [0.1697925329208374, 0.09316033124923706, 0.024500373750925064, 0.013960304670035839, 0.022739777341485023, 0.008309335447847843, 0.011755089275538921, 0.00991631019860506, 0.11288418620824814, 0.013244681060314178, 0.08304257690906525, 0.02758251689374447, 0.03097211942076683, 0.11161527037620544, 0.01783706434071064, 0.009782269597053528, 0.009335470385849476, 0.10131324082612991, 0.029353339225053787, 0.018014047294855118, 0.08088921755552292], [0.02541664056479931, 0.1424037665128708, 0.06390266865491867, 0.007710717152804136, 0.025368768721818924, 0.01179974339902401, 0.009859289042651653, 0.011231295764446259, 0.1085694432258606, 0.08418206125497818, 0.08784148842096329, 0.042552120983600616, 0.042852047830820084, 0.11940130591392517, 0.004356548190116882, 0.0023343481589108706, 0.0038396059535443783, 0.1154809221625328, 0.007875082083046436, 0.014140954241156578, 0.068881094455719], [0.1295579969882965, 0.09454631060361862, 0.025779258459806442, 0.01629849709570408, 0.02526872232556343, 0.011970442719757557, 0.013338303193449974, 0.012943986803293228, 0.11249267309904099, 0.01314203254878521, 0.08917085081338882, 0.026797113940119743, 0.03604568541049957, 0.11544951796531677, 0.016519349068403244, 0.012269509956240654, 0.01141113881021738, 0.1087273508310318, 0.022762712091207504, 0.023079533129930496, 0.08242904394865036], [0.003951940685510635, 0.007276218384504318, 0.4382776618003845, 0.004219065420329571, 0.006259220652282238, 0.005376759450882673, 0.002568906405940652, 0.0029995159711688757, 0.008969075046479702, 0.012984681874513626, 0.009341675788164139, 0.45539581775665283, 0.012551647610962391, 0.00965298805385828, 0.00284789502620697, 0.0009384171571582556, 0.0006847356562502682, 0.0095522440969944, 0.0012210144195705652, 0.0016172543400898576, 0.0033132091630250216], [0.007010412868112326, 0.015037288889288902, 0.011980445124208927, 0.0026905289851129055, 0.2556619346141815, 0.005129744298756123, 0.0014537324896082282, 0.009899966418743134, 0.021980401128530502, 0.004559636116027832, 0.025358479470014572, 0.013745403848588467, 0.5238515734672546, 0.023794488981366158, 0.0013769656652584672, 0.004153407644480467, 0.005696352571249008, 0.025646766647696495, 0.0041484828107059, 0.008026382885873318, 0.028797654435038567], [0.18521685898303986, 0.09908084571361542, 0.019803939387202263, 0.014353001490235329, 0.021643875166773796, 0.0066138324327766895, 0.009129060432314873, 0.007303369697183371, 0.11486589163541794, 0.010556343011558056, 0.0791720375418663, 0.019306721165776253, 0.028242629021406174, 0.11999964714050293, 0.013928340747952461, 0.010938789695501328, 0.008360166102647781, 0.1080302819609642, 0.021288610994815826, 0.015693938359618187, 0.08647169172763824], [0.05169141665101051, 0.16684883832931519, 0.029563425108790398, 0.02257312834262848, 0.005698458757251501, 0.013262375257909298, 0.019413968548178673, 0.009761032648384571, 0.11668255180120468, 0.015678703784942627, 0.07942688465118408, 0.019376374781131744, 0.00801343098282814, 0.15272967517375946, 0.06325263530015945, 0.01825915090739727, 0.010398433543741703, 0.12123408168554306, 0.004097775090485811, 0.013892746530473232, 0.05814487487077713], [0.018918752670288086, 0.07300815731287003, 0.022139307111501694, 0.028086934238672256, 0.015123007819056511, 0.027505716308951378, 0.003933194559067488, 0.039420418441295624, 0.09767928719520569, 0.010738154873251915, 0.08884607255458832, 0.017746781930327415, 0.018301155418157578, 0.12020368129014969, 0.016309967264533043, 0.09399236738681793, 0.10098869353532791, 0.11622799187898636, 0.003882078221067786, 0.048034265637397766, 0.03891406208276749], [0.026118800044059753, 0.1227574497461319, 0.015125608071684837, 0.015330873429775238, 0.010925653390586376, 0.019047444686293602, 0.0032581023406237364, 0.0495811402797699, 0.11473919451236725, 0.004095846321433783, 0.10601134598255157, 0.008698918856680393, 0.00969950295984745, 0.15324807167053223, 0.014274668879806995, 0.02448849193751812, 0.09656398743391037, 0.1327836960554123, 0.0030718473717570305, 0.029231267049908638, 0.040948137640953064], [0.17911624908447266, 0.10025127977132797, 0.023939218372106552, 0.014755942858755589, 0.017005492001771927, 0.006901273503899574, 0.013466253876686096, 0.007885043509304523, 0.11253447085618973, 0.012574605643749237, 0.08135927468538284, 0.023931486532092094, 0.023399122059345245, 0.11754708737134933, 0.014674230478703976, 0.0109491515904665, 0.008779047057032585, 0.10593395680189133, 0.01902519352734089, 0.01698504202067852, 0.08898656070232391], [0.03041335940361023, 0.0974450632929802, 0.0073218452744185925, 0.012208475731313229, 0.01954849809408188, 0.010701395571231842, 0.0030502809677273035, 0.02380724437534809, 0.13877460360527039, 0.014953156933188438, 0.10656046867370605, 0.008186752907931805, 0.041089992970228195, 0.1232435554265976, 0.006402413826435804, 0.007267109118402004, 0.017082741484045982, 0.1427895873785019, 0.07070484757423401, 0.0448024682700634, 0.0736461952328682], [0.022946730256080627, 0.05191626772284508, 0.020886104553937912, 0.015520501881837845, 0.01782868430018425, 0.020582541823387146, 0.018722886219620705, 0.04965587332844734, 0.06343533098697662, 0.018664449453353882, 0.057959675788879395, 0.015969932079315186, 0.02764122001826763, 0.06699752807617188, 0.021348819136619568, 0.027448061853647232, 0.023962324485182762, 0.08018702268600464, 0.013594952411949635, 0.28878387808799744, 0.07594726979732513], [0.054321084171533585, 0.11523707211017609, 0.009941541589796543, 0.009731520898640156, 0.034313179552555084, 0.032119669020175934, 0.013167166151106358, 0.01705022156238556, 0.11535610258579254, 0.011375663802027702, 0.09892503172159195, 0.008530187420547009, 0.027121001854538918, 0.14016205072402954, 0.022231977432966232, 0.011387345381081104, 0.014367334544658661, 0.12394276261329651, 0.01729319617152214, 0.030650809407234192, 0.09277499467134476]], [[0.016187060624361038, 9.92255809251219e-05, 5.323754157871008e-05, 2.7834674256155267e-05, 3.464419478405034e-06, 5.057319754087075e-07, 2.5159482675007894e-07, 2.4051726086327108e-06, 6.624281377298757e-05, 0.0004800687020178884, 0.00039062355062924325, 7.8125114669092e-05, 7.131518941605464e-06, 2.251638943562284e-05, 9.072962825484865e-07, 6.35778451396618e-06, 2.29887300520204e-05, 8.358748164027929e-05, 0.0006255955086089671, 0.0005060468101873994, 0.9813357591629028], [0.9985576272010803, 0.00034667010186240077, 7.036913718394544e-09, 2.0187673754890056e-10, 2.3554044999152257e-12, 1.0764551028330516e-08, 6.026826667948626e-05, 7.306045063160127e-06, 6.035237731794041e-08, 5.141223979876486e-08, 1.6589259743682305e-08, 2.4695966160948046e-08, 5.06945845302198e-08, 8.757350400401265e-08, 2.669402199284576e-10, 4.336797143622562e-09, 0.0002603881002869457, 0.0007624615682289004, 4.091969458386302e-06, 4.50408599306229e-10, 9.540540304442402e-07], [0.003960008267313242, 0.9700398445129395, 0.008541317656636238, 1.0187221732849139e-06, 2.121930560948504e-13, 7.508065349992599e-12, 3.3534257681822055e-07, 0.00014222114987205714, 2.9568547688541003e-05, 8.892594394183106e-08, 1.3823082678499077e-09, 1.8975560012179926e-10, 1.11992770612801e-08, 3.1155346391642524e-07, 3.093801950737607e-11, 1.2078710156637057e-13, 1.8111427024791737e-08, 0.001848116284236312, 0.015432793647050858, 4.03692456529825e-06, 1.0717190690456846e-07], [1.4601386055801413e-06, 8.502155651513021e-06, 0.9910094738006592, 0.0010744432220235467, 1.0745449863236445e-08, 2.992160149208403e-14, 3.0319815668561345e-12, 1.939691252061948e-08, 1.5903897292446345e-05, 1.243771293957252e-06, 9.757263885745715e-10, 8.493260261754898e-11, 6.160229548690666e-10, 6.755666959179507e-07, 5.994971186140674e-10, 2.0593655903830554e-13, 2.0228543232830853e-12, 1.5661399288546818e-08, 0.0008684592321515083, 0.006979933939874172, 3.9853646740084514e-05], [1.9306251042294775e-10, 2.4123859173838004e-14, 2.1554889428898605e-07, 0.9986586570739746, 0.0011264004278928041, 1.7862479819385178e-14, 1.462776434507546e-17, 5.193872360176381e-17, 7.256873053862467e-12, 1.4592746566677306e-08, 4.787264473726793e-10, 5.740046025298762e-12, 1.4836270173894926e-15, 4.575761210906526e-12, 2.3699131546095487e-10, 5.622485441635072e-13, 1.0114133887799412e-16, 2.4839527051852056e-16, 6.044165602042684e-12, 8.582639566157013e-06, 0.00020611166837625206], [1.5519967178079241e-07, 1.5627672495920758e-13, 1.3711644666902778e-12, 8.078561950242147e-05, 0.99983811378479, 1.2760656318278052e-05, 3.611507204404063e-10, 7.019085160001753e-16, 5.3863227456550904e-15, 3.314434282586376e-10, 2.4127009723429182e-08, 1.7733835733224623e-08, 1.4665874851355065e-12, 8.299692530466807e-12, 1.7632666160505295e-10, 1.8072560115101055e-09, 6.924650436390678e-11, 1.4426930787167502e-13, 7.340738531359109e-14, 1.3513497612582803e-11, 6.816183304181322e-05], [3.1618146749679e-05, 1.6200202068716862e-08, 1.3115175612199437e-11, 8.92304985455894e-09, 0.0002638238947838545, 0.9985036849975586, 0.0011987534817308187, 7.439325599989388e-08, 1.615119149533939e-10, 1.8524083378324008e-09, 1.2958351192082773e-07, 2.899269873068988e-07, 4.7245666934259134e-08, 7.432191750922357e-08, 6.27644602957389e-10, 1.3610300664268493e-09, 6.125156204461746e-08, 1.3961452438593369e-08, 1.2535360527365924e-09, 1.1942516745487575e-13, 1.2970648413102026e-06], [8.430578901652552e-09, 1.0011102169471542e-08, 1.9709503126796868e-12, 1.7472361854868265e-14, 4.418539322539059e-15, 9.396245559400995e-08, 0.9996298551559448, 0.00037001032615080476, 1.0605699651833334e-09, 7.842690933528365e-14, 2.513059510109942e-15, 2.8277976748397604e-13, 2.575480939626118e-09, 1.2036281304972363e-08, 3.0905389358792945e-11, 5.077532361577597e-13, 1.2686690240015785e-11, 7.273781021943648e-10, 8.202983431404576e-11, 1.174952223663146e-16, 6.498621085704315e-14], [1.2282625050374918e-07, 5.0685745378586944e-08, 1.9950959995185258e-08, 3.2725062243388336e-11, 5.640366455382376e-16, 7.529362604317275e-14, 1.1637544048426207e-05, 0.9967851638793945, 0.003201959654688835, 4.424001431857505e-08, 2.291321971568949e-13, 3.257586393560011e-14, 3.9209022140163086e-10, 1.0109055210705264e-06, 1.1678696232308994e-08, 1.3781648565414084e-11, 7.75013386800083e-11, 1.7323903422905573e-09, 1.298721663545166e-08, 1.2404365729024036e-11, 7.252534944129918e-12], [2.5627733180044743e-07, 6.929904983188351e-10, 1.6850515649480258e-08, 3.4996034958822975e-09, 1.631500652892609e-13, 5.026240569447815e-16, 3.186786598496916e-11, 6.367929927364457e-06, 0.9970661997795105, 0.0029268437065184116, 1.013591202081443e-07, 4.470753194735222e-13, 2.0916252128737323e-14, 2.05503702943588e-08, 6.808201646890666e-08, 1.1206599026536423e-07, 2.8638086346788327e-10, 2.688494982194811e-09, 3.8000664837056775e-09, 3.820952443334136e-10, 9.218428798085654e-10], [1.1047819725718e-06, 2.645863736439047e-11, 2.5734676611932628e-09, 1.4545905457907793e-07, 4.111103457660192e-09, 5.2434456516287087e-14, 3.720282816619541e-13, 1.7641740845952825e-10, 5.869177039130591e-05, 0.9973273277282715, 0.0026109125465154648, 1.880035114254497e-07, 5.330962667832173e-12, 3.033948786645979e-11, 5.136875369515792e-09, 1.1484037258924218e-06, 5.722082363490699e-08, 3.252466740377713e-09, 9.543536627631966e-09, 5.114058065913696e-09, 3.6084057342122833e-07], [2.4992261387524195e-05, 4.145415399836594e-10, 4.4481598959755786e-11, 1.2765278611936992e-08, 5.938172620290061e-09, 9.422521790591887e-11, 4.553631777204359e-13, 5.248978470840174e-14, 1.1101437991101193e-08, 0.0064124660566449165, 0.9915270209312439, 0.002033105120062828, 1.8562499093377482e-08, 9.676043299933212e-11, 2.519504917197768e-11, 9.249764842955699e-10, 1.0232588110170582e-08, 3.155000456445123e-07, 9.163903769149329e-08, 4.3351890965936946e-09, 1.830728137974802e-06], [5.6384210438409355e-06, 4.747912618618955e-10, 2.5394750191587434e-10, 1.076858269222214e-09, 5.914072942307669e-13, 4.7002540748408705e-11, 6.824721343612339e-10, 6.363371635176307e-12, 1.2430955787304243e-12, 1.347636002790864e-09, 1.4107960851106327e-05, 0.9993721842765808, 0.0006075309356674552, 6.843863786798465e-08, 1.3765313888747244e-10, 1.173609820437349e-13, 1.7552256870168037e-10, 5.3970950375514803e-08, 3.239288730583212e-07, 2.451243874546094e-09, 7.982294647490562e-08], [3.355146327521652e-05, 4.5949569482672814e-08, 2.0896048624763353e-07, 7.703577864504041e-08, 1.0080610651774791e-10, 2.6222077287307854e-10, 1.7828352838478168e-06, 3.217985067749396e-06, 7.599766149724019e-09, 3.4137145887847e-10, 8.732519152232499e-10, 2.8477499654400162e-05, 0.9812233448028564, 0.01869666390120983, 3.2092320907395333e-06, 6.997870598962619e-12, 1.7901799487241021e-10, 2.996446823999577e-08, 7.210973308247048e-06, 8.158655759871181e-07, 1.2445829042917467e-06], [2.8682675790037138e-08, 8.845529170242727e-11, 9.719784088701999e-08, 1.7591519352322393e-08, 1.0802478356275458e-10, 8.100170382531469e-13, 2.55839655016743e-10, 1.9556911468043836e-07, 7.533488997069071e-07, 3.1490445806525713e-09, 2.0548306112200265e-11, 2.484484840081791e-09, 0.0010060222120955586, 0.9988880753517151, 0.00010422274499433115, 1.8070659635327502e-08, 1.0153560284220653e-11, 1.5408688214257893e-10, 1.2487300971031345e-08, 4.4085211925448675e-07, 1.3414977217962587e-07], [5.939860409087672e-11, 4.984651251737629e-16, 2.948967025434568e-13, 1.7568394516942476e-09, 5.46091227793255e-10, 2.1536444570519238e-14, 6.641791168427152e-15, 7.219965727708888e-13, 4.296504041434446e-09, 1.2560554374374533e-08, 4.764768874593317e-12, 1.0251971797534121e-13, 2.526922464676784e-12, 4.1705703779371106e-07, 0.9989921450614929, 0.0010073347948491573, 9.110400767120552e-10, 2.73827401725546e-13, 1.401801071054809e-11, 4.5658775371659743e-11, 7.70180506037832e-08], [1.4554272809164104e-07, 4.400171893514937e-11, 7.872936108382564e-14, 3.582631587228935e-12, 1.5469679703894457e-10, 4.480906312664956e-09, 8.169525611556594e-10, 1.0491063313217142e-12, 4.5519371605351466e-10, 1.0467464051089337e-07, 1.0972649455709416e-08, 4.771861031316327e-11, 1.6716607210889162e-13, 4.281478505063774e-10, 8.944426372181624e-05, 0.9992961883544922, 0.0006137083983048797, 3.3854482239803474e-07, 6.101699701055452e-10, 8.556156542820215e-13, 4.526729568965493e-08], [0.00022287751198746264, 6.479770945588825e-06, 2.332904147639425e-10, 1.4168135414882599e-11, 4.539096529199149e-12, 1.2947632299642464e-08, 1.7839408883446595e-07, 3.710827556346885e-08, 7.803341084411386e-09, 3.232432277400221e-07, 2.2196739735136362e-07, 5.2050136645220846e-08, 6.653942397072399e-10, 2.791238351562697e-09, 2.6325102098212483e-08, 0.0002448958402965218, 0.9849515557289124, 0.014563651755452156, 9.54964980337536e-06, 7.134868251768012e-10, 2.8163569254502363e-07], [5.7583325542509556e-05, 0.0017176137771457434, 1.807971239031758e-05, 2.8582178290825766e-10, 3.663964680158775e-15, 2.26204341716163e-12, 2.2065931304382502e-09, 1.8448332639309228e-07, 1.971797018995858e-06, 3.5261331277069985e-07, 2.3836354046125052e-07, 9.202828010757003e-08, 4.5942247228758504e-10, 1.2448355235505915e-08, 4.269302619763771e-11, 1.015460782127775e-08, 0.0007955108303576708, 0.9970632195472717, 0.000342801766237244, 2.329297331016278e-06, 1.901332602471939e-08], [5.22251408785479e-10, 1.0355909907389105e-08, 8.373733726330101e-05, 1.665055116006897e-08, 1.30666717045017e-16, 7.743093603736549e-20, 1.4143330519196312e-15, 3.2255437470291026e-12, 8.34400992744122e-10, 1.2810605354296456e-10, 1.1490439676131725e-12, 2.4501661116671514e-11, 4.7711130185534856e-11, 1.7204261626435624e-10, 4.5312992941193286e-11, 4.5320962016896435e-14, 6.61130785534203e-12, 5.13763836806902e-07, 0.9998449087142944, 7.070608990034088e-05, 1.4452729146796628e-07], [1.4219016293282039e-06, 5.262879909651019e-08, 0.0001890256826300174, 0.0012749254237860441, 2.135056320184958e-06, 4.832253954617505e-12, 1.0616126033813345e-12, 2.9767830561633346e-11, 1.3135253595919494e-07, 2.1049763745395467e-06, 3.8582476236115326e-07, 5.686504778168455e-08, 1.7571640142932665e-08, 3.231304788187117e-07, 1.8407205004677962e-07, 1.2621977241167315e-08, 7.655791556260283e-09, 7.794810699124355e-07, 0.00014791966532357037, 0.9905405044555664, 0.00784005131572485]]], [[[0.018539980053901672, 0.054722610861063004, 0.10879044234752655, 0.030907699838280678, 0.024152643978595734, 0.016310464590787888, 0.03960768133401871, 0.01870381273329258, 0.08735841512680054, 0.1411931812763214, 0.04322070628404617, 0.06417035311460495, 0.01839534565806389, 0.07043758779764175, 0.09693184494972229, 0.00960900355130434, 0.01222209446132183, 0.07853413373231888, 0.043226975947618484, 0.006699033547192812, 0.01626606658101082], [0.03311849758028984, 0.07112932205200195, 0.026141991838812828, 0.034663088619709015, 0.015715694054961205, 0.016458678990602493, 0.0295808594673872, 0.017503486946225166, 0.14414620399475098, 0.05884191021323204, 0.1034267395734787, 0.02132345736026764, 0.014355677179992199, 0.1751221865415573, 0.027909651398658752, 0.006720427889376879, 0.010724321939051151, 0.13638438284397125, 0.012524244375526905, 0.0049009667709469795, 0.03930821269750595], [0.06663481146097183, 0.1048707440495491, 0.0318460650742054, 0.029096750542521477, 0.021957535296678543, 0.016075532883405685, 0.011573109775781631, 0.015921136364340782, 0.12549467384815216, 0.03388809785246849, 0.0919261947274208, 0.022322461009025574, 0.037465013563632965, 0.14383822679519653, 0.006094588432461023, 0.003864777972921729, 0.013266402296721935, 0.1020854189991951, 0.009865853935480118, 0.0029785912483930588, 0.10893411189317703], [0.01201881654560566, 0.23438383638858795, 0.0056055630557239056, 0.04499296098947525, 0.033445000648498535, 0.015064934268593788, 0.00888508278876543, 0.03918709605932236, 0.1759192794561386, 0.01198409404605627, 0.10744673013687134, 0.002497589448466897, 0.013758047483861446, 0.12804360687732697, 0.0017794024897739291, 0.007733338512480259, 0.00670919194817543, 0.08270832896232605, 0.0061835236847400665, 0.002641586586833, 0.059011898934841156], [0.06376199424266815, 0.16918101906776428, 0.02372206188738346, 0.05662025511264801, 0.047954365611076355, 0.04983273893594742, 0.014547714963555336, 0.03575270250439644, 0.11168929189443588, 0.031016843393445015, 0.07011062651872635, 0.005993191618472338, 0.02412266470491886, 0.07175187766551971, 0.004245016258209944, 0.007404825650155544, 0.012170727364718914, 0.074297234416008, 0.015379652380943298, 0.0031029293313622475, 0.10734211653470993], [0.04075859114527702, 0.16435404121875763, 0.0036553554236888885, 0.08254477381706238, 0.05959270894527435, 0.02883884310722351, 0.0036032116040587425, 0.04098692908883095, 0.14083270728588104, 0.003892523469403386, 0.08656200766563416, 0.0010912412544712424, 0.034302785992622375, 0.11732709407806396, 0.004887661896646023, 0.006384002510458231, 0.020075013861060143, 0.11075657606124878, 0.003982733003795147, 0.003791579743847251, 0.04177972674369812], [0.05146082118153572, 0.13443174958229065, 0.010773920454084873, 0.005865085404366255, 0.007670691702514887, 0.008886637166142464, 0.0013824360212311149, 0.011805064976215363, 0.18585652112960815, 0.017676323652267456, 0.12195945531129837, 0.003608006052672863, 0.003953805658966303, 0.15579922497272491, 0.0005550780333578587, 0.0018434651428833604, 0.006886533927172422, 0.17590837180614471, 0.004595485050231218, 0.013985605910420418, 0.0750957801938057], [0.015424261800944805, 0.1693456619977951, 0.011440477333962917, 0.021876109763979912, 0.020792251452803612, 0.04240524768829346, 0.0035276401322335005, 0.012543984688818455, 0.12881501019001007, 0.005608434788882732, 0.1547233909368515, 0.0033027592580765486, 0.011467737145721912, 0.08467133343219757, 0.0026086445432156324, 0.002756043802946806, 0.00783462543040514, 0.08335399627685547, 0.007575490046292543, 0.03910912945866585, 0.17081767320632935], [0.022688543424010277, 0.08091704547405243, 0.028049375861883163, 0.04979468882083893, 0.03975936770439148, 0.03286726027727127, 0.08582042157649994, 0.024666832759976387, 0.10786723345518112, 0.08231794834136963, 0.07949519902467728, 0.020694226026535034, 0.026670465245842934, 0.10281844437122345, 0.03796090930700302, 0.005714044906198978, 0.009742735885083675, 0.10066108405590057, 0.02481076866388321, 0.006415253039449453, 0.03026815690100193], [0.0769263207912445, 0.037794895470142365, 0.1807871311903, 0.01180329080671072, 0.057978495955467224, 0.04067905247211456, 0.04463047534227371, 0.013131625019013882, 0.03400300815701485, 0.07170222699642181, 0.0246885959059, 0.10913686454296112, 0.06017911061644554, 0.03014722466468811, 0.00942408386617899, 0.004953137598931789, 0.005535787902772427, 0.01864464581012726, 0.04458526521921158, 0.005652270745486021, 0.11761665344238281], [0.0196683332324028, 0.09048887342214584, 0.017158441245555878, 0.060125675052404404, 0.03644183278083801, 0.03485319763422012, 0.06828591227531433, 0.05184229835867882, 0.14153899252414703, 0.07634718716144562, 0.08443886041641235, 0.012499134056270123, 0.03169674798846245, 0.10653344541788101, 0.025413330644369125, 0.009367605671286583, 0.010862056165933609, 0.06673946231603622, 0.013782402500510216, 0.006822213064879179, 0.03509390726685524], [0.046494513750076294, 0.07907383143901825, 0.041195180267095566, 0.023514309898018837, 0.017165401950478554, 0.013565318658947945, 0.027873912826180458, 0.023498734459280968, 0.13397616147994995, 0.12163251638412476, 0.07422706484794617, 0.03428708761930466, 0.04614681378006935, 0.08977972716093063, 0.006666907574981451, 0.003762153908610344, 0.009864985011518002, 0.044152431190013885, 0.0129305524751544, 0.005369130056351423, 0.1448233276605606], [0.043057478964328766, 0.08474621921777725, 0.02167290449142456, 0.01200407836586237, 0.024334756657481194, 0.028277335688471794, 0.011205442249774933, 0.04740779474377632, 0.1676269769668579, 0.08529914170503616, 0.1132422387599945, 0.022747235372662544, 0.03530813753604889, 0.07562202215194702, 0.0025508131366223097, 0.005156962666660547, 0.012401354499161243, 0.04834790527820587, 0.010654479265213013, 0.00526431854814291, 0.14307236671447754], [0.022484835237264633, 0.05266338959336281, 0.0262177474796772, 0.024966184049844742, 0.016405129805207253, 0.012320817448198795, 0.03819236159324646, 0.02458324283361435, 0.12386177480220795, 0.0995195209980011, 0.10394880175590515, 0.04088613763451576, 0.02942243404686451, 0.12566018104553223, 0.04810985550284386, 0.008406782522797585, 0.020723024383187294, 0.13323642313480377, 0.022866861894726753, 0.007535981945693493, 0.01798848994076252], [0.031053751707077026, 0.06748301535844803, 0.026150856167078018, 0.005205737892538309, 0.015101401135325432, 0.005961076822131872, 0.005090699065476656, 0.04032235965132713, 0.1668456792831421, 0.026126816868782043, 0.13877218961715698, 0.06343583762645721, 0.035803891718387604, 0.1880909949541092, 0.0011859068181365728, 0.008985603228211403, 0.031157255172729492, 0.10753364861011505, 0.007991633377969265, 0.006348182912915945, 0.02135351486504078], [0.024805840104818344, 0.09556473791599274, 0.003402729518711567, 0.01829049549996853, 0.0118722440674901, 0.018959054723381996, 0.0017572678625583649, 0.018072737380862236, 0.1628803163766861, 0.004937186371535063, 0.15580131113529205, 0.003840027144178748, 0.028630180284380913, 0.2357279509305954, 0.0017907258588820696, 0.002250965917482972, 0.013193877413868904, 0.1532863974571228, 0.0037472189869731665, 0.005266629159450531, 0.035922106355428696], [0.017164215445518494, 0.09378594905138016, 0.007108323276042938, 0.01382483821362257, 0.009383916854858398, 0.012232368811964989, 0.0017030840972438455, 0.008237982168793678, 0.11413421481847763, 0.007983334362506866, 0.15170995891094208, 0.009090207517147064, 0.05849327892065048, 0.15750810503959656, 0.010869361460208893, 0.007704272400587797, 0.0076863765716552734, 0.08670767396688461, 0.017292650416493416, 0.05567312240600586, 0.15170671045780182], [0.015184630639851093, 0.040583495050668716, 0.018793271854519844, 0.03380740061402321, 0.015728814527392387, 0.00961369276046753, 0.021851981058716774, 0.015786543488502502, 0.10413222014904022, 0.07837081700563431, 0.07633581012487411, 0.03279610723257065, 0.033501673489809036, 0.17402364313602448, 0.09561632573604584, 0.010440479964017868, 0.016307253390550613, 0.15242309868335724, 0.03197365999221802, 0.007618604693561792, 0.015110393054783344], [0.08701428771018982, 0.05516337975859642, 0.0064000519923865795, 0.008296037092804909, 0.013359276577830315, 0.01071612723171711, 0.006106256972998381, 0.02392391860485077, 0.08296786993741989, 0.010947398841381073, 0.06351614743471146, 0.008849824778735638, 0.036508429795503616, 0.14663024246692657, 0.01220700889825821, 0.03257516026496887, 0.041381314396858215, 0.11070992052555084, 0.021315960213541985, 0.08844275772571564, 0.1329687088727951], [0.03192373737692833, 0.06467010825872421, 0.0066263130865991116, 0.018270211294293404, 0.0161969643086195, 0.03681810572743416, 0.01103146281093359, 0.10508828610181808, 0.0686076432466507, 0.00680899154394865, 0.07389732450246811, 0.008339458145201206, 0.0705006942152977, 0.0846133604645729, 0.011705444194376469, 0.016000917181372643, 0.16139431297779083, 0.08558183908462524, 0.01867743954062462, 0.0330977588891983, 0.07014959305524826], [0.02444082498550415, 0.16700556874275208, 0.004786230623722076, 0.017454158514738083, 0.01282211672514677, 0.011626295745372772, 0.002769816666841507, 0.014416620135307312, 0.12103914469480515, 0.008338037878274918, 0.11421511322259903, 0.003199427854269743, 0.01945231482386589, 0.12140048295259476, 0.003237965051084757, 0.008107692003250122, 0.022484783083200455, 0.12707701325416565, 0.01137525774538517, 0.010711049661040306, 0.1740400642156601]], [[0.10648218542337418, 0.056606475263834, 0.013763803988695145, 0.007257004268467426, 0.013895993120968342, 0.0021715874318033457, 0.004924520384520292, 0.0023779748007655144, 0.0317746177315712, 0.012828304432332516, 0.02821250818669796, 0.010405871085822582, 0.020655520260334015, 0.024976596236228943, 0.01028517261147499, 0.0010098607745021582, 0.008764155209064484, 0.03299097716808319, 0.02007005363702774, 0.004487696569412947, 0.5860592126846313], [0.02431117184460163, 0.08469776809215546, 0.03791497275233269, 0.01763479970395565, 0.02578238770365715, 0.0080558555200696, 0.014989973977208138, 0.019015628844499588, 0.05622771009802818, 0.03905428573489189, 0.050410088151693344, 0.036454927176237106, 0.038034919649362564, 0.04536066949367523, 0.03803428262472153, 0.004086170345544815, 0.018174201250076294, 0.0488988533616066, 0.027639757841825485, 0.010094149969518185, 0.3551272749900818], [0.031232647597789764, 0.07097221165895462, 0.02061156928539276, 0.02418721839785576, 0.041838351637125015, 0.017277631908655167, 0.018268179148435593, 0.02333127334713936, 0.10854543000459671, 0.025908000767230988, 0.08595602959394455, 0.03904883563518524, 0.073872409760952, 0.09206076711416245, 0.06192360445857048, 0.00536031648516655, 0.019500158727169037, 0.07883693277835846, 0.05970018357038498, 0.043692346662282944, 0.057875894010066986], [0.020697280764579773, 0.09701429307460785, 0.02544192224740982, 0.015497949905693531, 0.06766463816165924, 0.017074864357709885, 0.01100708544254303, 0.02009914070367813, 0.10948410630226135, 0.035027358680963516, 0.0782671719789505, 0.03541850298643112, 0.10498335212469101, 0.11546280235052109, 0.031006431207060814, 0.009804937988519669, 0.018918177112936974, 0.10994571447372437, 0.02158905193209648, 0.020433813333511353, 0.0351613350212574], [0.008204972371459007, 0.0629642903804779, 0.009174611419439316, 0.002802938921377063, 0.01984197087585926, 0.01051053311675787, 0.011388221755623817, 0.005224674008786678, 0.14591680467128754, 0.028575662523508072, 0.08463303744792938, 0.023503100499510765, 0.04948995262384415, 0.16690969467163086, 0.03569357842206955, 0.004319681786000729, 0.006428506225347519, 0.15100155770778656, 0.014555158093571663, 0.017340591177344322, 0.1415204107761383], [0.011858925223350525, 0.06764010339975357, 0.012464230880141258, 0.0041117132641375065, 0.011257544159889221, 0.003376785898581147, 0.021643826737999916, 0.010615088045597076, 0.1725442111492157, 0.023028381168842316, 0.09568855166435242, 0.025450484827160835, 0.03462478891015053, 0.18396256864070892, 0.038872238248586655, 0.002886153757572174, 0.010375740937888622, 0.19892793893814087, 0.018704034388065338, 0.010431913658976555, 0.04153473302721977], [0.05418769270181656, 0.08086877316236496, 0.006247461773455143, 0.011082643643021584, 0.011862735264003277, 0.004097850993275642, 0.0038728266954421997, 0.009746341034770012, 0.16504067182540894, 0.04010891914367676, 0.11369748413562775, 0.016734955832362175, 0.04672270268201828, 0.13278557360172272, 0.03971176594495773, 0.010500242002308369, 0.02117200382053852, 0.1773001104593277, 0.02374419756233692, 0.00856761448085308, 0.021947402507066727], [0.0035337433218955994, 0.04473123699426651, 0.009918362833559513, 0.008637660183012486, 0.006993126589804888, 0.0010103057138621807, 0.0037858292926102877, 0.03310360386967659, 0.051292408257722855, 0.011637400835752487, 0.03238918259739876, 0.01610606350004673, 0.016758233308792114, 0.0399179570376873, 0.027259638532996178, 0.006803457625210285, 0.5838784575462341, 0.04548852518200874, 0.008268274366855621, 0.0156903974711895, 0.03279612213373184], [0.03159671276807785, 0.10493113845586777, 0.010703623294830322, 0.00638444721698761, 0.010427478700876236, 0.0052246698178350925, 0.00928629469126463, 0.00871945172548294, 0.1379278004169464, 0.017751649022102356, 0.09176045656204224, 0.016498465090990067, 0.022468773648142815, 0.15388311445713043, 0.02396199479699135, 0.004529370926320553, 0.012980999425053596, 0.16472730040550232, 0.01823093742132187, 0.008241318166255951, 0.13976404070854187], [0.039492152631282806, 0.04879268258810043, 0.030832860618829727, 0.003920857794582844, 0.024478351697325706, 0.008208204060792923, 0.002536536892876029, 0.0017640069127082825, 0.1047840416431427, 0.025647945702075958, 0.06142793223261833, 0.0565236397087574, 0.10952287167310715, 0.12447559088468552, 0.09087084978818893, 0.005708557087928057, 0.005161521025002003, 0.13110381364822388, 0.07732569426298141, 0.009153668768703938, 0.03826820105314255], [0.027334637939929962, 0.09333059936761856, 0.011591319926083088, 0.007462833076715469, 0.012337331660091877, 0.006276847328990698, 0.014182046055793762, 0.01056145504117012, 0.11678812652826309, 0.01966097019612789, 0.08503950387239456, 0.019544191658496857, 0.02953997813165188, 0.13402964174747467, 0.03460196405649185, 0.005361658520996571, 0.01597568392753601, 0.14879633486270905, 0.021190179511904716, 0.0118308300152421, 0.17456388473510742], [0.03139180690050125, 0.06736838072538376, 0.007201148197054863, 0.009455581195652485, 0.01402281690388918, 0.009356657043099403, 0.009123498573899269, 0.009260496124625206, 0.12779554724693298, 0.01432589627802372, 0.09193950146436691, 0.017101287841796875, 0.04911711439490318, 0.1575021594762802, 0.056659989058971405, 0.005546156782656908, 0.018206479027867317, 0.14757676422595978, 0.06228228658437729, 0.0433797612786293, 0.05138663575053215], [0.00817915704101324, 0.06707519292831421, 0.00994165800511837, 0.004559078719466925, 0.010051748715341091, 0.005078425165265799, 0.0028035917785018682, 0.002915425691753626, 0.10662095248699188, 0.016927340999245644, 0.07440350204706192, 0.0213528573513031, 0.04276971518993378, 0.14971792697906494, 0.0864359587430954, 0.0031841101590543985, 0.015861188992857933, 0.1502157747745514, 0.0414421372115612, 0.03696877881884575, 0.14349548518657684], [0.030180253088474274, 0.10282514989376068, 0.009912761859595776, 0.0045796106569468975, 0.006826884113252163, 0.003929793834686279, 0.010120566003024578, 0.006619042716920376, 0.15652024745941162, 0.01437720749527216, 0.08935224264860153, 0.013842224143445492, 0.016786228865385056, 0.18543100357055664, 0.025203919038176537, 0.004909130744636059, 0.011006813496351242, 0.20395393669605255, 0.02438351884484291, 0.00902421772480011, 0.0702153816819191], [0.0309298112988472, 0.1144041046500206, 0.01414660643786192, 0.0069641959853470325, 0.012076721526682377, 0.0029159225523471832, 0.003499672980979085, 0.004982461221516132, 0.18046708405017853, 0.010728596709668636, 0.09206915646791458, 0.013974134810268879, 0.02331875078380108, 0.18301081657409668, 0.015813998878002167, 0.001972063910216093, 0.006039326544851065, 0.21745221316814423, 0.02760317549109459, 0.012782163918018341, 0.02484898455440998], [0.020490411669015884, 0.13390882313251495, 0.0060270088724792, 0.007309228181838989, 0.0040819174610078335, 0.0019515835447236896, 0.0030808737501502037, 0.006671680137515068, 0.1579877734184265, 0.00784712191671133, 0.08482104539871216, 0.007363629527390003, 0.014612985774874687, 0.1560041904449463, 0.04452357813715935, 0.0026302519254386425, 0.040146566927433014, 0.20548327267169952, 0.022915106266736984, 0.009079947136342525, 0.06306302547454834], [0.02039491757750511, 0.12382467836141586, 0.010030214674770832, 0.007043609395623207, 0.004339460749179125, 0.0010105505352839828, 0.003448550123721361, 0.012037980370223522, 0.13913290202617645, 0.010473036207258701, 0.07001237571239471, 0.011580566875636578, 0.01708144322037697, 0.13243499398231506, 0.035082194954156876, 0.00286593334749341, 0.16181202232837677, 0.16062875092029572, 0.011966115795075893, 0.02121654339134693, 0.04358305409550667], [0.03086758591234684, 0.11039764434099197, 0.00784139335155487, 0.005414764862507582, 0.006344473455101252, 0.0033730771392583847, 0.007537523750215769, 0.004903903231024742, 0.17067840695381165, 0.010000165551900864, 0.09855465590953827, 0.010057685896754265, 0.014525774866342545, 0.20503443479537964, 0.02031010016798973, 0.003226620377972722, 0.008757873438298702, 0.2208249270915985, 0.015789130702614784, 0.005556080956012011, 0.04000371694564819], [0.020625412464141846, 0.09765079617500305, 0.007559951860457659, 0.0038771317340433598, 0.00687612546607852, 0.005040967836976051, 0.004823675379157066, 0.0027749163564294577, 0.15864291787147522, 0.007254801690578461, 0.07790721952915192, 0.004912877921015024, 0.018747782334685326, 0.2091231793165207, 0.07346894592046738, 0.0025844057090580463, 0.009736517444252968, 0.20759998261928558, 0.055061209946870804, 0.01055045798420906, 0.015180652029812336], [0.021444302052259445, 0.11904925853013992, 0.008999587036669254, 0.020838430151343346, 0.011744270101189613, 0.004629538860172033, 0.007932431995868683, 0.00617994274944067, 0.10116933286190033, 0.021772317588329315, 0.06008986011147499, 0.006960785016417503, 0.03451894596219063, 0.11071516573429108, 0.11678917706012726, 0.008525563403964043, 0.07061946392059326, 0.12531188130378723, 0.08066792041063309, 0.015003719367086887, 0.04703814908862114], [0.01122177205979824, 0.106231190264225, 0.10841948539018631, 0.11536960303783417, 0.056855980306863785, 0.01790345460176468, 0.053279343992471695, 0.039414845407009125, 0.016499537974596024, 0.05174671858549118, 0.018179932609200478, 0.027305563911795616, 0.041126400232315063, 0.01115127932280302, 0.034249067306518555, 0.00455572921782732, 0.07091419398784637, 0.01126269344240427, 0.07284872233867645, 0.029456250369548798, 0.10200813412666321]], [[0.1258762925863266, 0.016361018642783165, 0.01935592107474804, 0.007661296054720879, 0.009627191349864006, 0.0036451173946261406, 0.008632516488432884, 0.02469480037689209, 0.03645600378513336, 0.23987455666065216, 0.014082709327340126, 0.016161784529685974, 0.02046428807079792, 0.030659064650535583, 0.06486871838569641, 0.01872796006500721, 0.048780228942632675, 0.06282562762498856, 0.10732321441173553, 0.02739608846604824, 0.0965256541967392], [0.13494670391082764, 0.03031429834663868, 0.026105917990207672, 0.014448515139520168, 0.020420728251338005, 0.01828138902783394, 0.03350830078125, 0.02708626538515091, 0.05167790874838829, 0.06563720107078552, 0.030373459681868553, 0.023386916145682335, 0.024737011641263962, 0.05932743847370148, 0.05944200977683067, 0.029350601136684418, 0.050686608999967575, 0.08022070676088333, 0.043287359178066254, 0.040550779551267624, 0.13620983064174652], [0.12676945328712463, 0.02936721220612526, 0.003083408111706376, 0.010971330106258392, 0.007176550570875406, 0.0035680823493748903, 0.017568470910191536, 0.021676406264305115, 0.0533880814909935, 0.03615516051650047, 0.03195587545633316, 0.0025530983693897724, 0.009199803695082664, 0.05143458768725395, 0.047109805047512054, 0.017787013202905655, 0.032546043395996094, 0.07771022617816925, 0.24074316024780273, 0.026855623349547386, 0.15238064527511597], [0.10469749569892883, 0.10085257887840271, 0.022741032764315605, 0.0009067269274964929, 0.009608124382793903, 0.011113150976598263, 0.03038056194782257, 0.020323045551776886, 0.11238127946853638, 0.09970740228891373, 0.09991616010665894, 0.022374248132109642, 0.013568642549216747, 0.11155600845813751, 0.03326178342103958, 0.006677031517028809, 0.020705267786979675, 0.10522056370973587, 0.029552271589636803, 0.01286020316183567, 0.031596504151821136], [0.1333242803812027, 0.04505958408117294, 0.03493031486868858, 0.02216636948287487, 0.013362441211938858, 0.03654055297374725, 0.016239384189248085, 0.03413134440779686, 0.05806770175695419, 0.08189192414283752, 0.051222119480371475, 0.03373291715979576, 0.02824443206191063, 0.06567955762147903, 0.024761172011494637, 0.01695563644170761, 0.024434199556708336, 0.07386010140180588, 0.03444760665297508, 0.029835272580385208, 0.14111310243606567], [0.14554357528686523, 0.04525391012430191, 0.027509178966283798, 0.014975243248045444, 0.012711810879409313, 0.005950011778622866, 0.02416076883673668, 0.023880021646618843, 0.07436725497245789, 0.07783651351928711, 0.047324828803539276, 0.027319490909576416, 0.01924799755215645, 0.07254450023174286, 0.03249263018369675, 0.019786061719059944, 0.030328981578350067, 0.10836559534072876, 0.07793094217777252, 0.022839456796646118, 0.08963125944137573], [0.05611360818147659, 0.053036633878946304, 0.014553100802004337, 0.0670505240559578, 0.014583155512809753, 0.012851318344473839, 0.0020983561407774687, 0.10207262635231018, 0.0935266762971878, 0.021186169236898422, 0.07155146449804306, 0.013569568283855915, 0.019065966829657555, 0.07998987287282944, 0.012536234222352505, 0.030569614842534065, 0.06961245089769363, 0.11715517938137054, 0.09446873515844345, 0.03150048851966858, 0.022908300161361694], [0.07805731147527695, 0.022915378212928772, 0.015663037076592445, 0.00890837050974369, 0.024179821833968163, 0.014912056736648083, 0.007748364005237818, 0.008305451832711697, 0.034085847437381744, 0.048931896686553955, 0.03043435700237751, 0.018679818138480186, 0.027532506734132767, 0.03247717022895813, 0.017652707174420357, 0.014243779703974724, 0.012342406436800957, 0.048024073243141174, 0.087309330701828, 0.019047563895583153, 0.42854875326156616], [0.14406566321849823, 0.03654595464468002, 0.0368787981569767, 0.01419548038393259, 0.02190580777823925, 0.022819381207227707, 0.027623966336250305, 0.0368867851793766, 0.051130641251802444, 0.05682244151830673, 0.03338805213570595, 0.03618506342172623, 0.030088908970355988, 0.05970616638660431, 0.045799221843481064, 0.02644866146147251, 0.045884713530540466, 0.0824749618768692, 0.054569829255342484, 0.04517436400055885, 0.09140515327453613], [0.1589728742837906, 0.04495370388031006, 0.013235483318567276, 0.005653467029333115, 0.017635442316532135, 0.011419197544455528, 0.02212662436068058, 0.030201349407434464, 0.06793191283941269, 0.018138904124498367, 0.04144609719514847, 0.016802286729216576, 0.02039903774857521, 0.07514012604951859, 0.07703252881765366, 0.01848977990448475, 0.01889459788799286, 0.0974445715546608, 0.1361856609582901, 0.05821111425757408, 0.04968525841832161], [0.12095759063959122, 0.04999034106731415, 0.02296358160674572, 0.01940794661641121, 0.01772955060005188, 0.021363886073231697, 0.02821086160838604, 0.04319857805967331, 0.06841641664505005, 0.039840538054704666, 0.047488901764154434, 0.022990461438894272, 0.02360408753156662, 0.08168686926364899, 0.03063160926103592, 0.033812712877988815, 0.05339941754937172, 0.10364236682653427, 0.03942151367664337, 0.051165420562028885, 0.08007722347974777], [0.13262945413589478, 0.03202792629599571, 0.0036827181465923786, 0.012840698473155499, 0.010151908732950687, 0.00484172347933054, 0.015766363590955734, 0.036387696862220764, 0.05299704149365425, 0.03129654377698898, 0.035330742597579956, 0.0028428658843040466, 0.01509938482195139, 0.055192261934280396, 0.03559064865112305, 0.020787237212061882, 0.046159956604242325, 0.083245649933815, 0.19036038219928741, 0.029338395223021507, 0.15343040227890015], [0.10848873108625412, 0.04673522338271141, 0.026292886584997177, 0.018106674775481224, 0.017338726669549942, 0.03638152778148651, 0.019646598026156425, 0.030762454494833946, 0.06619741767644882, 0.0736004039645195, 0.053030986338853836, 0.02536092698574066, 0.023796584457159042, 0.07183528691530228, 0.04532729834318161, 0.02016061171889305, 0.024273263290524483, 0.08093062043190002, 0.03169195353984833, 0.031453683972358704, 0.14858807623386383], [0.14254209399223328, 0.030643176287412643, 0.03563239425420761, 0.012993925251066685, 0.02527714893221855, 0.02405029907822609, 0.02423713542521, 0.030994849279522896, 0.050247956067323685, 0.05946483463048935, 0.032377272844314575, 0.03739166259765625, 0.03660184517502785, 0.05510779097676277, 0.04969720169901848, 0.02760513871908188, 0.04134037345647812, 0.08162081986665726, 0.05355426296591759, 0.03873487561941147, 0.10988496989011765], [0.09382443875074387, 0.049177877604961395, 0.017755210399627686, 0.0061477660201489925, 0.005323642864823341, 0.014223246835172176, 0.024053024128079414, 0.027683528140187263, 0.07488152384757996, 0.07813183963298798, 0.04167972877621651, 0.018894117325544357, 0.009018800221383572, 0.09619669616222382, 0.016840578988194466, 0.01870466023683548, 0.04561842605471611, 0.1126924380660057, 0.1288820058107376, 0.08951009809970856, 0.030760185793042183], [0.13669216632843018, 0.06029285863041878, 0.027533479034900665, 0.0025310255587100983, 0.03829418867826462, 0.03736967593431473, 0.009004764258861542, 0.023987118154764175, 0.07511936873197556, 0.03485413268208504, 0.04663727059960365, 0.03354780003428459, 0.052094828337430954, 0.07350951433181763, 0.02847503311932087, 0.009666369296610355, 0.017892347648739815, 0.10857398062944412, 0.02905416302382946, 0.03399791568517685, 0.12087194621562958], [0.0790177434682846, 0.027530977502465248, 0.03206291049718857, 0.007999272085726261, 0.025377755984663963, 0.01980547048151493, 0.007822275161743164, 0.010244008153676987, 0.03476338088512421, 0.05962786078453064, 0.02943994477391243, 0.05008973181247711, 0.03753705695271492, 0.03467659652233124, 0.02763562835752964, 0.013043900020420551, 0.006542980670928955, 0.051192037761211395, 0.09950187802314758, 0.02726917713880539, 0.3188193738460541], [0.12881098687648773, 0.027983861044049263, 0.046635258942842484, 0.011654558591544628, 0.028749816119670868, 0.028144314885139465, 0.02443627081811428, 0.031206907704472542, 0.041592586785554886, 0.06705885380506516, 0.026457330211997032, 0.05020427703857422, 0.040366269648075104, 0.04680199548602104, 0.05178424343466759, 0.03122054599225521, 0.04034927114844322, 0.06640983372926712, 0.046489886939525604, 0.04793190211057663, 0.11571109294891357], [0.11726630479097366, 0.036725763231515884, 0.032699309289455414, 0.00404424499720335, 0.00890166126191616, 0.0033262025099247694, 0.03668390214443207, 0.034828994423151016, 0.03800554573535919, 0.2618084251880646, 0.018336882814764977, 0.022445883601903915, 0.012752302922308445, 0.0361374206840992, 0.22634407877922058, 0.009858277626335621, 0.0287367794662714, 0.04476625844836235, 0.003960834350436926, 0.01234216708689928, 0.010028861463069916], [0.12911756336688995, 0.038707513362169266, 0.012256543152034283, 0.007322193123400211, 0.034855034202337265, 0.02646474912762642, 0.007420072332024574, 0.03608391806483269, 0.04956980422139168, 0.07049345225095749, 0.030350442975759506, 0.00967007502913475, 0.05771585926413536, 0.041722990572452545, 0.030716095119714737, 0.023488204926252365, 0.05514927953481674, 0.07600749284029007, 0.07508421689271927, 0.017284801229834557, 0.17051972448825836], [0.11316289752721786, 0.023541083559393883, 0.029387887567281723, 0.008420390076935291, 0.05261846259236336, 0.03228244185447693, 0.007191270589828491, 0.02457333728671074, 0.02998390980064869, 0.047547806054353714, 0.018625736236572266, 0.03066316992044449, 0.08930855989456177, 0.024937856942415237, 0.010834267362952232, 0.018989337608218193, 0.023606574162840843, 0.04303469508886337, 0.016979947686195374, 0.023624589666724205, 0.33068570494651794]], [[0.005783591885119677, 0.03356144577264786, 0.09381476044654846, 0.007331313099712133, 0.005704195238649845, 0.004861620720475912, 0.04954379424452782, 0.016293086111545563, 0.018428683280944824, 0.3462294638156891, 0.015660010278224945, 0.05805841088294983, 0.007830031216144562, 0.022986002266407013, 0.04706129431724548, 0.04062473028898239, 0.03516567870974541, 0.03520970791578293, 0.11253515630960464, 0.01122467964887619, 0.032092154026031494], [0.061135489493608475, 0.110323466360569, 0.009793436154723167, 0.012492217123508453, 0.00875494908541441, 0.015061543323099613, 0.0040598646737635136, 0.007830888964235783, 0.16141605377197266, 0.02371228113770485, 0.10838764160871506, 0.005605321377515793, 0.007774877827614546, 0.15312421321868896, 0.020037980750203133, 0.007971012033522129, 0.007358374074101448, 0.20645545423030853, 0.01345227099955082, 0.006848666351288557, 0.04840408265590668], [0.006876906845718622, 0.07634986937046051, 0.00019730911299120635, 0.0029726573266088963, 0.0002178894792450592, 0.0014514077920466661, 0.00014595792163163424, 0.00040377600817009807, 0.2417115420103073, 0.0015889977803453803, 0.16242019832134247, 0.00012900959700345993, 0.0003471165255177766, 0.16825070977210999, 0.0013641263358294964, 0.0009283695835620165, 0.0007816727156750858, 0.29076090455055237, 0.0003735708596650511, 0.0025962060317397118, 0.040131814777851105], [0.023982221260666847, 0.1377142369747162, 0.0015284809051081538, 0.000583305605687201, 0.0004047159745823592, 0.004622942768037319, 0.0002620197192300111, 0.00030036954558454454, 0.22040624916553497, 0.0021215269807726145, 0.13751377165317535, 0.00044702019658870995, 0.0002753893204499036, 0.14629298448562622, 0.009940426796674728, 0.0006790417246520519, 0.00034896403667517006, 0.26834094524383545, 0.00026683160103857517, 0.0006061983876861632, 0.04336242005228996], [0.014094360172748566, 0.10494736582040787, 0.0036906821187585592, 0.0026610291097313166, 0.001061193528585136, 0.007518746890127659, 0.00047550007002428174, 0.0010945943649858236, 0.24854786694049835, 0.009285462088882923, 0.16110502183437347, 0.0025035261642187834, 0.002048802562057972, 0.14240536093711853, 0.004420398268848658, 0.0028476479928940535, 0.0007649740437045693, 0.255750834941864, 0.001751350937411189, 0.0024204824585467577, 0.030604775995016098], [0.01734384149312973, 0.10929195582866669, 0.0015624802326783538, 0.007478524465113878, 0.0013004634529352188, 0.004205440636724234, 0.0004850644909311086, 0.0012725869892165065, 0.2301253229379654, 0.004408411681652069, 0.14613454043865204, 0.00092182686785236, 0.0019582880195230246, 0.17192667722702026, 0.004079241771250963, 0.002641275990754366, 0.0009967029327526689, 0.26492491364479065, 0.005245573353022337, 0.003557321149855852, 0.020139653235673904], [0.00761468056589365, 0.0420789010822773, 0.0010797586292028427, 0.014971605502068996, 0.002419999334961176, 0.004945540800690651, 0.0003389307239558548, 0.0025897370651364326, 0.23231762647628784, 0.007541346363723278, 0.21512337028980255, 0.0015116409631446004, 0.004878622479736805, 0.1453828662633896, 0.0037102196365594864, 0.0138565544039011, 0.0020784607622772455, 0.240469828248024, 0.003920023329555988, 0.007444155402481556, 0.045726075768470764], [0.03557011857628822, 0.12046051025390625, 0.0025139835197478533, 0.006796558387577534, 0.002624246757477522, 0.009060979820787907, 0.000386640866054222, 0.0014956421218812466, 0.20991651713848114, 0.0025036833249032497, 0.17467445135116577, 0.0011427976423874497, 0.0021788908634334803, 0.14299003779888153, 0.0042823138646781445, 0.002425244078040123, 0.0016154645709320903, 0.22605718672275543, 0.001242568250745535, 0.004959231708198786, 0.04710298404097557], [0.027203526347875595, 0.10134344547986984, 0.006509338039904833, 0.01945430412888527, 0.005964640527963638, 0.008080015890300274, 0.005982099566608667, 0.009117420762777328, 0.16388331353664398, 0.03475578874349594, 0.1179836317896843, 0.004628827329725027, 0.006972367409616709, 0.16247864067554474, 0.03694075718522072, 0.008931242860853672, 0.012766069732606411, 0.20230597257614136, 0.024977784603834152, 0.011074618436396122, 0.02864616923034191], [0.013086775317788124, 0.08513855934143066, 0.0014626458287239075, 0.006359405815601349, 0.0014810900902375579, 0.0017732750857248902, 0.0004437684256117791, 0.00433496106415987, 0.21053354442119598, 0.002478878479450941, 0.1415407955646515, 0.0014025889104232192, 0.0027131729293614626, 0.21848590672016144, 0.008909695781767368, 0.0044766864739358425, 0.010877292603254318, 0.23061178624629974, 0.002715105190873146, 0.009670611470937729, 0.04150349646806717], [0.02821999602019787, 0.12478945404291153, 0.002951444126665592, 0.011987096630036831, 0.003809042042121291, 0.007554727606475353, 0.002678706543520093, 0.0041192970238626, 0.19492407143115997, 0.013020966202020645, 0.12778791785240173, 0.001660783658735454, 0.003644837299361825, 0.17471455037593842, 0.02011297456920147, 0.003983079921454191, 0.0054505979642271996, 0.22425082325935364, 0.009731210768222809, 0.0056333220563828945, 0.028975114226341248], [0.005025324411690235, 0.07240792363882065, 0.00019127341511193663, 0.00303297839127481, 0.00034897433943115175, 0.0012595256557688117, 0.00016250125190708786, 0.0003133533464279026, 0.2515268325805664, 0.0010839777532964945, 0.17606471478939056, 0.0001277392584597692, 0.0004907664842903614, 0.1708044856786728, 0.001412639976479113, 0.0006444237078540027, 0.0007322535384446383, 0.27451708912849426, 0.00023318955209106207, 0.0033591866958886385, 0.03626074641942978], [0.02765464410185814, 0.12411122024059296, 0.006584322080016136, 0.005103526636958122, 0.003541099838912487, 0.01238788291811943, 0.00084582349518314, 0.0024401035625487566, 0.22030039131641388, 0.00912032276391983, 0.16477856040000916, 0.00433558551594615, 0.004497612360864878, 0.12414749711751938, 0.0077069723047316074, 0.003454275196418166, 0.0018442850559949875, 0.2086026817560196, 0.0022531505674123764, 0.0051210857927799225, 0.061169009655714035], [0.02261839248239994, 0.08856557309627533, 0.004521078895777464, 0.016939610242843628, 0.00480142654851079, 0.0063272444531321526, 0.004398118704557419, 0.007496747188270092, 0.17764000594615936, 0.035504356026649475, 0.1164788007736206, 0.00363744399510324, 0.0062951091676950455, 0.16828769445419312, 0.03807377070188522, 0.00815487839281559, 0.009483651258051395, 0.23443561792373657, 0.019541891291737556, 0.00842310395091772, 0.018375493586063385], [0.025312500074505806, 0.10314762592315674, 0.0004037616599816829, 0.004627287853509188, 0.00021474840468727052, 0.000500471331179142, 0.0003915757406502962, 0.0012291407911106944, 0.18999190628528595, 0.002411331981420517, 0.10160601884126663, 0.0001607903395779431, 0.0003719060914590955, 0.1741236299276352, 0.0005498224636539817, 0.0018495775293558836, 0.0029359220061451197, 0.2364591360092163, 0.004215592984110117, 0.0029575678054243326, 0.14653979241847992], [0.008825263939797878, 0.0726279467344284, 0.0005370207945816219, 0.010389585047960281, 0.001234774012118578, 0.006018324289470911, 0.0022413446567952633, 0.002116789110004902, 0.22194796800613403, 0.0018282700330018997, 0.16114898025989532, 0.00045134269748814404, 0.0025126298423856497, 0.17749428749084473, 0.00674087181687355, 0.00478604668751359, 0.0037738254759460688, 0.2883011996746063, 0.003473873483017087, 0.003965224605053663, 0.01958441361784935], [0.05800309032201767, 0.12292821705341339, 0.005863341037184, 0.01360991783440113, 0.006448964588344097, 0.04146798327565193, 0.002268644981086254, 0.00584279652684927, 0.1702842265367508, 0.002389191184192896, 0.16735464334487915, 0.002319169929251075, 0.002886750502511859, 0.11689664423465729, 0.00841761939227581, 0.010151880793273449, 0.003146544797345996, 0.17986717820167542, 0.0022512199357151985, 0.012513292022049427, 0.06508871167898178], [0.024088455364108086, 0.08768370002508163, 0.006640239618718624, 0.023045670241117477, 0.005399010609835386, 0.006513573694974184, 0.007558854762464762, 0.011046137660741806, 0.15539103746414185, 0.049712203443050385, 0.10330554842948914, 0.005191452335566282, 0.006881435867398977, 0.16681954264640808, 0.04541165009140968, 0.013394812121987343, 0.014324736781418324, 0.2063104808330536, 0.03198185935616493, 0.01055737305432558, 0.01874220184981823], [0.04569827392697334, 0.10671316832304001, 0.03175744041800499, 0.02260352112352848, 0.041488565504550934, 0.03610506281256676, 0.0018236985197290778, 0.01675458438694477, 0.1341949850320816, 0.0044632526114583015, 0.10790292918682098, 0.01647494174540043, 0.026754258200526237, 0.1308615356683731, 0.010191689245402813, 0.010938083752989769, 0.009537778794765472, 0.1659507006406784, 0.0028278676327317953, 0.03426629677414894, 0.0426914319396019], [0.06530805677175522, 0.09241810441017151, 0.015968861058354378, 0.030570752918720245, 0.014771061018109322, 0.01507655344903469, 0.009370424784719944, 0.036780767142772675, 0.10040777176618576, 0.005710221827030182, 0.09407939016819, 0.015079174190759659, 0.020797614008188248, 0.0947519987821579, 0.006744930054992437, 0.030454112216830254, 0.04566534608602524, 0.13696396350860596, 0.017339520156383514, 0.10324419289827347, 0.04849717393517494], [0.09754302352666855, 0.1894918531179428, 0.014087556861341, 0.008426234126091003, 0.005981709808111191, 0.010574349202215672, 0.005928929429501295, 0.005858190357685089, 0.12543150782585144, 0.010397810488939285, 0.08941060304641724, 0.004847648553550243, 0.002542840549722314, 0.09197056293487549, 0.0055068726651370525, 0.004973192699253559, 0.007371269632130861, 0.14729180932044983, 0.02628742717206478, 0.01438867300748825, 0.1316879242658615]], [[0.12383601069450378, 0.036805711686611176, 0.01727433130145073, 0.008195487782359123, 0.024765148758888245, 0.006731146015226841, 0.034036196768283844, 0.0974137932062149, 0.06059528514742851, 0.08390507102012634, 0.0376729778945446, 0.024150418117642403, 0.03389501944184303, 0.051605500280857086, 0.02965305931866169, 0.05367835611104965, 0.12655678391456604, 0.05579628422856331, 0.024457048624753952, 0.0156017504632473, 0.05337469279766083], [0.09982987493276596, 0.02424071729183197, 0.0038303150795400143, 0.011221025139093399, 0.011238396167755127, 0.015101486817002296, 0.020174318924546242, 0.02083401568233967, 0.10802450031042099, 0.07994414120912552, 0.11560609191656113, 0.026981297880411148, 0.0166808869689703, 0.10211724042892456, 0.12298056483268738, 0.02059631049633026, 0.013531123287975788, 0.03968537598848343, 0.0063169305212795734, 0.011357621289789677, 0.1297076791524887], [0.008165623992681503, 0.0007572936010546982, 0.03841979801654816, 2.0982186470064335e-05, 0.00010127128916792572, 0.0006848311168141663, 0.0008287085220217705, 6.35066899121739e-05, 0.006201385520398617, 0.0004956213524565101, 0.006949214730411768, 0.9206288456916809, 0.00024400853726547211, 0.0077553000301122665, 0.0005373589228838682, 0.00118476920761168, 7.375910354312509e-05, 0.005465107038617134, 3.3711108699208125e-05, 4.83043822896434e-06, 0.001384075148962438], [0.13173848390579224, 0.03516741842031479, 0.0002538577246014029, 0.2546771168708801, 0.00023452815366908908, 0.0015675887698307633, 0.009021501988172531, 0.007957331836223602, 0.08318524807691574, 0.0035693419631570578, 0.06751661002635956, 0.001122984103858471, 0.003807503031566739, 0.08881249278783798, 0.08130725473165512, 0.011115684174001217, 0.020254740491509438, 0.17560650408267975, 0.004602647852152586, 0.0008915834478102624, 0.017589570954442024], [0.0033336046617478132, 0.00139071315061301, 0.00010279766866005957, 1.3351258530747145e-05, 0.05474399775266647, 7.286485197255388e-05, 6.481642776634544e-05, 0.00156380794942379, 0.0036802187096327543, 7.816154538886622e-05, 0.0016927551478147507, 0.00014222679601516575, 0.9135196805000305, 0.0048221624456346035, 1.2179296390968375e-05, 0.0016647172160446644, 0.0027497033588588238, 0.010014314204454422, 0.0001414638536516577, 5.8902787714032456e-05, 0.0001374492421746254], [0.06176086142659187, 0.0471685416996479, 0.009409462101757526, 0.0036926642060279846, 0.00247341301292181, 0.3011072278022766, 0.00019933814473915845, 0.003055756213143468, 0.08847252279520035, 0.0023750492837280035, 0.06268632411956787, 0.00261558941565454, 0.010461285710334778, 0.10186278074979782, 0.006646930240094662, 0.013103135861456394, 0.00773556949570775, 0.24190284311771393, 0.014401467517018318, 0.012468008324503899, 0.0064012594521045685], [0.14344602823257446, 0.05494615435600281, 0.01194924209266901, 0.032155320048332214, 0.003248983295634389, 0.00021812308114022017, 0.037390436977148056, 0.0010170784080401063, 0.034033387899398804, 0.014602324925363064, 0.09543980658054352, 0.006494427565485239, 0.007144699804484844, 0.08121274411678314, 0.0029640786815434694, 0.05802493169903755, 0.020625082775950432, 0.27584338188171387, 0.014956740662455559, 0.014570657163858414, 0.08971637487411499], [0.13519224524497986, 0.008313228376209736, 0.00017239328008145094, 0.0008103821310214698, 0.008288975805044174, 0.001572002307511866, 0.00016275282541755587, 0.18470659852027893, 0.0032803250942379236, 0.00014149369962979108, 0.013055159710347652, 0.00015425903256982565, 0.0037636542692780495, 0.013096465729176998, 0.00023671364760957658, 0.006118742283433676, 0.5031026601791382, 0.03201105073094368, 0.0010453414870426059, 0.01921733096241951, 0.06555831432342529], [0.13112077116966248, 0.0918530821800232, 0.023970503360033035, 0.020519444718956947, 0.03608831390738487, 0.020952019840478897, 0.009013820439577103, 0.003786554094403982, 0.020156145095825195, 0.00957239605486393, 0.0496130995452404, 0.022928563877940178, 0.03619074448943138, 0.08032924681901932, 0.029197627678513527, 0.009171423502266407, 0.01905703730881214, 0.1254987269639969, 0.04161212965846062, 0.031646210700273514, 0.18772217631340027], [0.2771655321121216, 0.10619081556797028, 0.007189157418906689, 0.0022266628220677376, 0.0015564503846690059, 0.0020701445173472166, 0.007004881743341684, 0.0006791086634621024, 0.01300534326583147, 0.07935640960931778, 0.006280079018324614, 0.0009577012388035655, 0.0062965587712824345, 0.1266600489616394, 0.006450799759477377, 0.000436341215390712, 0.0011038517113775015, 0.12454946339130402, 0.08918130397796631, 0.014100583270192146, 0.12753883004188538], [0.1123795434832573, 0.12922273576259613, 0.03402455523610115, 0.01958066038787365, 0.01346690021455288, 0.012445327825844288, 0.03052843175828457, 0.01714608445763588, 0.07743792980909348, 0.006721701007336378, 0.015343011356890202, 0.0024837905075401068, 0.008808481507003307, 0.1278657466173172, 0.05611089617013931, 0.010087764821946621, 0.011092830449342728, 0.12380515784025192, 0.028872519731521606, 0.02282206527888775, 0.13975387811660767], [0.010187115520238876, 0.0053581055253744125, 0.9282558560371399, 0.00012430606875568628, 0.00020162900909781456, 0.00024335044145118445, 0.00029985158471390605, 5.7493587519275025e-05, 0.010386275127530098, 0.00012564043572638184, 0.0007824002532288432, 0.02180393785238266, 1.6417345250374638e-05, 0.004423403646796942, 8.869311568560079e-05, 0.00030017431708984077, 2.31585290748626e-05, 0.013430447317659855, 0.00032660941360518336, 3.358506364747882e-05, 0.003531575668603182], [0.0067343395203351974, 0.0013227160088717937, 0.00027655073790811, 9.856348333414644e-05, 0.954837441444397, 0.0003310050815343857, 0.00017013117030728608, 0.0006912226090207696, 0.004238192457705736, 0.0005693823914043605, 0.0008957027457654476, 2.140242031600792e-05, 0.02172861061990261, 0.00047943697427399457, 1.2820978554373141e-06, 0.0002447408623993397, 0.0007076245965436101, 0.004942767787724733, 0.00012069537478964776, 6.20729842921719e-05, 0.0015260621439665556], [0.11289903521537781, 0.0858273133635521, 0.03041934408247471, 0.014018015004694462, 0.03494744375348091, 0.01967778615653515, 0.02311522327363491, 0.014558948576450348, 0.10032220184803009, 0.12587970495224, 0.10355765372514725, 0.015385000966489315, 0.005219200626015663, 0.016401423141360283, 0.003937739413231611, 0.007715840358287096, 0.02202964760363102, 0.1347728818655014, 0.04220866411924362, 0.016003359109163284, 0.07110357284545898], [0.19061625003814697, 0.06311702728271484, 0.006652774754911661, 0.051872316747903824, 0.0003147064126096666, 0.0075750527903437614, 0.00497304555028677, 0.0035888575948774815, 0.04614235460758209, 0.02880639210343361, 0.053414441645145416, 0.0014097130624577403, 8.541498391423374e-05, 0.005737918429076672, 0.2621580958366394, 5.685893847839907e-05, 0.0008107682224363089, 0.06899599730968475, 0.08223029226064682, 0.023935353383421898, 0.09750638157129288], [0.17836403846740723, 0.03491285815834999, 0.0062489076517522335, 0.008962860330939293, 0.0158645398914814, 0.009140297770500183, 0.04615494981408119, 0.04257810115814209, 0.06291378289461136, 0.0008242223993875086, 0.05610281974077225, 0.0029355264268815517, 0.0069887153804302216, 0.043572187423706055, 8.150959183694795e-05, 0.27678555250167847, 0.005493098869919777, 0.06415339559316635, 0.010703667998313904, 0.07567501813173294, 0.051543980836868286], [0.21306034922599792, 0.0043940055184066296, 9.537051664665341e-05, 0.0005097227403894067, 0.0053652008064091206, 0.0015568803064525127, 0.0015420775162056088, 0.5439534783363342, 0.01471810881048441, 0.00035803686478175223, 0.008033339865505695, 5.235635762801394e-05, 0.0044816541485488415, 0.023152319714426994, 0.00012574797437991947, 0.0009572233539074659, 0.12670397758483887, 0.004843746777623892, 0.00023479701485484838, 0.007617645896971226, 0.038243941962718964], [0.10448946803808212, 0.02978149801492691, 0.013963284902274609, 0.02067354880273342, 0.047826480120420456, 0.03774873912334442, 0.03186267986893654, 0.027218692004680634, 0.10023083537817001, 0.11541382223367691, 0.07197766751050949, 0.027079496532678604, 0.042078230530023575, 0.09971149265766144, 0.06259896606206894, 0.01258065365254879, 0.005052001681178808, 0.0237989891320467, 0.012170793488621712, 0.028535237535834312, 0.08520752191543579], [0.029509086161851883, 0.002377172466367483, 0.00014860204828437418, 0.000369302841136232, 0.0005508408066816628, 0.0037291008047759533, 0.0005726950475946069, 0.0007162925903685391, 0.015515383332967758, 0.028394067659974098, 0.01054332870990038, 0.001170601462945342, 0.0005935344379395247, 0.019924789667129517, 0.014156345278024673, 0.0034650384914129972, 0.00023579454864375293, 0.005328459199517965, 0.8451085090637207, 0.006408109329640865, 0.011182860471308231], [0.16674894094467163, 0.011473450809717178, 8.15361927379854e-05, 6.43426101305522e-05, 0.0003625556128099561, 0.006898923311382532, 0.003552529960870743, 0.03511739894747734, 0.04614197835326195, 0.011502878740429878, 0.03429631516337395, 0.0005442082765512168, 0.0012620193883776665, 0.03697012737393379, 0.004989251494407654, 0.0379653126001358, 0.014147810637950897, 0.050869472324848175, 0.004160706419497728, 0.5199717879295349, 0.012878435663878918], [0.0610118992626667, 0.06168553605675697, 0.005450966767966747, 0.0028625912964344025, 0.002766529330983758, 0.003541500074788928, 0.021400945261120796, 0.07592727243900299, 0.13622348010540009, 0.07297570258378983, 0.07369352877140045, 0.015646200627088547, 0.042924914509058, 0.08552494645118713, 0.06085650622844696, 0.019069166854023933, 0.07012525200843811, 0.11075259745121002, 0.023637311533093452, 0.005284262355417013, 0.04863889142870903]], [[0.12215486913919449, 0.2108531892299652, 0.017375843599438667, 0.006202398799359798, 0.0073167020455002785, 0.01108770351856947, 0.009455307386815548, 0.003133057616651058, 0.13104015588760376, 0.018780462443828583, 0.09551544487476349, 0.011983842588961124, 0.006333635654300451, 0.1489453762769699, 0.028488067910075188, 0.0036497244145721197, 0.006100910250097513, 0.11127807199954987, 0.020695947110652924, 0.0015878259437158704, 0.028021348640322685], [0.11285088956356049, 0.13132382929325104, 0.019106069579720497, 0.022294316440820694, 0.010071867145597935, 0.018394576385617256, 0.007686318829655647, 0.009217213839292526, 0.10569480061531067, 0.02320893481373787, 0.08184374868869781, 0.011745896190404892, 0.006823734380304813, 0.09390000998973846, 0.03492312133312225, 0.005067401099950075, 0.009334075264632702, 0.11622047424316406, 0.01536825392395258, 0.00569421099498868, 0.1592302769422531], [0.02292332425713539, 0.12914155423641205, 0.011719582602381706, 0.036330390721559525, 0.016368597745895386, 0.03462833911180496, 0.00711841182783246, 0.013674370013177395, 0.0704275444149971, 0.021483588963747025, 0.07338070869445801, 0.009109009057283401, 0.00835746992379427, 0.07834096252918243, 0.00415749941021204, 0.005918890703469515, 0.005477245897054672, 0.09025146812200546, 0.031776826828718185, 0.005946046207100153, 0.3234682083129883], [0.07710641622543335, 0.12265357375144958, 0.025142882019281387, 0.0009644471574574709, 0.00763007253408432, 0.02566479705274105, 0.010354475118219852, 0.016032202169299126, 0.11307213455438614, 0.01942354068160057, 0.10865403711795807, 0.011548955924808979, 0.004510104190558195, 0.15485930442810059, 0.023737439885735512, 0.008997747674584389, 0.016663048416376114, 0.14510472118854523, 0.008441096171736717, 0.0035315973218530416, 0.09590748697519302], [0.08671852946281433, 0.10895659029483795, 0.01543640997260809, 0.007607831619679928, 0.005204305984079838, 0.049800023436546326, 0.008424493484199047, 0.037665076553821564, 0.10949214547872543, 0.025168433785438538, 0.12257140129804611, 0.011804861016571522, 0.005558891221880913, 0.0918365865945816, 0.012503418140113354, 0.013489808887243271, 0.03911823406815529, 0.11832574754953384, 0.025078391656279564, 0.010286146774888039, 0.09495274722576141], [0.0721871629357338, 0.11823247373104095, 0.009479525499045849, 0.027758443728089333, 0.017869791015982628, 0.023366207256913185, 0.005497363395988941, 0.014269687235355377, 0.1079157292842865, 0.016638536006212234, 0.10600977391004562, 0.007079306524246931, 0.011202128604054451, 0.09756947308778763, 0.01546430867165327, 0.012520168907940388, 0.008037854917347431, 0.11104472726583481, 0.02975161001086235, 0.008021912537515163, 0.18008384108543396], [0.05128543823957443, 0.14578045904636383, 0.0050180950202047825, 0.006789750419557095, 0.0020730234682559967, 0.01422792486846447, 0.0013963805977255106, 0.0049721477553248405, 0.1876714676618576, 0.024444710463285446, 0.141537144780159, 0.00374807883054018, 0.0017109866021201015, 0.14849762618541718, 0.00966846477240324, 0.008421003818511963, 0.004055032506585121, 0.18687526881694794, 0.024316027760505676, 0.0035313854459673166, 0.02397960051894188], [0.10760093480348587, 0.14466552436351776, 0.0039310879074037075, 0.019275959581136703, 0.004589029122143984, 0.009113986045122147, 0.0012173001887276769, 0.00576645927503705, 0.12209853529930115, 0.002630240051075816, 0.09498561173677444, 0.002626977162435651, 0.004412567708641291, 0.09868080914020538, 0.004322113934904337, 0.002883357461541891, 0.0038951823953539133, 0.12081034481525421, 0.012911255471408367, 0.0024942969903349876, 0.23108838498592377], [0.08110754936933517, 0.0863548293709755, 0.017422348260879517, 0.033131375908851624, 0.009038835763931274, 0.017261449247598648, 0.00846580695360899, 0.01040696818381548, 0.12912289798259735, 0.03412964195013046, 0.08610432595014572, 0.015727778896689415, 0.009220676496624947, 0.12614771723747253, 0.03147054463624954, 0.007276343181729317, 0.013127216137945652, 0.1724003404378891, 0.020910201594233513, 0.009037917479872704, 0.08213527500629425], [0.09357845783233643, 0.09889743477106094, 0.01152064185589552, 0.009653960354626179, 0.009001231752336025, 0.009981046430766582, 0.005004190839827061, 0.004343228414654732, 0.14437253773212433, 0.00857492070645094, 0.09147965162992477, 0.012477689422667027, 0.009825889952480793, 0.1546558290719986, 0.009626960381865501, 0.003049165941774845, 0.004301857203245163, 0.1815394014120102, 0.04317634925246239, 0.008342704735696316, 0.08659688383340836], [0.08657947182655334, 0.08261376619338989, 0.01653943955898285, 0.03771905228495598, 0.010214808396995068, 0.021915042772889137, 0.006954149808734655, 0.015898464247584343, 0.12938685715198517, 0.026035593822598457, 0.09594520926475525, 0.01587936468422413, 0.010309445671737194, 0.12524491548538208, 0.026198048144578934, 0.008996671065688133, 0.016313258558511734, 0.16643133759498596, 0.02243586629629135, 0.010540635325014591, 0.0678485706448555], [0.02447652444243431, 0.1003575474023819, 0.007619068957865238, 0.03358951210975647, 0.016427893191576004, 0.04230359196662903, 0.008624210953712463, 0.017451411113142967, 0.09907315671443939, 0.02217068336904049, 0.09736467897891998, 0.008592572994530201, 0.010585052892565727, 0.12331676483154297, 0.0035222237929701805, 0.008956710807979107, 0.007442138623446226, 0.15633228421211243, 0.017930936068296432, 0.006360564846545458, 0.18750247359275818], [0.05445605888962746, 0.094492606818676, 0.0066904304549098015, 0.005866925697773695, 0.007175900042057037, 0.041768450289964676, 0.003225571010261774, 0.017457837238907814, 0.14838680624961853, 0.01456438098102808, 0.15002183616161346, 0.00784359872341156, 0.0065785907208919525, 0.1386454701423645, 0.007314126938581467, 0.007754542864859104, 0.01903424970805645, 0.17345069348812103, 0.018291976302862167, 0.006992453243583441, 0.06998751312494278], [0.08475237339735031, 0.06803993880748749, 0.015683814883232117, 0.036392685025930405, 0.009299770928919315, 0.021052377298474312, 0.007393736857920885, 0.010462387464940548, 0.1276400089263916, 0.03785433620214462, 0.09079030901193619, 0.017314480617642403, 0.009335334412753582, 0.12571552395820618, 0.029416479170322418, 0.006701250560581684, 0.013303561136126518, 0.1773519366979599, 0.029115531593561172, 0.009317570365965366, 0.07306661456823349], [0.08158998191356659, 0.1347290575504303, 0.0055708265863358974, 0.005037135444581509, 0.0021431217901408672, 0.007020975463092327, 0.0021137972362339497, 0.003509573871269822, 0.15488870441913605, 0.00610087625682354, 0.13042214512825012, 0.006627674680203199, 0.0030230586417019367, 0.1778794229030609, 0.0013602940598502755, 0.003395720152184367, 0.004755114670842886, 0.16905535757541656, 0.0739167183637619, 0.0031434823758900166, 0.023716971278190613], [0.14610354602336884, 0.07966575026512146, 0.012799969874322414, 0.008797744289040565, 0.007944506593048573, 0.013978110626339912, 0.0022643280681222677, 0.005702692084014416, 0.1667022705078125, 0.011691628955304623, 0.12392230331897736, 0.013086060993373394, 0.007811384275555611, 0.14427398145198822, 0.010458871722221375, 0.006178635638207197, 0.006873609963804483, 0.17309072613716125, 0.02100769244134426, 0.005484790075570345, 0.03216137737035751], [0.14379660785198212, 0.12705305218696594, 0.005661860574036837, 0.006997961550951004, 0.01256717648357153, 0.01952000893652439, 0.0015896273544058204, 0.003005502512678504, 0.13014063239097595, 0.002647046698257327, 0.09725671261548996, 0.005534646101295948, 0.01067153736948967, 0.15024863183498383, 0.0049798921681940556, 0.005788617301732302, 0.0018798343371599913, 0.1376514583826065, 0.008034895174205303, 0.00370737724006176, 0.12126696109771729], [0.07697135955095291, 0.08233193308115005, 0.017995549365878105, 0.04565422609448433, 0.010727797634899616, 0.018318288028240204, 0.010534700937569141, 0.010866688564419746, 0.12866589426994324, 0.04280983656644821, 0.08345551043748856, 0.018830081447958946, 0.011795690283179283, 0.12495609372854233, 0.029957415536046028, 0.00904687400907278, 0.014059726148843765, 0.1649671494960785, 0.02981978841125965, 0.011510281823575497, 0.05672505870461464], [0.14830410480499268, 0.09707547724246979, 0.020026177167892456, 0.005786038935184479, 0.007069002836942673, 0.014368271455168724, 0.020158294588327408, 0.00788870733231306, 0.14066936075687408, 0.013461621478199959, 0.07784280925989151, 0.014224277809262276, 0.008739401586353779, 0.13307972252368927, 0.04127127304673195, 0.006557214539498091, 0.012602590955793858, 0.17827260494232178, 0.0057087852619588375, 0.018561169505119324, 0.028333185240626335], [0.06250979751348495, 0.14199407398700714, 0.012219356372952461, 0.02109641209244728, 0.0069204713217914104, 0.011845747008919716, 0.002981179393827915, 0.008290477097034454, 0.14069323241710663, 0.010543064214289188, 0.10476735234260559, 0.009250977076590061, 0.007123252376914024, 0.13842476904392242, 0.014057561755180359, 0.00441014813259244, 0.006076791323721409, 0.1497139036655426, 0.03619377315044403, 0.008835523389279842, 0.10205218195915222], [0.14944642782211304, 0.11831730604171753, 0.0485934354364872, 0.012011060491204262, 0.016597341746091843, 0.00830896757543087, 0.01678355038166046, 0.015572741627693176, 0.09126012772321701, 0.04042070358991623, 0.0748743787407875, 0.02911466546356678, 0.015107163228094578, 0.08480318635702133, 0.043342847377061844, 0.012624457478523254, 0.033184632658958435, 0.0854448676109314, 0.055664125829935074, 0.01140453852713108, 0.03712337464094162]], [[0.32554396986961365, 0.03905080258846283, 0.03749297186732292, 0.04672529175877571, 0.018929054960608482, 0.006416020914912224, 0.030662627890706062, 0.00962753314524889, 0.0386061817407608, 0.030250130221247673, 0.02950727939605713, 0.021139711141586304, 0.021494852378964424, 0.0352364219725132, 0.05836188793182373, 0.0150900362059474, 0.010642966255545616, 0.0407995767891407, 0.11185307055711746, 0.012112618423998356, 0.06045689061284065], [0.11485862731933594, 0.07822322845458984, 0.03676325082778931, 0.06313275545835495, 0.037097908556461334, 0.03938654065132141, 0.027382468804717064, 0.039249397814273834, 0.05173563212156296, 0.0333457849919796, 0.048340585082769394, 0.025257142260670662, 0.03296329826116562, 0.06118233501911163, 0.06596449017524719, 0.029114482924342155, 0.034594591706991196, 0.052754778414964676, 0.045963454991579056, 0.01796862483024597, 0.06472060829401016], [0.037044424563646317, 0.09031128883361816, 0.03616567328572273, 0.05758262425661087, 0.05092976987361908, 0.04845922440290451, 0.06709771603345871, 0.030048785731196404, 0.06694070249795914, 0.08684787154197693, 0.04819226637482643, 0.03650277107954025, 0.048733871430158615, 0.07957621663808823, 0.032077182084321976, 0.0134096285328269, 0.014859008602797985, 0.0737520083785057, 0.015057610347867012, 0.013913375325500965, 0.0524979867041111], [0.1102801263332367, 0.08361227810382843, 0.009711461141705513, 0.04955149069428444, 0.018810592591762543, 0.024434272199869156, 0.022697756066918373, 0.06826949864625931, 0.06549780815839767, 0.029642287641763687, 0.05175943300127983, 0.00686946976929903, 0.029427172616124153, 0.08654405921697617, 0.02690860815346241, 0.025166185572743416, 0.06906300783157349, 0.08619681000709534, 0.03606101870536804, 0.016979247331619263, 0.08251740783452988], [0.00934294518083334, 0.08292775601148605, 0.004330798517912626, 0.020051605999469757, 0.009855103679001331, 0.01911112293601036, 0.01677551120519638, 0.019463542848825455, 0.1143384575843811, 0.030776750296354294, 0.07214837521314621, 0.006724967621266842, 0.007768756709992886, 0.2462758868932724, 0.023870475590229034, 0.007741106674075127, 0.01989792473614216, 0.20528662204742432, 0.0518965944647789, 0.011120078153908253, 0.02029559761285782], [0.023035340011119843, 0.0816817581653595, 0.005556147079914808, 0.022593673318624496, 0.017006443813443184, 0.0070241536013782024, 0.011451923288404942, 0.021814579144120216, 0.11122781038284302, 0.028675759211182594, 0.057166218757629395, 0.004428270272910595, 0.01581280492246151, 0.15240302681922913, 0.05977906659245491, 0.013838128186762333, 0.02611421048641205, 0.17520752549171448, 0.09142818301916122, 0.012744531035423279, 0.06101042404770851], [0.0083890026435256, 0.08650625497102737, 0.0016002380289137363, 0.009009703993797302, 0.002726501552388072, 0.0068059926852583885, 0.004834531340748072, 0.003355340100824833, 0.15300744771957397, 0.028054295107722282, 0.11805367469787598, 0.001390271121636033, 0.0030271185096353292, 0.20592260360717773, 0.013705655932426453, 0.0023332727141678333, 0.004170530941337347, 0.27349746227264404, 0.025592640042304993, 0.004731618799269199, 0.043285779654979706], [0.046818800270557404, 0.09744285047054291, 0.008103368803858757, 0.02240683138370514, 0.011388963088393211, 0.005477173253893852, 0.010949580930173397, 0.00684054521843791, 0.0979449450969696, 0.024386582896113396, 0.06510819494724274, 0.0055551473051309586, 0.010453477501869202, 0.16437813639640808, 0.08082607388496399, 0.002846830990165472, 0.012397273443639278, 0.19193747639656067, 0.06953777372837067, 0.006376384757459164, 0.05882364511489868], [0.05028299614787102, 0.11021856963634491, 0.01190153881907463, 0.037814561277627945, 0.02126479148864746, 0.0533880814909935, 0.01057332381606102, 0.02471992000937462, 0.10557481646537781, 0.009658819995820522, 0.1291610151529312, 0.01151637639850378, 0.026693476364016533, 0.15795502066612244, 0.01828121580183506, 0.024907512590289116, 0.018490135669708252, 0.11771240085363388, 0.007537081837654114, 0.013260439038276672, 0.039087794721126556], [0.0394214503467083, 0.0257300715893507, 0.04059562459588051, 0.00559244304895401, 0.023981502279639244, 0.007469070143997669, 0.20785194635391235, 0.006107580382376909, 0.035339996218681335, 0.09554058313369751, 0.014452710747718811, 0.04330291226506233, 0.03391842544078827, 0.03359268233180046, 0.024101637303829193, 0.0033483037259429693, 0.005090044811367989, 0.04444747790694237, 0.2100750356912613, 0.010165620595216751, 0.08987484872341156], [0.06813069432973862, 0.12467525154352188, 0.007937517948448658, 0.05778571963310242, 0.015515345148742199, 0.037504542618989944, 0.008267497643828392, 0.028286341577768326, 0.11412829905748367, 0.00673607736825943, 0.1112375482916832, 0.005080915987491608, 0.018710369244217873, 0.17924657464027405, 0.012604981660842896, 0.019509470090270042, 0.015730692073702812, 0.12092392891645432, 0.005556182004511356, 0.007417934946715832, 0.03501412272453308], [0.019196640700101852, 0.10392068326473236, 0.02980087697505951, 0.08037889748811722, 0.03852953761816025, 0.039825424551963806, 0.03868397697806358, 0.022227242588996887, 0.10272932052612305, 0.07357591390609741, 0.06377405673265457, 0.02095028944313526, 0.03922635689377785, 0.1241554245352745, 0.01708742417395115, 0.010182926431298256, 0.008315113373100758, 0.10591576993465424, 0.009479496628046036, 0.011347717605531216, 0.040696799755096436], [0.009152504615485668, 0.05428983271121979, 0.010745789855718613, 0.02884684130549431, 0.02578706108033657, 0.028790561482310295, 0.029936296865344048, 0.011815846897661686, 0.08980725705623627, 0.07589647173881531, 0.04877936467528343, 0.018145287409424782, 0.01901407726109028, 0.15605421364307404, 0.030971329659223557, 0.010541035793721676, 0.018310360610485077, 0.152430459856987, 0.12985840439796448, 0.01905163563787937, 0.03177538886666298], [0.03177822008728981, 0.08820531517267227, 0.014087005518376827, 0.037761103361845016, 0.03145362436771393, 0.06518982350826263, 0.013421153649687767, 0.03384615108370781, 0.09591984748840332, 0.020320948213338852, 0.12258034199476242, 0.015949679538607597, 0.035409972071647644, 0.11381823569536209, 0.02310359477996826, 0.04688470438122749, 0.03053002804517746, 0.10423953086137772, 0.011057768948376179, 0.02536618709564209, 0.0390767864882946], [0.04230456054210663, 0.04057471454143524, 0.019529426470398903, 0.08099770545959473, 0.024630701169371605, 0.0100614745169878, 0.05917133018374443, 0.023409662768244743, 0.04056328535079956, 0.10114256292581558, 0.027572451159358025, 0.016828350722789764, 0.03243052214384079, 0.04947924613952637, 0.09249690920114517, 0.023114362731575966, 0.04429866001009941, 0.06105585768818855, 0.11736202985048294, 0.026080409064888954, 0.06689579039812088], [0.061223581433296204, 0.07222411781549454, 0.004944085143506527, 0.07004888355731964, 0.019863571971654892, 0.011421243660151958, 0.0026381933130323887, 0.03822096437215805, 0.08675027638673782, 0.009202998131513596, 0.07109181582927704, 0.0032563440036028624, 0.01988125406205654, 0.16740018129348755, 0.042518798261880875, 0.011800975538790226, 0.03925122320652008, 0.15293875336647034, 0.02286525070667267, 0.007967626675963402, 0.08448980748653412], [0.024707792326807976, 0.08193880319595337, 0.01889348030090332, 0.03634804114699364, 0.044008441269397736, 0.015481216832995415, 0.014596443623304367, 0.02168770134449005, 0.07494982331991196, 0.01799025945365429, 0.04107991233468056, 0.008145139552652836, 0.036276355385780334, 0.11652875691652298, 0.09264569729566574, 0.010562905110418797, 0.018633464351296425, 0.10352139174938202, 0.12222740799188614, 0.014971801079809666, 0.08480513095855713], [0.034529075026512146, 0.10087576508522034, 0.012738365679979324, 0.058401595801115036, 0.026195239275693893, 0.062203627079725266, 0.011186149902641773, 0.03252111375331879, 0.10533801466226578, 0.011239081621170044, 0.13687317073345184, 0.011876516975462437, 0.030259456485509872, 0.13631634414196014, 0.017712198197841644, 0.04462723433971405, 0.01998111791908741, 0.09266189485788345, 0.006413684692233801, 0.02034214697778225, 0.027708228677511215], [0.011339983902871609, 0.01385534554719925, 0.015909511595964432, 0.020048867911100388, 0.07933247834444046, 0.00914002861827612, 0.0732247531414032, 0.006188099272549152, 0.014046651311218739, 0.14308999478816986, 0.0044821868650615215, 0.01462197583168745, 0.06030432879924774, 0.011981463059782982, 0.17011849582195282, 0.010724319145083427, 0.00919068418443203, 0.02109113521873951, 0.21258269250392914, 0.01646600291132927, 0.08226103335618973], [0.0749523937702179, 0.07774956524372101, 0.0274933110922575, 0.01444354560226202, 0.010388932190835476, 0.005823092069476843, 0.021889938041567802, 0.016182435676455498, 0.08022916316986084, 0.03299974277615547, 0.04092143848538399, 0.013788021169602871, 0.016525423154234886, 0.08773528039455414, 0.10109502822160721, 0.0031240491662174463, 0.015182937495410442, 0.1254364401102066, 0.04572960361838341, 0.006748851854354143, 0.18156076967716217], [0.23060239851474762, 0.07695938646793365, 0.0389971099793911, 0.03665776923298836, 0.010663393884897232, 0.002933913143351674, 0.02856348641216755, 0.012188699096441269, 0.03959635645151138, 0.030175479128956795, 0.015147827565670013, 0.007465943228453398, 0.012305445969104767, 0.0334545262157917, 0.07195964455604553, 0.0023452676832675934, 0.008110297843813896, 0.03965403884649277, 0.1308416873216629, 0.004382036160677671, 0.16699524223804474]], [[0.7260777354240417, 0.004067948088049889, 0.008791336789727211, 0.01276595238596201, 0.003554442198947072, 0.005082220304757357, 0.007730007637292147, 0.006270855199545622, 0.013916103169322014, 0.02088337577879429, 0.00905842985957861, 0.014820129610598087, 0.0095403753221035, 0.015900300815701485, 0.009620985016226768, 0.0062869093380868435, 0.028332769870758057, 0.021973373368382454, 0.06337146461009979, 0.00858217477798462, 0.0033730247523635626], [0.01827806606888771, 0.07301466912031174, 0.02806493639945984, 0.026624569669365883, 0.022391529753804207, 0.02573251537978649, 0.016559019684791565, 0.019719723612070084, 0.1005910187959671, 0.04266206547617912, 0.08006326854228973, 0.027354849502444267, 0.034509070217609406, 0.10677601397037506, 0.0519288070499897, 0.013826925307512283, 0.025682929903268814, 0.10793329775333405, 0.06041498854756355, 0.03567618876695633, 0.08219549059867859], [0.019299937412142754, 0.055247336626052856, 0.015402156859636307, 0.03436114639043808, 0.03818761929869652, 0.058744337409734726, 0.023288801312446594, 0.02776394970715046, 0.04754800349473953, 0.09025207906961441, 0.04073144495487213, 0.01225774735212326, 0.028974860906600952, 0.046913839876651764, 0.03989120200276375, 0.01048390194773674, 0.011949820443987846, 0.04118158295750618, 0.06555897742509842, 0.033068012446165085, 0.2588932514190674], [0.012724349275231361, 0.029173968359827995, 0.026173245161771774, 0.05556989088654518, 0.030984578654170036, 0.03651711717247963, 0.04888785257935524, 0.02700250782072544, 0.030614465475082397, 0.06773019582033157, 0.02796541526913643, 0.021107850596308708, 0.04176904261112213, 0.03126449137926102, 0.1028810665011406, 0.013222118839621544, 0.03067202866077423, 0.032683100551366806, 0.0875992551445961, 0.03966053947806358, 0.20579686760902405], [0.0046979389153420925, 0.02847173810005188, 0.030434196814894676, 0.018809819594025612, 0.028864726424217224, 0.0518905408680439, 0.08059805631637573, 0.015482335351407528, 0.03601197898387909, 0.12376059591770172, 0.035121165215969086, 0.03287822753190994, 0.0420319065451622, 0.03171061351895332, 0.027144301682710648, 0.018677176907658577, 0.015746477991342545, 0.03171882778406143, 0.07970591634511948, 0.05633622035384178, 0.20990735292434692], [0.011920341290533543, 0.030431117862462997, 0.035702601075172424, 0.09311193227767944, 0.058147698640823364, 0.03198247030377388, 0.03263380378484726, 0.06232127919793129, 0.0407530777156353, 0.03155704587697983, 0.04304399713873863, 0.03043254092335701, 0.06336631625890732, 0.039961863309144974, 0.07172650098800659, 0.020807785913348198, 0.06393064558506012, 0.04583706706762314, 0.05593281239271164, 0.061555106192827225, 0.07484405487775803], [0.028243277221918106, 0.08863598108291626, 0.05987507104873657, 0.013286752626299858, 0.0346890352666378, 0.015555452555418015, 0.028171123936772346, 0.036470189690589905, 0.1122245192527771, 0.04756571352481842, 0.08167850971221924, 0.02881728485226631, 0.026116274297237396, 0.10451872646808624, 0.03135531395673752, 0.01378137432038784, 0.029551800340414047, 0.11479349434375763, 0.02783218026161194, 0.017546173185110092, 0.0592917837202549], [0.016088265925645828, 0.034737564623355865, 0.021598218008875847, 0.04230767488479614, 0.016099853441119194, 0.027239175513386726, 0.016735780984163284, 0.02850501984357834, 0.04988652467727661, 0.047904107719659805, 0.03168713301420212, 0.013733013533055782, 0.013375415466725826, 0.042645640671253204, 0.04139671474695206, 0.01119843777269125, 0.036257073283195496, 0.05676892027258873, 0.11345772445201874, 0.05952717736363411, 0.2788505554199219], [0.03096872754395008, 0.09144797921180725, 0.02218702621757984, 0.019817164167761803, 0.020270701497793198, 0.01903332583606243, 0.008675585500895977, 0.013715028762817383, 0.13856758177280426, 0.020054206252098083, 0.09334748983383179, 0.016115376725792885, 0.030392225831747055, 0.1437719315290451, 0.03360249102115631, 0.012470042333006859, 0.019700229167938232, 0.15784946084022522, 0.030766312032938004, 0.026823779568076134, 0.05042329058051109], [0.02940264157950878, 0.049225084483623505, 0.04205765947699547, 0.01391659677028656, 0.04728889465332031, 0.01780075952410698, 0.01753505878150463, 0.014177404344081879, 0.04516282677650452, 0.041622478514909744, 0.024068057537078857, 0.02240902930498123, 0.038297854363918304, 0.03943614661693573, 0.019806530326604843, 0.006555968429893255, 0.026702135801315308, 0.05912681296467781, 0.08311239629983902, 0.024125417694449425, 0.33817026019096375], [0.017847249284386635, 0.0779762864112854, 0.02040012925863266, 0.028098521754145622, 0.026548637077212334, 0.028560910373926163, 0.009850426577031612, 0.018954403698444366, 0.12348469346761703, 0.01829381473362446, 0.09826571494340897, 0.01597035862505436, 0.038236524909734726, 0.12833988666534424, 0.04584218189120293, 0.014659611508250237, 0.022531500086188316, 0.13057461380958557, 0.0354619175195694, 0.03896087035536766, 0.06114165112376213], [0.02121347188949585, 0.05259525775909424, 0.017628472298383713, 0.028447745367884636, 0.049223363399505615, 0.053076934069395065, 0.01615806296467781, 0.02837431989610195, 0.03981050103902817, 0.08689330518245697, 0.032144464552402496, 0.011226994916796684, 0.02857576124370098, 0.03728995844721794, 0.03359421715140343, 0.007748048286885023, 0.010298026725649834, 0.03437269479036331, 0.057142291218042374, 0.026567846536636353, 0.327618271112442], [0.016605645418167114, 0.032288674265146255, 0.04465138167142868, 0.01759643666446209, 0.03693665191531181, 0.030531443655490875, 0.04520764574408531, 0.016558000817894936, 0.02872324362397194, 0.08897679299116135, 0.022466672584414482, 0.03664945438504219, 0.03174503520131111, 0.022474613040685654, 0.015789706259965897, 0.011751619167625904, 0.02089514769613743, 0.030589958652853966, 0.08297059684991837, 0.03607330471277237, 0.3305179476737976], [0.03371080011129379, 0.09012456238269806, 0.023697789758443832, 0.022276215255260468, 0.023632682859897614, 0.019552480429410934, 0.00873524509370327, 0.01645749993622303, 0.1335601955652237, 0.019362282007932663, 0.09181685000658035, 0.016581589356064796, 0.03445030748844147, 0.13888360559940338, 0.031564634293317795, 0.012475072406232357, 0.022663278505206108, 0.15396052598953247, 0.030782083049416542, 0.028306549414992332, 0.04740571230649948], [0.020900828763842583, 0.05057197064161301, 0.03477909788489342, 0.0450720340013504, 0.04074075073003769, 0.036023154854774475, 0.026437057182192802, 0.028040237724781036, 0.057558897882699966, 0.0853845551609993, 0.04553092271089554, 0.026954637840390205, 0.029388492926955223, 0.0560486800968647, 0.07185405492782593, 0.027181167155504227, 0.07229176163673401, 0.05793466418981552, 0.04928668960928917, 0.024466024711728096, 0.11355417221784592], [0.04854711517691612, 0.04360101372003555, 0.04102100804448128, 0.04968416690826416, 0.043782152235507965, 0.029437657445669174, 0.01093000452965498, 0.04549206793308258, 0.06483392417430878, 0.020765161141753197, 0.04704156517982483, 0.023183075711131096, 0.029670927673578262, 0.06345298886299133, 0.10787779837846756, 0.030267000198364258, 0.09574968367815018, 0.08755777776241302, 0.02250821888446808, 0.03292084485292435, 0.0616757869720459], [0.022113988175988197, 0.04026873782277107, 0.02620074898004532, 0.04967590421438217, 0.031983423978090286, 0.038558848202228546, 0.0176292322576046, 0.017306707799434662, 0.0595044381916523, 0.0711229220032692, 0.03980617597699165, 0.017823467031121254, 0.026583388447761536, 0.06071776896715164, 0.06219106167554855, 0.01613364927470684, 0.031112972646951675, 0.07273350656032562, 0.07769490778446198, 0.05736236274242401, 0.1634756624698639], [0.022506829351186752, 0.07971766591072083, 0.01762123964726925, 0.018287189304828644, 0.01963861845433712, 0.01737569086253643, 0.006131818052381277, 0.01210280042141676, 0.15762008726596832, 0.011642257682979107, 0.11609556525945663, 0.014323229901492596, 0.03538037836551666, 0.1779220551252365, 0.026234421879053116, 0.012250177562236786, 0.017505373805761337, 0.17429783940315247, 0.019477568566799164, 0.02760261483490467, 0.016266556456685066], [0.11509637534618378, 0.06641000509262085, 0.08997693657875061, 0.01398989837616682, 0.017525235190987587, 0.012483391910791397, 0.05169643834233284, 0.007723299786448479, 0.07750343531370163, 0.048659563064575195, 0.03835760056972504, 0.04328262805938721, 0.02403201349079609, 0.07601844519376755, 0.033714860677719116, 0.01998928375542164, 0.03307749330997467, 0.09933903813362122, 0.029609831050038338, 0.028341665863990784, 0.07317254692316055], [0.026411548256874084, 0.06078200787305832, 0.024346962571144104, 0.027201248332858086, 0.016873423010110855, 0.014547801576554775, 0.014531291089951992, 0.020142732188105583, 0.07318926602602005, 0.02909151092171669, 0.04691203683614731, 0.016903791576623917, 0.027165066450834274, 0.0680471807718277, 0.0334259495139122, 0.012989101931452751, 0.03999291732907295, 0.07691775262355804, 0.08195767551660538, 0.031973160803318024, 0.25659748911857605], [0.015833817422389984, 0.031147386878728867, 0.02548249624669552, 0.02931990474462509, 0.02559281326830387, 0.014386371709406376, 0.03613223880529404, 0.013795972801744938, 0.03127032890915871, 0.09295687824487686, 0.03028479404747486, 0.03975759819149971, 0.05097092315554619, 0.03227893263101578, 0.09817662835121155, 0.006858399137854576, 0.034445635974407196, 0.027946224436163902, 0.1691056340932846, 0.0386752225458622, 0.1555817872285843]], [[0.005420949310064316, 0.11251524835824966, 0.02779531292617321, 0.0014627317432314157, 0.0014497439842671156, 0.00019419311138335615, 0.008132664486765862, 0.0011716376757249236, 0.009564702399075031, 0.021627476438879967, 0.0078055597841739655, 0.007999030873179436, 0.011596071533858776, 0.011033537797629833, 0.002725947881117463, 0.0004331596428528428, 0.0011371816508471966, 0.007738939486443996, 0.0038261949084699154, 0.00026491234893910587, 0.7561048269271851], [0.020676610991358757, 0.1403883397579193, 0.022672481834888458, 0.010137710720300674, 0.01180833950638771, 0.009240600280463696, 0.010635657235980034, 0.006820633541792631, 0.1611500084400177, 0.01738886348903179, 0.11905381083488464, 0.01293325424194336, 0.015105950646102428, 0.17619763314723969, 0.004076932556927204, 0.0036286364775151014, 0.007282254286110401, 0.15360523760318756, 0.010365036316215992, 0.005547845270484686, 0.08128417283296585], [0.056131891906261444, 0.12888871133327484, 0.03622101992368698, 0.024837031960487366, 0.06698509305715561, 0.051835399121046066, 0.016052354127168655, 0.0295062568038702, 0.10257188230752945, 0.021967275068163872, 0.07255089282989502, 0.016365589573979378, 0.03669736161828041, 0.1083429753780365, 0.002781872171908617, 0.01524983998388052, 0.01633589155972004, 0.10410571098327637, 0.010269024409353733, 0.02043900266289711, 0.06186486780643463], [0.01715124398469925, 0.09252399206161499, 0.023738514631986618, 0.09500566124916077, 0.06114945188164711, 0.030758924782276154, 0.0066200862638652325, 0.0328955352306366, 0.11772948503494263, 0.008342452347278595, 0.10776376724243164, 0.017950283363461494, 0.05757136270403862, 0.1139833927154541, 0.006193538662046194, 0.014947385527193546, 0.017228998243808746, 0.06853151321411133, 0.018253523856401443, 0.013523124158382416, 0.07813773304224014], [0.021869415417313576, 0.05638014152646065, 0.022929439321160316, 0.035119690001010895, 0.0942138284444809, 0.09465349465608597, 0.0041282521560788155, 0.06456737220287323, 0.13119734823703766, 0.004813677165657282, 0.09462282806634903, 0.014792373403906822, 0.047932591289281845, 0.13068467378616333, 0.001968222903087735, 0.017461931332945824, 0.015607459470629692, 0.09647184610366821, 0.0071112001314759254, 0.023180576041340828, 0.020293666049838066], [0.04169075936079025, 0.06262936443090439, 0.02665845677256584, 0.016856910660862923, 0.13083228468894958, 0.04323498159646988, 0.026642348617315292, 0.03097333200275898, 0.12562774121761322, 0.016252871602773666, 0.07423461973667145, 0.017028525471687317, 0.08389686048030853, 0.11315830051898956, 0.003586195409297943, 0.0135013023391366, 0.013956580311059952, 0.0982842743396759, 0.016375834122300148, 0.01501862145960331, 0.0295597855001688], [0.018169837072491646, 0.07535859197378159, 0.025625403970479965, 0.0028858876321464777, 0.008912160992622375, 0.008320740424096584, 0.029248224571347237, 0.008687563240528107, 0.15705275535583496, 0.07540614902973175, 0.07997936755418777, 0.019071247428655624, 0.009379123337566853, 0.15871401131153107, 0.005271826405078173, 0.006781963165849447, 0.009956030175089836, 0.17853853106498718, 0.027700359001755714, 0.012859699316322803, 0.08208056539297104], [0.021960947662591934, 0.06004633754491806, 0.01188723649829626, 0.015287062153220177, 0.08074731379747391, 0.03567936643958092, 0.0019942799117416143, 0.029804866760969162, 0.16692718863487244, 0.0022120405919849873, 0.11454791575670242, 0.01316834706813097, 0.06972729414701462, 0.16833359003067017, 0.0004923250526189804, 0.0067380391992628574, 0.006439542397856712, 0.12815429270267487, 0.003760166699066758, 0.02012438140809536, 0.041967470198869705], [0.017639998346567154, 0.11109744757413864, 0.02917979471385479, 0.005552235990762711, 0.0080330865457654, 0.006724254228174686, 0.017572980374097824, 0.005341370590031147, 0.16167747974395752, 0.033659037202596664, 0.12321846932172775, 0.021448660641908646, 0.015940245240926743, 0.16271652281284332, 0.008160951547324657, 0.003508978057652712, 0.006508145481348038, 0.14823001623153687, 0.016696970909833908, 0.0063015068881213665, 0.0907917395234108], [0.03204604238271713, 0.1019960567355156, 0.013065890409052372, 0.007546518463641405, 0.01669941283762455, 0.01032568421214819, 0.007130159996449947, 0.010209329426288605, 0.1671401560306549, 0.016069496050477028, 0.10745541006326675, 0.012370946817100048, 0.015247819013893604, 0.1565355509519577, 0.000841203611344099, 0.005625245161354542, 0.004589805379509926, 0.15377919375896454, 0.003061464987695217, 0.00762323709204793, 0.1506413370370865], [0.018298855051398277, 0.09477938711643219, 0.01920061558485031, 0.008571241050958633, 0.009445571340620518, 0.008609984070062637, 0.014764671213924885, 0.0065775406546890736, 0.16466763615608215, 0.02744518592953682, 0.14227338135242462, 0.019215498119592667, 0.02268872782588005, 0.16845136880874634, 0.011909064836800098, 0.004146070219576359, 0.006943189073354006, 0.12992644309997559, 0.014048307202756405, 0.006070959847420454, 0.10196626931428909], [0.06696821749210358, 0.08318204432725906, 0.020238470286130905, 0.014192136004567146, 0.0530371367931366, 0.0480927899479866, 0.018918471410870552, 0.02398691512644291, 0.11581630259752274, 0.0224007498472929, 0.08736924082040787, 0.020181642845273018, 0.0670776218175888, 0.11994122713804245, 0.004495180211961269, 0.015082992613315582, 0.015137339942157269, 0.1048857718706131, 0.010804180055856705, 0.0205044224858284, 0.06768722832202911], [0.02330205589532852, 0.059445373713970184, 0.006693062838166952, 0.0067708357237279415, 0.041480161249637604, 0.06496544182300568, 0.004808442201465368, 0.02649616450071335, 0.1605863720178604, 0.00452853599563241, 0.14223572611808777, 0.009019339457154274, 0.0783107578754425, 0.16698221862316132, 0.001098405453376472, 0.009100171737372875, 0.010524477809667587, 0.11111274361610413, 0.0032399671617895365, 0.014706438407301903, 0.05459332466125488], [0.016612142324447632, 0.11662428826093674, 0.019610363990068436, 0.004203021060675383, 0.0066309357061982155, 0.004817456007003784, 0.012121749110519886, 0.003138418775051832, 0.1676856428384781, 0.021326426416635513, 0.12800374627113342, 0.01632956601679325, 0.01591557450592518, 0.19758982956409454, 0.005727261770516634, 0.0034996538888663054, 0.004817561712116003, 0.16601654887199402, 0.008894603699445724, 0.004630651790648699, 0.0758046805858612], [0.05200543627142906, 0.09743557870388031, 0.05096738040447235, 0.021077746525406837, 0.013688498176634312, 0.012117180973291397, 0.01846517249941826, 0.01116082351654768, 0.0942249447107315, 0.03737572580575943, 0.06847868859767914, 0.05003790557384491, 0.018400004133582115, 0.13397367298603058, 0.05383088067173958, 0.01720285788178444, 0.008699565194547176, 0.1174614354968071, 0.03518601134419441, 0.01568945124745369, 0.07252098619937897], [0.01661456562578678, 0.10319236665964127, 0.024405689910054207, 0.009484085254371166, 0.03373133763670921, 0.00990962516516447, 0.0022803018800914288, 0.021883873268961906, 0.14820897579193115, 0.007172741927206516, 0.08589480072259903, 0.016584431752562523, 0.030535070225596428, 0.18628275394439697, 0.00039791304152458906, 0.009308491833508015, 0.0074805342592298985, 0.2147853821516037, 0.0030474839732050896, 0.021935902535915375, 0.046863701194524765], [0.02752789855003357, 0.12106016278266907, 0.006622655317187309, 0.003421017900109291, 0.012029586359858513, 0.004289270844310522, 0.0015817064559087157, 0.005283861421048641, 0.14912275969982147, 0.0023648308124393225, 0.11200186610221863, 0.007326609920710325, 0.03889140114188194, 0.21468231081962585, 0.0008967071771621704, 0.004814053885638714, 0.004679386038333178, 0.16551151871681213, 0.002071254188194871, 0.004541830625385046, 0.11127925664186478], [0.01947101764380932, 0.10925915837287903, 0.04711954668164253, 0.004453557077795267, 0.003346474142745137, 0.0024681673385202885, 0.013362358324229717, 0.0033995644189417362, 0.12798842787742615, 0.03629210963845253, 0.09680242836475372, 0.03251250460743904, 0.009690999053418636, 0.17040181159973145, 0.022091234102845192, 0.003950444515794516, 0.008736238814890385, 0.2025681436061859, 0.02069666236639023, 0.008359062485396862, 0.05702999234199524], [0.024639535695314407, 0.07165887206792831, 0.0037257045041769743, 0.001477347337640822, 0.0054917605593800545, 0.005290376488119364, 0.00178511010017246, 0.0025458468589931726, 0.16855290532112122, 0.004610238131135702, 0.13044634461402893, 0.004629938397556543, 0.00922493264079094, 0.20211394131183624, 0.00022297677060123533, 0.0016108326381072402, 0.004063034895807505, 0.24923215806484222, 0.006307070609182119, 0.00663113035261631, 0.09574001282453537], [0.0213428046554327, 0.06591860949993134, 0.006226482801139355, 0.003717077197507024, 0.015748295933008194, 0.026894377544522285, 0.0044367676600813866, 0.004654756747186184, 0.16788272559642792, 0.0025509216357022524, 0.1386924684047699, 0.00733737088739872, 0.02658466063439846, 0.2173774242401123, 0.0007341271848417819, 0.0048641012981534, 0.00564670842140913, 0.2097618728876114, 0.004406795836985111, 0.018459783867001534, 0.04676197096705437], [0.044924069195985794, 0.06507821381092072, 0.011283157393336296, 0.003696925938129425, 0.017164943739771843, 0.010440838523209095, 0.01911480352282524, 0.00469583086669445, 0.11367295682430267, 0.012508250772953033, 0.09125947207212448, 0.017321377992630005, 0.07371174544095993, 0.15183411538600922, 0.020987259224057198, 0.006118789780884981, 0.011926506645977497, 0.14127252995967865, 0.021355699747800827, 0.007931210100650787, 0.1537013053894043]], [[0.5511330962181091, 0.022068476304411888, 0.0047568874433636665, 0.009917126968502998, 0.00732964463531971, 0.003829525550827384, 0.004341324791312218, 0.006262651644647121, 0.07697860151529312, 0.00693114148452878, 0.05381152406334877, 0.007726593874394894, 0.011875975877046585, 0.0784684419631958, 0.002370027592405677, 0.0037001180462539196, 0.013894425705075264, 0.09986279904842377, 0.00829602126032114, 0.0048316665925085545, 0.02161400578916073], [0.014705889858305454, 0.12571382522583008, 0.016212595626711845, 0.03538667410612106, 0.030413247644901276, 0.018404824659228325, 0.015085852704942226, 0.0283762589097023, 0.13363365828990936, 0.014867082238197327, 0.12890082597732544, 0.011224566027522087, 0.02144891582429409, 0.1556260734796524, 0.01575825735926628, 0.016540134325623512, 0.019427789375185966, 0.14748622477054596, 0.008745296858251095, 0.008965798653662205, 0.03307615965604782], [0.013214531354606152, 0.15095268189907074, 0.00651985127478838, 0.17396043241024017, 0.030456790700554848, 0.020778879523277283, 0.05037667974829674, 0.01288917101919651, 0.08311247080564499, 0.029619630426168442, 0.13650579750537872, 0.0040430850349366665, 0.011690647341310978, 0.09412125498056412, 0.011049224995076656, 0.009841801598668098, 0.012412462383508682, 0.11868802458047867, 0.003273867769166827, 0.0026129973120987415, 0.023879678919911385], [0.008710498921573162, 0.21225059032440186, 0.03188931569457054, 0.02672402560710907, 0.02219630964100361, 0.015650905668735504, 0.027811285108327866, 0.031072931364178658, 0.13123878836631775, 0.017161739990115166, 0.08642186224460602, 0.007987337186932564, 0.015595432370901108, 0.13275891542434692, 0.018630390986800194, 0.006323202978819609, 0.01564987562596798, 0.1403317004442215, 0.004963625222444534, 0.008174767717719078, 0.03845652937889099], [0.015699846670031548, 0.2735695540904999, 0.030169423669576645, 0.0953272208571434, 0.0073211598210036755, 0.04868859052658081, 0.01600935123860836, 0.012078214436769485, 0.12523308396339417, 0.009473900310695171, 0.13929212093353271, 0.011326081119477749, 0.0015258818166330457, 0.07375676929950714, 0.014932765625417233, 0.002817461034283042, 0.0019198806257918477, 0.09737186133861542, 0.0023632089141756296, 0.0044653103686869144, 0.016658389940857887], [0.006434348411858082, 0.15129035711288452, 0.005613741930574179, 0.24262388050556183, 0.03757259249687195, 0.0017863493412733078, 0.004300118889659643, 0.0034841543529182673, 0.11448489129543304, 0.018406996503472328, 0.13128824532032013, 0.0020827397238463163, 0.0070129455998539925, 0.12336919456720352, 0.0031853823456913233, 0.001705354661680758, 0.0032398707699030638, 0.12369275093078613, 0.001260396558791399, 0.002661501755937934, 0.014504232443869114], [0.009496929123997688, 0.1161525771021843, 0.008126191794872284, 0.02327968180179596, 0.02263004705309868, 0.005311944521963596, 0.006635809782892466, 0.00572176231071353, 0.20610587298870087, 0.03756824880838394, 0.11348798125982285, 0.0030718969646841288, 0.01394602283835411, 0.2206583023071289, 0.019453100860118866, 0.0020628725178539753, 0.0034298666287213564, 0.12319755554199219, 0.006369850132614374, 0.0035118297673761845, 0.04978158324956894], [0.005327009595930576, 0.08534321933984756, 0.029975535348057747, 0.12385396659374237, 0.159026637673378, 0.04068833217024803, 0.19480091333389282, 0.006448045372962952, 0.05683143436908722, 0.015615291893482208, 0.05188911408185959, 0.011885272338986397, 0.02814481593668461, 0.08149547129869461, 0.025442082434892654, 0.004225654993206263, 0.0017841114895418286, 0.038911622017621994, 0.008892888203263283, 0.0020059782546013594, 0.027412619441747665], [0.0267852284014225, 0.12153510004281998, 0.029311005026102066, 0.023423071950674057, 0.040986448526382446, 0.03408896178007126, 0.03044794872403145, 0.03371637687087059, 0.13298307359218597, 0.03229168429970741, 0.11489257961511612, 0.018006013706326485, 0.022505860775709152, 0.14731723070144653, 0.014650298282504082, 0.01180131733417511, 0.010284250602126122, 0.10108500719070435, 0.010879295878112316, 0.014862732030451298, 0.02814645878970623], [0.01433603372424841, 0.08713492006063461, 0.020255615934729576, 0.012850155122578144, 0.02778894640505314, 0.0233449749648571, 0.13418042659759521, 0.03513665124773979, 0.17682813107967377, 0.010006356053054333, 0.09997328370809555, 0.015058059245347977, 0.030908845365047455, 0.1657760739326477, 0.013926016166806221, 0.004401338752359152, 0.0059198481030762196, 0.08258496224880219, 0.0036159513983875513, 0.005298844538629055, 0.030674468725919724], [0.022869860753417015, 0.1257571578025818, 0.024567190557718277, 0.018813423812389374, 0.02919669821858406, 0.03625621274113655, 0.026391485705971718, 0.048159558326005936, 0.1719272881746292, 0.03824666514992714, 0.12144991755485535, 0.01350379642099142, 0.019898802042007446, 0.14102984964847565, 0.011146857403218746, 0.011264572851359844, 0.012147994711995125, 0.08750839531421661, 0.005668391939252615, 0.009580912068486214, 0.024614963680505753], [0.01765631139278412, 0.08764531463384628, 0.01092675980180502, 0.10609834641218185, 0.03473358973860741, 0.05742834508419037, 0.08978191763162613, 0.025248322635889053, 0.08682714402675629, 0.13430102169513702, 0.11582065373659134, 0.010312305763363838, 0.022650327533483505, 0.06316784024238586, 0.01795986294746399, 0.011262359097599983, 0.012801448814570904, 0.05216839164495468, 0.0035748903173953295, 0.004286016337573528, 0.03534886613488197], [0.02011317014694214, 0.043272435665130615, 0.049275558441877365, 0.021782996132969856, 0.004299108870327473, 0.058797307312488556, 0.03574378043413162, 0.02140081487596035, 0.04517197608947754, 0.23384518921375275, 0.07898113131523132, 0.23623913526535034, 0.005774711724370718, 0.020470917224884033, 0.06924325227737427, 0.003765660570934415, 0.0033978018909692764, 0.01617369055747986, 0.010906634852290154, 0.0074134403839707375, 0.013931228779256344], [0.03359810635447502, 0.08148683607578278, 0.019567837938666344, 0.018848316743969917, 0.015803249552845955, 0.014231519773602486, 0.01612224243581295, 0.021516062319278717, 0.13724052906036377, 0.051328834146261215, 0.1603945940732956, 0.03927338868379593, 0.02748444490134716, 0.14525476098060608, 0.02316517010331154, 0.015229955315589905, 0.012490375898778439, 0.1111283153295517, 0.01382446102797985, 0.014007216319441795, 0.028003718703985214], [0.009517468512058258, 0.07839103788137436, 0.00545542361214757, 0.014882885850965977, 0.007265451364219189, 0.006730491295456886, 0.01569693349301815, 0.01391295064240694, 0.13290652632713318, 0.014798254705965519, 0.16170188784599304, 0.011052361689507961, 0.040288735181093216, 0.2540357708930969, 0.02347189374268055, 0.017462169751524925, 0.011985435150563717, 0.14433836936950684, 0.0047484529204666615, 0.0058951834216713905, 0.02546227164566517], [0.009519228711724281, 0.06514909863471985, 0.012939367443323135, 0.009632094763219357, 0.01062992587685585, 0.007325492799282074, 0.01059935986995697, 0.008351919241249561, 0.1348198503255844, 0.012073958292603493, 0.11969578266143799, 0.02287118509411812, 0.03505716100335121, 0.3439721465110779, 0.025218922644853592, 0.009857537224888802, 0.0033186799846589565, 0.137038916349411, 0.004729576408863068, 0.004658712074160576, 0.01254113856703043], [0.012187833897769451, 0.05304161459207535, 0.02853456325829029, 0.018590785562992096, 0.028984427452087402, 0.0310065895318985, 0.11120228469371796, 0.008305924944579601, 0.043773192912340164, 0.027724070474505424, 0.045434415340423584, 0.05030325800180435, 0.06710001826286316, 0.14361706376075745, 0.19181442260742188, 0.023714058101177216, 0.003822179278358817, 0.04374188929796219, 0.03998161479830742, 0.005476327147334814, 0.021643415093421936], [0.024724334478378296, 0.08673179149627686, 0.007021182682365179, 0.007124998141080141, 0.007136880420148373, 0.009157595224678516, 0.0073577119037508965, 0.012264206074178219, 0.13319295644760132, 0.014339629560709, 0.1268894225358963, 0.0110794547945261, 0.014108613133430481, 0.2593829333782196, 0.01746521331369877, 0.027210040017962456, 0.01501517090946436, 0.17836421728134155, 0.012218696996569633, 0.011574115604162216, 0.017640817910432816], [0.008897531777620316, 0.0376601405441761, 0.008361687883734703, 0.005107755307108164, 0.008093105629086494, 0.002849043346941471, 0.0244996827095747, 0.008367781527340412, 0.06601813435554504, 0.015913518145680428, 0.051812101155519485, 0.02028840035200119, 0.04973787069320679, 0.1822638362646103, 0.23193737864494324, 0.03242207318544388, 0.04255260154604912, 0.12439049035310745, 0.018871009349822998, 0.010695408098399639, 0.0492604598402977], [0.010723683051764965, 0.028264407068490982, 0.03234844282269478, 0.018724819645285606, 0.011640139855444431, 0.006013813428580761, 0.02095174789428711, 0.013349603861570358, 0.03959854692220688, 0.07985716313123703, 0.03858914598822594, 0.09325195848941803, 0.07257375866174698, 0.07115510106086731, 0.14924301207065582, 0.011823437176644802, 0.07818374037742615, 0.060370419174432755, 0.08658824861049652, 0.009391209110617638, 0.0673576220870018], [0.006392447743564844, 0.09941819310188293, 0.02599441260099411, 0.04068739712238312, 0.04869256541132927, 0.021676737815141678, 0.013676002621650696, 0.03416161984205246, 0.06550350040197372, 0.04929273575544357, 0.06200544908642769, 0.03200088068842888, 0.10146909207105637, 0.11322566866874695, 0.028001097962260246, 0.01992761343717575, 0.07154939323663712, 0.08761242032051086, 0.02470843307673931, 0.030786551535129547, 0.023217834532260895]], [[0.3507295250892639, 0.08164194971323013, 0.0007890540873631835, 0.0017547607421875, 0.001459917868487537, 0.004735896363854408, 0.0004870666889473796, 0.0010192010086029768, 0.15766145288944244, 0.0005574632086791098, 0.09400493651628494, 0.000692867673933506, 0.002127924235537648, 0.1211925819516182, 0.00012582236377056688, 0.0010809426894411445, 0.0021571137476712465, 0.1698560118675232, 0.0005867815925739706, 0.002519954927265644, 0.004818880930542946], [0.0035066159907728434, 0.12505272030830383, 0.004211893770843744, 0.023745162412524223, 0.005030165426433086, 0.006589229218661785, 0.0061994693242013454, 0.0030366918072104454, 0.23155201971530914, 0.013474801555275917, 0.14925415813922882, 0.0030311045702546835, 0.004936079494655132, 0.1806950569152832, 0.013858942314982414, 0.004717481788247824, 0.005797858349978924, 0.19339175522327423, 0.007860471494495869, 0.005320302210748196, 0.008738010190427303], [0.00516817532479763, 0.11595853418111801, 0.011970924213528633, 0.012938379310071468, 0.008750120177865028, 0.038668736815452576, 0.0007202367414720356, 0.012737193144857883, 0.20848315954208374, 0.004544445779174566, 0.16407863795757294, 0.00792305450886488, 0.00839182361960411, 0.12739168107509613, 0.001994662219658494, 0.004557428881525993, 0.01307772845029831, 0.21382202208042145, 0.0009288585279136896, 0.0139748090878129, 0.023919494822621346], [0.008949009701609612, 0.13701383769512177, 0.00926689337939024, 0.044916775077581406, 0.011847847141325474, 0.09564322978258133, 0.002488109515979886, 0.017843104898929596, 0.1374213993549347, 0.006325197871774435, 0.176127091050148, 0.004585140850394964, 0.007033774629235268, 0.09669148921966553, 0.0037206660490483046, 0.04727943241596222, 0.05484175682067871, 0.11770850419998169, 0.0033736415207386017, 0.006748144049197435, 0.010174998082220554], [0.010970253497362137, 0.06514371931552887, 0.022812090814113617, 0.018931390717625618, 0.055199023336172104, 0.19764840602874756, 0.0020090099424123764, 0.016746770590543747, 0.1517637073993683, 0.008288645185530186, 0.12503044307231903, 0.0190864410251379, 0.03964906930923462, 0.11098664999008179, 0.0017031654715538025, 0.008410687558352947, 0.009695538319647312, 0.10433193296194077, 0.0013774731196463108, 0.0076509504579007626, 0.022564547136425972], [0.00954670924693346, 0.08073269575834274, 0.015403266996145248, 0.024460922926664352, 0.03152323514223099, 0.17363858222961426, 0.005521854851394892, 0.01783881150186062, 0.15889321267604828, 0.007980232127010822, 0.137603759765625, 0.009193742647767067, 0.019898023456335068, 0.12108726054430008, 0.004340874496847391, 0.010496336966753006, 0.016171403229236603, 0.12979121506214142, 0.003052053041756153, 0.01009305939078331, 0.012732760980725288], [0.0037305750884115696, 0.11875137686729431, 0.0028779329732060432, 0.0026716587599366903, 0.003463264089077711, 0.02740139700472355, 0.005170096643269062, 0.012179510667920113, 0.21960482001304626, 0.00907479040324688, 0.17385928332805634, 0.0024973878171294928, 0.006628184113651514, 0.15884622931480408, 0.0013234521029517055, 0.01217255461961031, 0.02684871107339859, 0.17035342752933502, 0.004286527168005705, 0.03216022625565529, 0.006098628509789705], [0.0037102827336639166, 0.06347091495990753, 0.0029182282742112875, 0.03391003981232643, 0.012766093015670776, 0.08108830451965332, 0.0005604579928331077, 0.03041694685816765, 0.19187697768211365, 0.005272277165204287, 0.2065179944038391, 0.002194472122937441, 0.011156372725963593, 0.09472207725048065, 0.0009794678771868348, 0.010736852884292603, 0.043908052146434784, 0.16513507068157196, 0.0009142435155808926, 0.015875887125730515, 0.021868988871574402], [0.013606201857328415, 0.08576127886772156, 0.011593015864491463, 0.02873881161212921, 0.010351990349590778, 0.011536519043147564, 0.03765127435326576, 0.007067862898111343, 0.1573243886232376, 0.046906474977731705, 0.09648868441581726, 0.010866672731935978, 0.010369066148996353, 0.14983989298343658, 0.05595361068844795, 0.007505429908633232, 0.009944992139935493, 0.14427262544631958, 0.049990214407444, 0.007724948227405548, 0.046505969017744064], [0.016930028796195984, 0.0881229117512703, 0.018062973394989967, 0.009493204765021801, 0.016265053302049637, 0.041131194680929184, 0.0020539031829684973, 0.010660246945917606, 0.18878862261772156, 0.015779975801706314, 0.1413949877023697, 0.014619546011090279, 0.030712710693478584, 0.12793314456939697, 0.0015179163310676813, 0.005737996660172939, 0.010689795017242432, 0.1890029013156891, 0.005883404053747654, 0.029552889987826347, 0.035666633397340775], [0.009382969699800014, 0.09605366736650467, 0.008293312974274158, 0.029102329164743423, 0.011033311486244202, 0.017125209793448448, 0.022318588569760323, 0.009113430976867676, 0.1743270754814148, 0.0348651260137558, 0.1439751237630844, 0.0076348078437149525, 0.010857178829610348, 0.14355558156967163, 0.032996587455272675, 0.01047820970416069, 0.014047466218471527, 0.15207582712173462, 0.025893619284033775, 0.008694193325936794, 0.03817636892199516], [0.007422601338475943, 0.10189730674028397, 0.012493059039115906, 0.010127470828592777, 0.007501624524593353, 0.03758750483393669, 0.001133248209953308, 0.010873604565858841, 0.1982332319021225, 0.005057878792285919, 0.17236356437206268, 0.010985659435391426, 0.009302183985710144, 0.11821077764034271, 0.0018654370214790106, 0.004847459960728884, 0.01232921052724123, 0.21574263274669647, 0.0010609242599457502, 0.013596294447779655, 0.047368329018354416], [0.011811856180429459, 0.0999700203537941, 0.01316845417022705, 0.006825805641710758, 0.017907507717609406, 0.056683313101530075, 0.0015586016234010458, 0.004578209016472101, 0.204376220703125, 0.007335860747843981, 0.17342586815357208, 0.01314428262412548, 0.035590242594480515, 0.12968605756759644, 0.0011797018814831972, 0.004844950046390295, 0.004674577619880438, 0.17263637483119965, 0.001143515924923122, 0.008494039997458458, 0.03096458688378334], [0.011983745731413364, 0.07789158821105957, 0.012876511551439762, 0.02966548316180706, 0.006233832333236933, 0.00611854949966073, 0.04328782111406326, 0.004948589019477367, 0.13489574193954468, 0.06123485043644905, 0.08047615736722946, 0.012473855167627335, 0.007854490540921688, 0.14693021774291992, 0.10089557617902756, 0.007224332541227341, 0.009124142117798328, 0.13628046214580536, 0.07241297513246536, 0.006493210326880217, 0.03069777972996235], [0.014710570685565472, 0.1052846685051918, 0.007360545918345451, 0.020826149731874466, 0.022549044340848923, 0.06011432781815529, 0.0022722750436514616, 0.021022114902734756, 0.15882639586925507, 0.005048375576734543, 0.1891247183084488, 0.007633300963789225, 0.020533176138997078, 0.12519961595535278, 0.0032094402704387903, 0.025386082008481026, 0.03388423100113869, 0.1327783614397049, 0.003355536377057433, 0.02089562639594078, 0.019985472783446312], [0.0059045893140137196, 0.08579327166080475, 0.0027033353690057993, 0.020068496465682983, 0.008764215745031834, 0.039998408406972885, 0.002552058082073927, 0.021790780127048492, 0.15296295285224915, 0.006896614097058773, 0.1579323410987854, 0.0022996896877884865, 0.009188459254801273, 0.11442310363054276, 0.0021350469905883074, 0.0816342830657959, 0.08532295376062393, 0.15504775941371918, 0.004382800310850143, 0.022195473313331604, 0.018003404140472412], [0.003117957850918174, 0.07754448801279068, 0.0016149186994880438, 0.013251065276563168, 0.0031730474438518286, 0.021815333515405655, 0.0006817449466325343, 0.01493871584534645, 0.19144651293754578, 0.0034046133514493704, 0.20179517567157745, 0.0015033336821943521, 0.0046384381130337715, 0.12670348584651947, 0.0013589870650321245, 0.02581188827753067, 0.08449240028858185, 0.1890556514263153, 0.001302999909967184, 0.0232069194316864, 0.009142260067164898], [0.014964323490858078, 0.0515194870531559, 0.01750011183321476, 0.036532189697027206, 0.009604104794561863, 0.00823250412940979, 0.05752602219581604, 0.006240478251129389, 0.0958562046289444, 0.07084672898054123, 0.060668591409921646, 0.01901453174650669, 0.010721093975007534, 0.11301446706056595, 0.11836834996938705, 0.006762821227312088, 0.010672553442418575, 0.10433496534824371, 0.1435520201921463, 0.008830966427922249, 0.035237427800893784], [0.015973757952451706, 0.07165797799825668, 0.006298676133155823, 0.041690096259117126, 0.014774508774280548, 0.06931237876415253, 0.0022731462959200144, 0.020038018003106117, 0.11899396777153015, 0.0082978755235672, 0.1518973708152771, 0.0077998754568398, 0.024533282965421677, 0.0715952217578888, 0.0038241201546043158, 0.017376866191625595, 0.05040273815393448, 0.12591929733753204, 0.050500620156526566, 0.10533284395933151, 0.021507278084754944], [0.012925523333251476, 0.06868986785411835, 0.00392075115814805, 0.024335086345672607, 0.009455831721425056, 0.03723173961043358, 0.002686448395252228, 0.015478289686143398, 0.1752162128686905, 0.008192814886569977, 0.16296574473381042, 0.0049178279004991055, 0.01563429646193981, 0.1168494001030922, 0.002476413967087865, 0.007443766575306654, 0.03069164790213108, 0.2088807076215744, 0.006701165810227394, 0.04567406699061394, 0.03963246941566467], [0.0023401016369462013, 0.15831007063388824, 0.0015490221558138728, 0.004288290161639452, 0.005332488100975752, 0.008026103489100933, 0.0010493278969079256, 0.003291598055511713, 0.2017236053943634, 0.001019052229821682, 0.18541835248470306, 0.0009487522183917463, 0.006180810276418924, 0.12310560047626495, 0.00035535768256522715, 0.007107364013791084, 0.008739737793803215, 0.22189861536026, 0.0007111275917850435, 0.012212174944579601, 0.046392444521188736]], [[0.05413512885570526, 0.07145307958126068, 0.02409774623811245, 0.04517532140016556, 0.014849085360765457, 0.015720095485448837, 0.013377916999161243, 0.03990497812628746, 0.10430274903774261, 0.019848298281431198, 0.09974174946546555, 0.030663136392831802, 0.019192399457097054, 0.09751653671264648, 0.020556937903165817, 0.02606971561908722, 0.03631163388490677, 0.10236279666423798, 0.012358845211565495, 0.01748526841402054, 0.1348765790462494], [0.09876466542482376, 0.08400069922208786, 0.03230665624141693, 0.03738855570554733, 0.026505690068006516, 0.024667706340551376, 0.023428181186318398, 0.017999790608882904, 0.10662199556827545, 0.03921141475439072, 0.07784176617860794, 0.023428959771990776, 0.025510728359222412, 0.10955097526311874, 0.030854523181915283, 0.01881754957139492, 0.009760670363903046, 0.09583309292793274, 0.020056623965501785, 0.0115036116912961, 0.0859462171792984], [0.12941017746925354, 0.06861681491136551, 0.004287643823772669, 0.05675042048096657, 0.06544345617294312, 0.044402945786714554, 0.010753879323601723, 0.028870949521660805, 0.06683799624443054, 0.033700063824653625, 0.061923835426568985, 0.0029099597595632076, 0.0633707195520401, 0.07095345109701157, 0.06430233269929886, 0.017780372872948647, 0.028145594522356987, 0.07119470089673996, 0.024346809834241867, 0.023362604901194572, 0.06263528764247894], [0.11458475887775421, 0.06272580474615097, 0.07830490916967392, 0.003858886193484068, 0.04760119691491127, 0.025937547907233238, 0.03575722873210907, 0.01722893677651882, 0.07103712856769562, 0.022874906659126282, 0.06470420211553574, 0.07009734958410263, 0.04872053861618042, 0.06037804111838341, 0.02062482014298439, 0.011509889736771584, 0.009280072525143623, 0.0674733817577362, 0.026588598266243935, 0.010846627876162529, 0.12986518442630768], [0.12824726104736328, 0.0733410194516182, 0.07667899876832962, 0.117169089615345, 0.025095991790294647, 0.027665993198752403, 0.008870295248925686, 0.019229739904403687, 0.05417105555534363, 0.08417028933763504, 0.05053025856614113, 0.05071044713258743, 0.02855180948972702, 0.04634379222989082, 0.018729398027062416, 0.006735954899340868, 0.012488530948758125, 0.04988083988428116, 0.04578649625182152, 0.007057946175336838, 0.06854474544525146], [0.1027613952755928, 0.054293084889650345, 0.04346156865358353, 0.1166020855307579, 0.058138009160757065, 0.0061251092702150345, 0.009176923893392086, 0.027674531564116478, 0.062108445912599564, 0.026508718729019165, 0.05880916491150856, 0.04321892559528351, 0.08873733133077621, 0.053905900567770004, 0.026880508288741112, 0.011671165935695171, 0.016724741086363792, 0.06147896125912666, 0.03082459792494774, 0.01538316160440445, 0.08551561832427979], [0.10115145146846771, 0.10644277185201645, 0.02860429510474205, 0.08228424191474915, 0.022024475038051605, 0.009634793736040592, 0.0011133799562230706, 0.032729148864746094, 0.11331992596387863, 0.02822248637676239, 0.06263218820095062, 0.01562856137752533, 0.022968728095293045, 0.10217910259962082, 0.01357331033796072, 0.01471945084631443, 0.022913733497262, 0.09544379264116287, 0.006749320775270462, 0.012354714795947075, 0.10531020909547806], [0.14141878485679626, 0.07196681201457977, 0.03881159424781799, 0.024137843400239944, 0.024762852117419243, 0.007703422103077173, 0.006144761573523283, 0.005833734758198261, 0.09314664453268051, 0.02766582928597927, 0.0795944556593895, 0.03886491432785988, 0.025336854159832, 0.07145533710718155, 0.012940325774252415, 0.010692747309803963, 0.003297590184956789, 0.07483382523059845, 0.020940888673067093, 0.036780212074518204, 0.18367040157318115], [0.1031767800450325, 0.07962433993816376, 0.03330660238862038, 0.039148714393377304, 0.02502104826271534, 0.01892063580453396, 0.023363765329122543, 0.017722783610224724, 0.11061109602451324, 0.04075853154063225, 0.0734655112028122, 0.027156304568052292, 0.028254415839910507, 0.11429683864116669, 0.030088774859905243, 0.014838475733995438, 0.01318659819662571, 0.10469048470258713, 0.031803250312805176, 0.01500073354691267, 0.055564358830451965], [0.12712503969669342, 0.07391156256198883, 0.032444410026073456, 0.01358602475374937, 0.038425512611866, 0.03524092212319374, 0.010062524117529392, 0.022308778017759323, 0.10052331537008286, 0.011364519596099854, 0.057233065366744995, 0.03256470710039139, 0.050407517701387405, 0.1049022525548935, 0.05612712353467941, 0.022450825199484825, 0.023451611399650574, 0.09421063959598541, 0.02885768748819828, 0.016052307561039925, 0.048749614506959915], [0.12804216146469116, 0.0852317363023758, 0.026623724028468132, 0.0529145747423172, 0.02538667432963848, 0.017715947702527046, 0.01622716523706913, 0.016286322847008705, 0.10745183378458023, 0.024420971050858498, 0.0804317444562912, 0.020968463271856308, 0.027235588058829308, 0.10624606162309647, 0.020819688215851784, 0.012737823650240898, 0.009499273262917995, 0.09455906599760056, 0.01764470525085926, 0.011433483101427555, 0.09812302887439728], [0.14292530715465546, 0.055844780057668686, 0.005181135609745979, 0.05701058730483055, 0.08534958958625793, 0.03852593153715134, 0.009377519600093365, 0.027760470286011696, 0.0590166375041008, 0.03696683421730995, 0.055839091539382935, 0.003432844765484333, 0.07927805185317993, 0.05933672562241554, 0.05258285999298096, 0.009576266631484032, 0.02597130835056305, 0.06140926480293274, 0.017983626574277878, 0.026135239750146866, 0.09049580991268158], [0.09054671227931976, 0.05005885288119316, 0.09125914424657822, 0.05788502097129822, 0.04497377201914787, 0.05082522705197334, 0.008386611007153988, 0.020368576049804688, 0.046681251376867294, 0.09176690876483917, 0.040718983858823776, 0.07700769603252411, 0.05098462104797363, 0.03869679570198059, 0.02207932062447071, 0.00581221142783761, 0.017658986151218414, 0.042182017117738724, 0.04695400968194008, 0.008464907296001911, 0.09668832272291183], [0.1049749106168747, 0.07598146051168442, 0.029904596507549286, 0.03508608788251877, 0.019169222563505173, 0.017540831118822098, 0.020875265821814537, 0.016290908679366112, 0.11054465919733047, 0.03967507928609848, 0.07070044428110123, 0.025898616760969162, 0.02494535967707634, 0.11381806433200836, 0.034345485270023346, 0.015887923538684845, 0.016535310074687004, 0.11267013847827911, 0.042861226946115494, 0.01940695196390152, 0.05288753658533096], [0.07421250641345978, 0.08188790827989578, 0.13150788843631744, 0.03284947946667671, 0.013673870824277401, 0.02153177373111248, 0.025508267804980278, 0.010898808017373085, 0.09548141807317734, 0.05992624908685684, 0.05373379588127136, 0.07231089472770691, 0.013823704794049263, 0.09627531468868256, 0.015122764743864536, 0.00946035422384739, 0.007248287554830313, 0.10172396153211594, 0.029012510553002357, 0.014417532831430435, 0.03939266875386238], [0.12322844564914703, 0.06579439342021942, 0.023370005190372467, 0.029878517612814903, 0.04215077683329582, 0.020437438040971756, 0.017017163336277008, 0.026121769100427628, 0.10332725197076797, 0.022932058200240135, 0.08267247676849365, 0.016760336235165596, 0.04517837241292, 0.09598623216152191, 0.02865641936659813, 0.007775743491947651, 0.026760339736938477, 0.09911959618330002, 0.014954319223761559, 0.030966930091381073, 0.07691134512424469], [0.15938042104244232, 0.05863799527287483, 0.03976551815867424, 0.01327779795974493, 0.027840683236718178, 0.008305351249873638, 0.006619620602577925, 0.005471040029078722, 0.10413442552089691, 0.05452437326312065, 0.063310906291008, 0.03538694232702255, 0.03449146822094917, 0.09370575845241547, 0.02079669199883938, 0.009581202641129494, 0.0029930819291621447, 0.1031171977519989, 0.031693391501903534, 0.050628598779439926, 0.07633747160434723], [0.08510459959506989, 0.07306884229183197, 0.02733718417584896, 0.03140217065811157, 0.019901124760508537, 0.01762199215590954, 0.023079464212059975, 0.018009813502430916, 0.11326001584529877, 0.04083074629306793, 0.07106998562812805, 0.025518104434013367, 0.02585291862487793, 0.12547607719898224, 0.0359358936548233, 0.022481614723801613, 0.020400704815983772, 0.11656274646520615, 0.040910281240940094, 0.02154809981584549, 0.04462766274809837], [0.041484538465738297, 0.08161626756191254, 0.04024122655391693, 0.020041370764374733, 0.01583215408027172, 0.03228091821074486, 0.01226834673434496, 0.0648990273475647, 0.12690269947052002, 0.026073666289448738, 0.05924785137176514, 0.017380958423018456, 0.019400568678975105, 0.1296514868736267, 0.05249355360865593, 0.023636896163225174, 0.0486779622733593, 0.12177170068025589, 0.0007452393765561283, 0.005963089410215616, 0.05939050018787384], [0.06406515836715698, 0.05723688006401062, 0.06468265503644943, 0.018172219395637512, 0.020276429131627083, 0.016386091709136963, 0.007801896892488003, 0.07251132279634476, 0.08893682807683945, 0.01914338767528534, 0.06594070047140121, 0.07007557898759842, 0.027579644694924355, 0.07653609663248062, 0.012659520842134953, 0.02747553400695324, 0.08471860736608505, 0.08683471381664276, 0.006733263842761517, 0.007525272201746702, 0.104708231985569], [0.036699168384075165, 0.06085089594125748, 0.05119237303733826, 0.04952056333422661, 0.05688035860657692, 0.0350668802857399, 0.018431998789310455, 0.03341923654079437, 0.06346495449542999, 0.018881652504205704, 0.06397591531276703, 0.0378427617251873, 0.041478533297777176, 0.05273349955677986, 0.01428828202188015, 0.009599345736205578, 0.015494071878492832, 0.053069375455379486, 0.0050140973180532455, 0.009944523684680462, 0.2721515893936157]]], [[[0.004760235082358122, 0.03540252149105072, 0.011478761211037636, 0.005076708272099495, 0.017520898953080177, 0.0021835064981132746, 0.06247808411717415, 0.02317565307021141, 0.029854604974389076, 0.035964976996183395, 0.02289155311882496, 0.019047603011131287, 0.010977327823638916, 0.0403926819562912, 0.009907949715852737, 0.006334559991955757, 0.024496549740433693, 0.021045660600066185, 0.015334625728428364, 0.029000895097851753, 0.572674572467804], [0.029203375801444054, 0.04556618630886078, 0.021349811926484108, 0.037448011338710785, 0.04826594144105911, 0.014002279378473759, 0.0489099882543087, 0.0599004365503788, 0.09150069952011108, 0.027181148529052734, 0.060561925172805786, 0.02622164785861969, 0.03060130588710308, 0.09950575977563858, 0.04753052815794945, 0.01694294437766075, 0.03844611719250679, 0.0884905681014061, 0.026851501315832138, 0.017689531669020653, 0.12383019179105759], [0.014776679687201977, 0.1252284198999405, 0.013490821234881878, 0.008260875940322876, 0.005928177386522293, 0.000711571890860796, 0.007599420379847288, 0.01670701801776886, 0.17987291514873505, 0.011212008073925972, 0.10699083656072617, 0.01517541240900755, 0.004215309862047434, 0.18073731660842896, 0.004007815383374691, 0.004373947624117136, 0.010139252059161663, 0.16589628159999847, 0.005065230652689934, 0.003987384028732777, 0.11562345921993256], [0.028167836368083954, 0.10588660836219788, 0.013427532278001308, 0.034646403044462204, 0.003708724630996585, 0.0016150682931765914, 0.003569814609363675, 0.023103460669517517, 0.1576160192489624, 0.007989073172211647, 0.14218021929264069, 0.014467781409621239, 0.002602087799459696, 0.1550189107656479, 0.007007863838225603, 0.008834478445351124, 0.015543407760560513, 0.170381098985672, 0.002695658477023244, 0.0035983328707516193, 0.09793965518474579], [0.01560733187943697, 0.049076542258262634, 0.044737666845321655, 0.007078962400555611, 0.2116290181875229, 0.0009460897999815643, 0.007029545959085226, 0.02597000077366829, 0.09906657040119171, 0.024109328165650368, 0.06849820911884308, 0.030333558097481728, 0.16237060725688934, 0.07809104770421982, 0.00491379713639617, 0.016866197809576988, 0.026531532406806946, 0.07750918716192245, 0.007536715362221003, 0.00683285528793931, 0.03526521101593971], [0.0035598052199929953, 0.07867302000522614, 0.030644742771983147, 0.04809079319238663, 0.004053386393934488, 0.08488242328166962, 0.008440430276095867, 0.02794790267944336, 0.16040480136871338, 0.007697486784309149, 0.10259746015071869, 0.02777266316115856, 0.004327783361077309, 0.14516790211200714, 0.00896464753895998, 0.022319668903946877, 0.03217308223247528, 0.1606658399105072, 0.013141152448952198, 0.007148894015699625, 0.021326029673218727], [0.0237351655960083, 0.12096446007490158, 0.03512803837656975, 0.0008404644904658198, 0.00623274827376008, 0.0014156467514112592, 0.004062088672071695, 0.004144243896007538, 0.19064222276210785, 0.04556038975715637, 0.13075527548789978, 0.04094531759619713, 0.00442930031567812, 0.1595185399055481, 0.0011483548441901803, 0.0038448877166956663, 0.0030300726648420095, 0.17860977351665497, 0.012047260999679565, 0.009805961512029171, 0.023139802739024162], [0.007620405871421099, 0.09914898127317429, 0.011538601480424404, 0.05436484515666962, 0.005468935705721378, 0.003274601185694337, 0.0030825904104858637, 0.1661698818206787, 0.1214878261089325, 0.007151315920054913, 0.09456780552864075, 0.009036650881171227, 0.003110771533101797, 0.10237419605255127, 0.007983878254890442, 0.022458525374531746, 0.11168541014194489, 0.09701111167669296, 0.0012221339857205749, 0.0015715836780145764, 0.06966984272003174], [0.035786453634500504, 0.051758524030447006, 0.013996781781315804, 0.021104061976075172, 0.017062798142433167, 0.005965393967926502, 0.01902499608695507, 0.0238441564142704, 0.12946206331253052, 0.04445766657590866, 0.07843789458274841, 0.015459610149264336, 0.021003304049372673, 0.15161548554897308, 0.031921982765197754, 0.010161775164306164, 0.02511877380311489, 0.18652042746543884, 0.038000427186489105, 0.02554890140891075, 0.053748492151498795], [0.013964785262942314, 0.11684197187423706, 0.04961599409580231, 0.0021576937288045883, 0.005130583420395851, 0.0008172716479748487, 0.021083924919366837, 0.004673878196626902, 0.138102188706398, 0.05551547184586525, 0.06473739445209503, 0.045819368213415146, 0.0049265241250395775, 0.14522786438465118, 0.002400971483439207, 0.0029470219742506742, 0.0073956893756985664, 0.2001781165599823, 0.07141350954771042, 0.01628369837999344, 0.030765997245907784], [0.03453271836042404, 0.06480547785758972, 0.022458799183368683, 0.01563974656164646, 0.017401840537786484, 0.005172214936465025, 0.01322595588862896, 0.019324511289596558, 0.15662941336631775, 0.036909397691488266, 0.09794871509075165, 0.023016992956399918, 0.020929943770170212, 0.15629157423973083, 0.01819966919720173, 0.007991435006260872, 0.02046065777540207, 0.1612296849489212, 0.0266258604824543, 0.01278696022927761, 0.0684184655547142], [0.022237075492739677, 0.1017148420214653, 0.018093889579176903, 0.002773513086140156, 0.00504841236397624, 0.0001909388811327517, 0.0047098323702812195, 0.00712628336623311, 0.20125523209571838, 0.01300419494509697, 0.11022687703371048, 0.01888604462146759, 0.006092974916100502, 0.1870000809431076, 0.0024187725502997637, 0.0032485330011695623, 0.0078927893191576, 0.19475238025188446, 0.005269654095172882, 0.0032202829606831074, 0.08483733981847763], [0.008174457587301731, 0.030456647276878357, 0.03886881098151207, 0.0028709769248962402, 0.17631058394908905, 0.0011008701985701919, 0.003713097656145692, 0.015226033516228199, 0.10948547720909119, 0.028970355167984962, 0.07192516326904297, 0.033043719828128815, 0.19236476719379425, 0.09541787207126617, 0.0033944149035960436, 0.015230625867843628, 0.021308880299329758, 0.10413218289613724, 0.01039832178503275, 0.014443661086261272, 0.023163115605711937], [0.030926471576094627, 0.03530390188097954, 0.008830494247376919, 0.015984859317541122, 0.016346490010619164, 0.007550226990133524, 0.012142463587224483, 0.0208954568952322, 0.14310652017593384, 0.0415206141769886, 0.07259751856327057, 0.010295205749571323, 0.02618306688964367, 0.14758233726024628, 0.02419416978955269, 0.010037205182015896, 0.021929221227765083, 0.2554951310157776, 0.04060208797454834, 0.024898141622543335, 0.03357849270105362], [0.008177277632057667, 0.05599435046315193, 0.0036525821778923273, 0.04092658311128616, 0.007641451433300972, 0.002220925409346819, 0.0021234084852039814, 0.008314301259815693, 0.18945281207561493, 0.0031920182518661022, 0.1302100121974945, 0.004775937646627426, 0.005066694226115942, 0.21843954920768738, 0.0016387036303058267, 0.009619370102882385, 0.004449461121112108, 0.27329927682876587, 0.006655897945165634, 0.012963750399649143, 0.011185596697032452], [0.006235235836356878, 0.11638262867927551, 0.009963209740817547, 0.0061835371889173985, 0.003772389842197299, 0.00029305400676093996, 0.000654337287414819, 0.018476001918315887, 0.2056851089000702, 0.005319564137607813, 0.15060023963451385, 0.009457824751734734, 0.0022854902781546116, 0.20282821357250214, 0.0013250387273728848, 0.005897587165236473, 0.006703267805278301, 0.2283819317817688, 0.0014330365229398012, 0.0025007727090269327, 0.01562153734266758], [0.00806464534252882, 0.06000566482543945, 0.004833689890801907, 0.037057362496852875, 0.0031322892755270004, 0.0010039336048066616, 0.0031523481011390686, 0.11819282919168472, 0.13810084760189056, 0.005257701501250267, 0.0993068590760231, 0.005199437960982323, 0.0020479364320635796, 0.17264443635940552, 0.00377458892762661, 0.013011896051466465, 0.10797260701656342, 0.17904169857501984, 0.0014417843194678426, 0.0059766084887087345, 0.030780764296650887], [0.03577268496155739, 0.02387772500514984, 0.005895720329135656, 0.02601609006524086, 0.021298760548233986, 0.027915911749005318, 0.024217452853918076, 0.030011342838406563, 0.09531047195196152, 0.06568445265293121, 0.04800929129123688, 0.006995669100433588, 0.03319287300109863, 0.1271749585866928, 0.05563609302043915, 0.014319641515612602, 0.02276564948260784, 0.18722151219844818, 0.06606172025203705, 0.049366503953933716, 0.03325553610920906], [0.05889376252889633, 0.05450792983174324, 0.012250794097781181, 0.00923317950218916, 0.011303205974400043, 0.0006773867644369602, 0.006548670586198568, 0.007931719534099102, 0.11764509975910187, 0.023930519819259644, 0.06417267769575119, 0.017715606838464737, 0.010336317121982574, 0.12080255150794983, 0.005394774954766035, 0.006369079928845167, 0.009691099636256695, 0.1596987247467041, 0.17805063724517822, 0.1042366772890091, 0.020609520375728607], [0.009321043267846107, 0.08152209967374802, 0.011834707111120224, 0.012608291581273079, 0.008657327853143215, 0.006052515469491482, 0.01157640665769577, 0.01587916724383831, 0.17453521490097046, 0.0077544813975691795, 0.13129708170890808, 0.018637357279658318, 0.0097803408280015, 0.1958039551973343, 0.003550472902134061, 0.02295871265232563, 0.01479618065059185, 0.1637391299009323, 0.008501499891281128, 0.07393128424882889, 0.017262740060687065], [0.014149179682135582, 0.08666809648275375, 0.020760323852300644, 0.007155549246817827, 0.0070398710668087006, 0.017433470115065575, 0.032426223158836365, 0.04915543273091316, 0.0901675596833229, 0.017619971185922623, 0.07372616231441498, 0.037728048861026764, 0.010448767803609371, 0.07748639583587646, 0.021780353039503098, 0.028721893206238747, 0.08973287791013718, 0.07042913883924484, 0.02247031405568123, 0.008328398689627647, 0.21657195687294006]], [[0.012172172777354717, 0.05522004887461662, 0.09789884090423584, 0.048855915665626526, 0.05401377007365227, 0.019629009068012238, 0.06670574843883514, 0.06702931225299835, 0.06240871921181679, 0.005461375694721937, 0.045866284519433975, 0.15371668338775635, 0.042713575065135956, 0.04782760888338089, 0.018753524869680405, 0.017616314813494682, 0.030029598623514175, 0.08729440718889236, 0.011210786178708076, 0.012340081855654716, 0.04323624074459076], [0.15657953917980194, 0.08696704357862473, 0.020709678530693054, 0.040432143956422806, 0.1062004491686821, 0.04370123893022537, 0.015105740167200565, 0.025569722056388855, 0.01749991439282894, 0.0595705509185791, 0.03794654831290245, 0.006065391004085541, 0.04833545163273811, 0.00839055236428976, 0.012342657893896103, 0.02767905965447426, 0.00932086817920208, 0.004116518888622522, 0.004443059209734201, 0.056777507066726685, 0.21224629878997803], [0.28076881170272827, 0.05778881534934044, 0.015331773087382317, 0.04559176042675972, 0.06845667958259583, 0.032689884305000305, 0.014191027730703354, 0.014875597320497036, 0.018929023295640945, 0.05604204535484314, 0.03510627523064613, 0.008281550370156765, 0.05717235058546066, 0.008965534158051014, 0.021422145888209343, 0.03039538487792015, 0.008710854686796665, 0.004613233730196953, 0.005480392836034298, 0.06970377266407013, 0.14548306167125702], [0.3395799994468689, 0.057216577231884, 0.009440002031624317, 0.015088990330696106, 0.0337548702955246, 0.0300945732742548, 0.009181111119687557, 0.012294725514948368, 0.02258777990937233, 0.026936663314700127, 0.034737247973680496, 0.0053190747275948524, 0.04153748229146004, 0.01629825308918953, 0.011596491560339928, 0.029710808768868446, 0.01030037086457014, 0.007508167065680027, 0.006655294913798571, 0.046531256288290024, 0.2336302548646927], [0.4402466118335724, 0.044004470109939575, 0.0053595248609781265, 0.018811648711562157, 0.04143844172358513, 0.03869425132870674, 0.00662647932767868, 0.013368225656449795, 0.01670682430267334, 0.03735721856355667, 0.033689867705106735, 0.0031583316158503294, 0.03959556296467781, 0.00949121918529272, 0.011081570759415627, 0.035490840673446655, 0.010129868052899837, 0.0042256517335772514, 0.004387352149933577, 0.039143189787864685, 0.14699271321296692], [0.2876812815666199, 0.08194932341575623, 0.019872313365340233, 0.0470358282327652, 0.07395292818546295, 0.050938092172145844, 0.033717818558216095, 0.01883709244430065, 0.02549041621387005, 0.041521765291690826, 0.03762178122997284, 0.010857464745640755, 0.04321149364113808, 0.016321970149874687, 0.024710461497306824, 0.022701671347022057, 0.013831940479576588, 0.010452919639647007, 0.011773044243454933, 0.02412351779639721, 0.10339689999818802], [0.018878720700740814, 0.12735287845134735, 0.026758018881082535, 0.021192990243434906, 0.07123264670372009, 0.10751313716173172, 0.012752563692629337, 0.05797005444765091, 0.06715463101863861, 0.03195499628782272, 0.08521147817373276, 0.009450983256101608, 0.03380469232797623, 0.03567183390259743, 0.007399361114948988, 0.04151751846075058, 0.023261843249201775, 0.035251300781965256, 0.011558933183550835, 0.04586512967944145, 0.1282462477684021], [0.3053518533706665, 0.06921504437923431, 0.00737873325124383, 0.019594592973589897, 0.024166759103536606, 0.026747893542051315, 0.012570255436003208, 0.01164642907679081, 0.03172707185149193, 0.022903092205524445, 0.0440116785466671, 0.007251811679452658, 0.0456869974732399, 0.022974342107772827, 0.013677903451025486, 0.019954126328229904, 0.010267370380461216, 0.012147041969001293, 0.0068016513250768185, 0.04172221198678017, 0.24420315027236938], [0.15300147235393524, 0.05907321721315384, 0.03429767116904259, 0.0334693007171154, 0.04925314709544182, 0.02649114839732647, 0.02711724489927292, 0.021522648632526398, 0.040575914084911346, 0.05071587115526199, 0.03839816898107529, 0.02978917770087719, 0.05733109265565872, 0.03606138005852699, 0.028882283717393875, 0.0233400110155344, 0.02815621718764305, 0.04496311768889427, 0.03479555994272232, 0.03209760785102844, 0.1506676971912384], [0.09975990653038025, 0.0524006225168705, 0.011208360083401203, 0.01845868118107319, 0.028705503791570663, 0.013856605626642704, 0.004351345356553793, 0.015421324409544468, 0.03119559772312641, 0.008043758571147919, 0.03624259680509567, 0.010901265777647495, 0.038482554256916046, 0.021006237715482712, 0.006457291077822447, 0.021342379972338676, 0.015129223465919495, 0.021056246012449265, 0.005493771750479937, 0.037964604794979095, 0.5025221109390259], [0.27642199397087097, 0.04583964869379997, 0.01708260364830494, 0.03102799877524376, 0.03723962977528572, 0.018743792548775673, 0.01751597970724106, 0.016642151400446892, 0.03066769614815712, 0.03290319815278053, 0.03382590413093567, 0.019247932359576225, 0.05736807733774185, 0.026913275942206383, 0.023588335141539574, 0.019814778119325638, 0.02168552204966545, 0.024924393743276596, 0.01749068684875965, 0.03114507347345352, 0.1999112367630005], [0.24247713387012482, 0.05419359728693962, 0.010749995708465576, 0.029653403908014297, 0.021782951429486275, 0.01374388113617897, 0.012526009231805801, 0.01236369926482439, 0.04888357222080231, 0.017010463401675224, 0.0426970012485981, 0.02022561989724636, 0.06064634770154953, 0.03844279795885086, 0.02335917390882969, 0.018912404775619507, 0.016356084495782852, 0.03800790011882782, 0.010806143283843994, 0.03176736459136009, 0.23539447784423828], [0.3748856484889984, 0.03722260892391205, 0.0037165959365665913, 0.013631105422973633, 0.013135815039277077, 0.010188188403844833, 0.004781654104590416, 0.010827497579157352, 0.03341355174779892, 0.013131115585565567, 0.03742832690477371, 0.008506660349667072, 0.03721864894032478, 0.026810530573129654, 0.011567904613912106, 0.016348939388990402, 0.014123517088592052, 0.01948051154613495, 0.005875255912542343, 0.019120097160339355, 0.28858593106269836], [0.08501089364290237, 0.0560116246342659, 0.03801856189966202, 0.02399999462068081, 0.027359308674931526, 0.015966102480888367, 0.024660758674144745, 0.015728572383522987, 0.061908602714538574, 0.037399932742118835, 0.03682280704379082, 0.04146173223853111, 0.039079152047634125, 0.06476089358329773, 0.022939428687095642, 0.01912606507539749, 0.032420750707387924, 0.12481570243835449, 0.047643136233091354, 0.020204603672027588, 0.16466136276721954], [0.1609916090965271, 0.05440386384725571, 0.006148394197225571, 0.009148931130766869, 0.011207891628146172, 0.010992378927767277, 0.002958493772894144, 0.011155064217746258, 0.05921035259962082, 0.006731885951012373, 0.047021254897117615, 0.010749147273600101, 0.02503156289458275, 0.050694551318883896, 0.003711251774802804, 0.023685630410909653, 0.028713850304484367, 0.05865957587957382, 0.01198570616543293, 0.022037899121642113, 0.3847607374191284], [0.10103492438793182, 0.08318308740854263, 0.01202357467263937, 0.01338862907141447, 0.013424755074083805, 0.008199437521398067, 0.002749233040958643, 0.017713269218802452, 0.08277478814125061, 0.004273214377462864, 0.05231235921382904, 0.018638061359524727, 0.03184617683291435, 0.06448960304260254, 0.0036384775303304195, 0.01209471095353365, 0.019667336717247963, 0.08277877420186996, 0.004456107039004564, 0.014670372940599918, 0.35664311051368713], [0.2507353127002716, 0.06394721567630768, 0.014612173661589622, 0.013834412209689617, 0.013369625434279442, 0.005590266082435846, 0.005249549634754658, 0.011432462371885777, 0.07597461342811584, 0.007195668760687113, 0.04654517397284508, 0.03285159543156624, 0.043889280408620834, 0.06104482337832451, 0.007892858237028122, 0.012108545750379562, 0.01645475998520851, 0.07057562470436096, 0.009106775745749474, 0.019461117684841156, 0.21812820434570312], [0.02295031026005745, 0.0432082898914814, 0.08291123062372208, 0.016696125268936157, 0.028239918872714043, 0.013373156078159809, 0.036608658730983734, 0.014260469004511833, 0.060246679931879044, 0.03583524748682976, 0.025577954947948456, 0.08871417492628098, 0.0332619845867157, 0.07017937302589417, 0.02568511664867401, 0.010665640234947205, 0.027881421148777008, 0.21473750472068787, 0.08498764038085938, 0.010587702505290508, 0.05339151993393898], [0.09769300371408463, 0.056364331394433975, 0.017496325075626373, 0.020664310082793236, 0.040320537984371185, 0.009286368265748024, 0.006695520132780075, 0.029630383476614952, 0.07684691995382309, 0.015044785104691982, 0.05522855371236801, 0.039542414247989655, 0.07503297179937363, 0.05175270140171051, 0.01133601926267147, 0.02797875925898552, 0.030294833704829216, 0.07963935285806656, 0.02037443220615387, 0.05203522741794586, 0.18674221634864807], [0.15176960825920105, 0.049046993255615234, 0.008657586760818958, 0.01636071316897869, 0.010532992891967297, 0.007069987244904041, 0.003830262692645192, 0.011972043663263321, 0.06493260711431503, 0.010345250368118286, 0.04572184383869171, 0.02353765070438385, 0.03979136049747467, 0.06317873299121857, 0.01618371717631817, 0.013906659558415413, 0.023204490542411804, 0.07717575132846832, 0.011182049289345741, 0.02346891537308693, 0.328130841255188], [0.06803394854068756, 0.06865684688091278, 0.0349518284201622, 0.02577156201004982, 0.06122921407222748, 0.02266956865787506, 0.025821905583143234, 0.037644367665052414, 0.06128217279911041, 0.025777680799365044, 0.07141389697790146, 0.09270171076059341, 0.1818549484014511, 0.03772691264748573, 0.02042362652719021, 0.007462545298039913, 0.01275218278169632, 0.030205393210053444, 0.00984710082411766, 0.03754604235291481, 0.0662265419960022]], [[0.22816503047943115, 0.013661042787134647, 0.012202303856611252, 0.03398383781313896, 0.01979854702949524, 0.005904511548578739, 0.009504013694822788, 0.013340977020561695, 0.029347065836191177, 0.014501404948532581, 0.03003852069377899, 0.026366423815488815, 0.025419315323233604, 0.026180580258369446, 0.0029370631091296673, 0.0049079111777246, 0.020174406468868256, 0.042510922998189926, 0.027824999764561653, 0.02178945392370224, 0.3914417326450348], [0.030006403103470802, 0.06621765345335007, 0.052710238844156265, 0.11122197657823563, 0.049049198627471924, 0.03127337247133255, 0.03844239562749863, 0.026109550148248672, 0.075851671397686, 0.05166056379675865, 0.07431914657354355, 0.051319245249032974, 0.03282928094267845, 0.047884661704301834, 0.027513694018125534, 0.01386692188680172, 0.01766013726592064, 0.048893727362155914, 0.03281310945749283, 0.01456456258893013, 0.10579262673854828], [0.05161753669381142, 0.07644592225551605, 0.004070995841175318, 0.15387260913848877, 0.06112741678953171, 0.01677059568464756, 0.04212582856416702, 0.03194301947951317, 0.10399537533521652, 0.06788656860589981, 0.0824408233165741, 0.006198224611580372, 0.04404108598828316, 0.06923135370016098, 0.023987600579857826, 0.007842413149774075, 0.01299372874200344, 0.048587020486593246, 0.03493655100464821, 0.008347880095243454, 0.051537517458200455], [0.028250273317098618, 0.06694132834672928, 0.10042500495910645, 0.013584071770310402, 0.03147765249013901, 0.032147523015737534, 0.03442532941699028, 0.017443731427192688, 0.09139023721218109, 0.0382906049489975, 0.08224785327911377, 0.08233526349067688, 0.018922217190265656, 0.0602024681866169, 0.009736519306898117, 0.006894024554640055, 0.01363611314445734, 0.07726766169071198, 0.01772339642047882, 0.006121646147221327, 0.17053699493408203], [0.03353052958846092, 0.07667643576860428, 0.04535004124045372, 0.04816090315580368, 0.03016485832631588, 0.045068033039569855, 0.05749616026878357, 0.027780616655945778, 0.11186229437589645, 0.08198906481266022, 0.08372775465250015, 0.06513260304927826, 0.024192605167627335, 0.07460548728704453, 0.011222784407436848, 0.011320517398416996, 0.014725713059306145, 0.06564215570688248, 0.009041653014719486, 0.00839376263320446, 0.0739159882068634], [0.013154370710253716, 0.04766085743904114, 0.051504846662282944, 0.11474590003490448, 0.12753009796142578, 0.007014399394392967, 0.026672182604670525, 0.02474345825612545, 0.07745715975761414, 0.05048714950680733, 0.06581079959869385, 0.06130482256412506, 0.12655825912952423, 0.0650424212217331, 0.018848227337002754, 0.01998312957584858, 0.01635514758527279, 0.052917227149009705, 0.005130750592797995, 0.004178475122898817, 0.022900285199284554], [0.06296709179878235, 0.0567992739379406, 0.03867427259683609, 0.13373930752277374, 0.08622992783784866, 0.04448087140917778, 0.005864499602466822, 0.04507862776517868, 0.06259752064943314, 0.04023902118206024, 0.05495477095246315, 0.04650050029158592, 0.05095839500427246, 0.05777261406183243, 0.02146126516163349, 0.028009459376335144, 0.02686361037194729, 0.04083111882209778, 0.01928725279867649, 0.00859080720692873, 0.06809978187084198], [0.007036022841930389, 0.07411973923444748, 0.056818220764398575, 0.023507894948124886, 0.028301363810896873, 0.0242682583630085, 0.027817081660032272, 0.004799385089427233, 0.12177420407533646, 0.08559073507785797, 0.1116722822189331, 0.05047452077269554, 0.028513239696621895, 0.09199322015047073, 0.02453945018351078, 0.013981880620121956, 0.0061384206637740135, 0.08643996715545654, 0.01978243701159954, 0.04763203486800194, 0.06479962915182114], [0.029152706265449524, 0.06618397682905197, 0.05801454186439514, 0.05513952299952507, 0.04808555170893669, 0.026030488312244415, 0.03263134881854057, 0.023492256179451942, 0.07714734226465225, 0.043097686022520065, 0.0742248073220253, 0.06050151586532593, 0.0465870276093483, 0.062236011028289795, 0.028771795332431793, 0.013987629674375057, 0.02287130430340767, 0.06289085000753403, 0.03394283726811409, 0.01910453476011753, 0.11590622365474701], [0.04600205644965172, 0.07035154849290848, 0.06009872630238533, 0.055172938853502274, 0.04393967613577843, 0.054964084178209305, 0.008230878971517086, 0.029510438442230225, 0.08524169772863388, 0.009628137573599815, 0.049896225333213806, 0.06959746032953262, 0.02739197202026844, 0.07254794239997864, 0.07116708159446716, 0.012373484671115875, 0.015314866788685322, 0.06771991401910782, 0.09059275686740875, 0.03122122958302498, 0.0290368665009737], [0.022122550755739212, 0.06244785711169243, 0.04888083413243294, 0.06143101304769516, 0.058500904589891434, 0.025482192635536194, 0.027408460155129433, 0.03223930671811104, 0.07085753977298737, 0.02929352968931198, 0.07395125925540924, 0.06268826872110367, 0.05921468883752823, 0.05483552813529968, 0.023321550339460373, 0.015425409190356731, 0.029985446482896805, 0.053606342524290085, 0.02084249071776867, 0.02437950298190117, 0.14308536052703857], [0.03606666997075081, 0.05043703317642212, 0.004446602426469326, 0.07508675754070282, 0.05386154353618622, 0.013347822241485119, 0.04114476963877678, 0.030514467507600784, 0.08347193151712418, 0.10355337709188461, 0.07482371479272842, 0.010033325292170048, 0.09131547063589096, 0.07070103287696838, 0.029668468981981277, 0.00987753551453352, 0.021601136773824692, 0.047865379601716995, 0.042804278433322906, 0.021637221798300743, 0.08774155378341675], [0.022338218986988068, 0.044049542397260666, 0.043384138494729996, 0.03106592409312725, 0.027948273345828056, 0.03621712699532509, 0.024711094796657562, 0.031718600541353226, 0.0931449607014656, 0.05633777379989624, 0.07684493809938431, 0.12728054821491241, 0.04598916321992874, 0.07835981994867325, 0.01924779638648033, 0.01316179521381855, 0.02315887250006199, 0.06714504957199097, 0.021407820284366608, 0.02484864555299282, 0.09163987636566162], [0.033334046602249146, 0.048854097723960876, 0.04955742508172989, 0.04234397038817406, 0.031357258558273315, 0.02268092893064022, 0.029767978936433792, 0.020990237593650818, 0.0759580135345459, 0.049718599766492844, 0.06827383488416672, 0.06510001420974731, 0.04235224425792694, 0.07538095861673355, 0.03918036073446274, 0.017455948516726494, 0.026688482612371445, 0.08274228125810623, 0.04851477965712547, 0.029261711984872818, 0.1004868820309639], [0.051780812442302704, 0.04227651655673981, 0.04875505343079567, 0.014939771965146065, 0.028677314519882202, 0.02323533594608307, 0.03642727807164192, 0.02384929358959198, 0.06854083389043808, 0.1389208883047104, 0.04530738666653633, 0.05245797708630562, 0.03909122198820114, 0.07963360100984573, 0.01238689199090004, 0.026367411017417908, 0.01788248121738434, 0.08583469688892365, 0.09123498946428299, 0.030618151649832726, 0.041782114654779434], [0.02318774163722992, 0.04892396926879883, 0.06997673213481903, 0.017593340948224068, 0.038761939853429794, 0.02755863033235073, 0.028402836993336678, 0.028667917475104332, 0.08166387677192688, 0.06080181524157524, 0.07323390990495682, 0.08520963042974472, 0.04940487816929817, 0.07686683535575867, 0.04100006818771362, 0.011316588148474693, 0.03544213995337486, 0.07266568392515182, 0.034828897565603256, 0.03621339425444603, 0.0582791306078434], [0.015984822064638138, 0.04251540079712868, 0.030478177592158318, 0.0208775345236063, 0.014135051518678665, 0.02070222795009613, 0.016727173700928688, 0.006088276859372854, 0.08038037270307541, 0.04670167714357376, 0.09299226105213165, 0.04678516089916229, 0.02718554064631462, 0.08116095513105392, 0.04255905747413635, 0.015565871261060238, 0.007766547612845898, 0.09112616628408432, 0.05298071354627609, 0.13645777106285095, 0.11082930117845535], [0.034560561180114746, 0.049905143678188324, 0.044369716197252274, 0.04163185507059097, 0.03114248439669609, 0.022615576162934303, 0.03268153965473175, 0.021946778520941734, 0.07825043052434921, 0.031968288123607635, 0.07419087737798691, 0.05329824239015579, 0.04469180479645729, 0.08776092529296875, 0.05146052688360214, 0.024909118190407753, 0.03617195039987564, 0.099998340010643, 0.04583016037940979, 0.025494124740362167, 0.0671214908361435], [0.03772909566760063, 0.04078337550163269, 0.04495813697576523, 0.026514338329434395, 0.020393792539834976, 0.0168442502617836, 0.013961171731352806, 0.049831174314022064, 0.08956001698970795, 0.06033307686448097, 0.07016162574291229, 0.03697473183274269, 0.036181505769491196, 0.1227852925658226, 0.07080617547035217, 0.024043388664722443, 0.06150064244866371, 0.12822844088077545, 0.0009866866748780012, 0.03680188208818436, 0.01062105130404234], [0.015348926186561584, 0.018942497670650482, 0.03942939639091492, 0.031043458729982376, 0.02071663923561573, 0.010832992382347584, 0.00730466702952981, 0.13528567552566528, 0.047421541064977646, 0.04079583287239075, 0.04679939150810242, 0.074152871966362, 0.03857940435409546, 0.05232497304677963, 0.014724948443472385, 0.012014767155051231, 0.26573771238327026, 0.049444086849689484, 0.020922334864735603, 0.00819694995880127, 0.04998089745640755], [0.030895493924617767, 0.04543730244040489, 0.0466148778796196, 0.0723685696721077, 0.03760222718119621, 0.011760031804442406, 0.017017347738146782, 0.03433793783187866, 0.06707438826560974, 0.032922886312007904, 0.06238539144396782, 0.11985229700803757, 0.07342850416898727, 0.050582729279994965, 0.05259060114622116, 0.01758984476327896, 0.05057963356375694, 0.05190544202923775, 0.05598490312695503, 0.024095380678772926, 0.04497424513101578]], [[0.10072022676467896, 0.08682261407375336, 0.02630268782377243, 0.008163015358150005, 0.01375344954431057, 0.013707057572901249, 0.07512299716472626, 0.03293285146355629, 0.0860673040151596, 0.07718546688556671, 0.028371410444378853, 0.024668516591191292, 0.013230995275080204, 0.08325879275798798, 0.07211928814649582, 0.00952291488647461, 0.07682744413614273, 0.08486790210008621, 0.029973292723298073, 0.031694501638412476, 0.024687273427844048], [0.185841366648674, 0.07888158410787582, 0.0020416402257978916, 0.004196333698928356, 0.004925912246108055, 0.004812338389456272, 0.004349150694906712, 0.0032105452846735716, 0.04778093099594116, 0.012099247425794601, 0.034856073558330536, 0.0015501142479479313, 0.0078698405995965, 0.043525904417037964, 0.010926831513643265, 0.004969508852809668, 0.002789032645523548, 0.053873833268880844, 0.004837865475565195, 0.012986967340111732, 0.4736749827861786], [0.22987064719200134, 0.07362562417984009, 0.001950497506186366, 0.012243256904184818, 0.02364817075431347, 0.006762559060007334, 0.005055523011833429, 0.0151869747787714, 0.06564883142709732, 0.011181972920894623, 0.05694127827882767, 0.0026791004929691553, 0.030573667958378792, 0.04101938009262085, 0.0031944941729307175, 0.0065939282067120075, 0.006366866175085306, 0.04716601222753525, 0.00608924450352788, 0.016716888174414635, 0.33748501539230347], [0.10193121433258057, 0.11574584990739822, 0.005579221993684769, 0.010878633707761765, 0.017661137506365776, 0.010751540772616863, 0.002924110507592559, 0.005355785135179758, 0.15129819512367249, 0.01517618540674448, 0.13220608234405518, 0.006634402554482222, 0.031423646956682205, 0.12222982943058014, 0.0037848378997296095, 0.006856574676930904, 0.0032840613275766373, 0.13189482688903809, 0.005479156039655209, 0.012440299615263939, 0.1064644455909729], [0.043177854269742966, 0.12693257629871368, 0.006654676981270313, 0.012890481390058994, 0.032194823026657104, 0.02262130007147789, 0.003321992699056864, 0.012123494409024715, 0.17860238254070282, 0.012760150246322155, 0.12968353927135468, 0.010367314331233501, 0.056772440671920776, 0.13402676582336426, 0.002884024754166603, 0.00893346220254898, 0.00763748912140727, 0.15449471771717072, 0.002355296164751053, 0.008515898138284683, 0.033049412071704865], [0.09750207513570786, 0.1405261754989624, 0.006281807087361813, 0.009806019254028797, 0.02442901022732258, 0.016705717891454697, 0.00582469254732132, 0.025605274364352226, 0.1367684155702591, 0.013452601619064808, 0.09054534137248993, 0.007821287959814072, 0.04872385412454605, 0.09750215709209442, 0.005067471880465746, 0.008726086467504501, 0.01297601219266653, 0.11714036762714386, 0.004477268550544977, 0.020152907818555832, 0.10996557772159576], [0.0017092667985707521, 0.07343706488609314, 0.04202776029706001, 0.02410808391869068, 0.010688389651477337, 0.012526686303317547, 0.005052692722529173, 0.029005497694015503, 0.1502891629934311, 0.0399029441177845, 0.10373876988887787, 0.0888078436255455, 0.02266484871506691, 0.11753580719232559, 0.006228868383914232, 0.04135869815945625, 0.04485810920596123, 0.13237619400024414, 0.0029913675971329212, 0.0492764487862587, 0.0014154523378238082], [0.22077764570713043, 0.09642861038446426, 0.0027066459879279137, 0.0063915494829416275, 0.012444252148270607, 0.012476461939513683, 0.005885593127459288, 0.018537847325205803, 0.09029149264097214, 0.02160990796983242, 0.058462198823690414, 0.002740907948464155, 0.03791794553399086, 0.07036592811346054, 0.008250506594777107, 0.011229235678911209, 0.01618172414600849, 0.10948117077350616, 0.006747445557266474, 0.04061179980635643, 0.1504611372947693], [0.04934440180659294, 0.09061912447214127, 0.00627895537763834, 0.01114097610116005, 0.00853328499943018, 0.01674284227192402, 0.008040893822908401, 0.009641794487833977, 0.16696001589298248, 0.03395626321434975, 0.07938285171985626, 0.0054320078343153, 0.014405496418476105, 0.15718398988246918, 0.01950439065694809, 0.018651103600859642, 0.012912098318338394, 0.2377851903438568, 0.010114866308867931, 0.022092118859291077, 0.021277394145727158], [0.016223803162574768, 0.0683535784482956, 0.021503103896975517, 0.04059378430247307, 0.019659550860524178, 0.01711447164416313, 0.005705703515559435, 0.016280440613627434, 0.15840330719947815, 0.045363374054431915, 0.1192963570356369, 0.02880738116800785, 0.023001480847597122, 0.12461728602647781, 0.014065882191061974, 0.03250902146100998, 0.018672503530979156, 0.1694551706314087, 0.009987769648432732, 0.03963584080338478, 0.010750244371592999], [0.07105554640293121, 0.09477011859416962, 0.0033066123723983765, 0.00776226632297039, 0.010793234221637249, 0.024034813046455383, 0.004067813046276569, 0.0077505107037723064, 0.1663539558649063, 0.022270672023296356, 0.07947934418916702, 0.002518399152904749, 0.021448273211717606, 0.15096913278102875, 0.016749167814850807, 0.012916513718664646, 0.008206617087125778, 0.2514992356300354, 0.005280315410345793, 0.013773118145763874, 0.024994373321533203], [0.12109924107789993, 0.08512485772371292, 0.0011766878888010979, 0.01330273225903511, 0.024692757055163383, 0.02250790037214756, 0.0037032573018223047, 0.012403805740177631, 0.1573159545660019, 0.015330403111875057, 0.09340102225542068, 0.0011803946690633893, 0.04851289838552475, 0.1184544712305069, 0.006397007033228874, 0.013619440607726574, 0.007016791962087154, 0.18178829550743103, 0.006737444084137678, 0.015160142444074154, 0.05107451230287552], [0.03314024209976196, 0.06892368942499161, 0.0017488178564235568, 0.009391097351908684, 0.028627855703234673, 0.06006709486246109, 0.0015415840316563845, 0.007141720503568649, 0.15756338834762573, 0.008889223448932171, 0.09501797705888748, 0.002096066251397133, 0.07218657433986664, 0.15959081053733826, 0.005890188738703728, 0.014276846311986446, 0.006412209942936897, 0.2504938244819641, 0.001779148355126381, 0.005087448284029961, 0.010134239681065083], [0.01828118786215782, 0.07262519747018814, 0.0061975386925041676, 0.010073416866362095, 0.006563212722539902, 0.018615582957863808, 0.005417084787040949, 0.006181214936077595, 0.1806943416595459, 0.026284633204340935, 0.08215605467557907, 0.005037023685872555, 0.01159965991973877, 0.18272168934345245, 0.015098714269697666, 0.020819535478949547, 0.008329818956553936, 0.2941344380378723, 0.007826033048331738, 0.014327498152852058, 0.007016053423285484], [0.017267003655433655, 0.05926743894815445, 0.0049854968674480915, 0.017173366621136665, 0.006354841403663158, 0.014112930744886398, 0.0032132689375430346, 0.005531223025172949, 0.22984115779399872, 0.014134252443909645, 0.10887529700994492, 0.006654696073383093, 0.011378341354429722, 0.2011146992444992, 0.00462203286588192, 0.010591423138976097, 0.0028243146371096373, 0.26291725039482117, 0.002797006396576762, 0.010110894218087196, 0.006233051419258118], [0.03532051667571068, 0.05278339982032776, 0.00802563689649105, 0.015916360542178154, 0.007740981876850128, 0.029844744130969048, 0.0015625777887180448, 0.008861325681209564, 0.16810224950313568, 0.013060042634606361, 0.08290503174066544, 0.006445511244237423, 0.01696837693452835, 0.16465049982070923, 0.007080859038978815, 0.019413890317082405, 0.005713020917028189, 0.33102449774742126, 0.005721477326005697, 0.012317145243287086, 0.006541898474097252], [0.07135237008333206, 0.06371061503887177, 0.005718975327908993, 0.012394117191433907, 0.0137089928612113, 0.05123194307088852, 0.0032547819428145885, 0.006620971951633692, 0.13828282058238983, 0.020415082573890686, 0.07428484410047531, 0.0044858092442154884, 0.030131438747048378, 0.14627793431282043, 0.014584346674382687, 0.016762780025601387, 0.00599699979647994, 0.28655537962913513, 0.005004725884646177, 0.011335370130836964, 0.01788964495062828], [0.011803674511611462, 0.0687856376171112, 0.019779598340392113, 0.01579200103878975, 0.007272239774465561, 0.019219789654016495, 0.012098387815058231, 0.009966900572180748, 0.15051887929439545, 0.053349997848272324, 0.07277780026197433, 0.015556042082607746, 0.010786780156195164, 0.16243095695972443, 0.03312550485134125, 0.03375696390867233, 0.01846352033317089, 0.23652635514736176, 0.01786752976477146, 0.02474069781601429, 0.005380758084356785], [0.012184684164822102, 0.04335661605000496, 0.002465835539624095, 0.026479030027985573, 0.0077974833548069, 0.040577035397291183, 0.004419313743710518, 0.004261406138539314, 0.19387421011924744, 0.020064285025000572, 0.12688519060611725, 0.0038030033465474844, 0.019578242674469948, 0.1999952495098114, 0.005305576603859663, 0.021359188482165337, 0.0020230389200150967, 0.24365976452827454, 0.002505845855921507, 0.013802510686218739, 0.005602553952485323], [0.04777250438928604, 0.051252007484436035, 0.0006532343686558306, 0.0030237892642617226, 0.005956477019935846, 0.042597878724336624, 0.00187741219997406, 0.003910637926310301, 0.1746072918176651, 0.012902705930173397, 0.07935716211795807, 0.0006236393237486482, 0.019927332177758217, 0.1721942275762558, 0.009059973061084747, 0.012149909511208534, 0.003385655116289854, 0.33794164657592773, 0.0017404446844011545, 0.006037983577698469, 0.013028077781200409], [0.31428593397140503, 0.07523920387029648, 0.0006723366677761078, 0.0015315180644392967, 0.0047397976741194725, 0.007276562973856926, 0.011035388335585594, 0.009535611607134342, 0.06654977798461914, 0.007755529135465622, 0.03623100370168686, 0.0008527922327630222, 0.01893620565533638, 0.07356728613376617, 0.014621940441429615, 0.00423989724367857, 0.014790363609790802, 0.0858413353562355, 0.005110567435622215, 0.01606166362762451, 0.2311253398656845]], [[0.08814655989408493, 0.0609050989151001, 0.01477806642651558, 0.0055200629867613316, 0.03029068373143673, 0.03002038411796093, 0.12734384834766388, 0.009396350011229515, 0.06544756144285202, 0.03656309098005295, 0.0447610467672348, 0.016615604981780052, 0.03925321251153946, 0.06349693983793259, 0.061609961092472076, 0.015969345346093178, 0.011611082591116428, 0.07117094844579697, 0.07243156433105469, 0.018505802378058434, 0.1161627545952797], [0.1999429166316986, 0.030199700966477394, 0.030111555010080338, 0.028326231986284256, 0.020408228039741516, 0.03075234219431877, 0.030658697709441185, 0.027606336399912834, 0.0367104671895504, 0.06477490812540054, 0.0324343778192997, 0.03240298479795456, 0.029296191409230232, 0.03429913893342018, 0.03539072349667549, 0.022748412564396858, 0.03335318714380264, 0.039903152734041214, 0.10906952619552612, 0.026201579719781876, 0.10540937632322311], [0.029402850195765495, 0.019027801230549812, 0.09927491098642349, 0.007074642460793257, 0.011478115804493427, 0.008807169273495674, 0.011014417745172977, 0.0027890708297491074, 0.02881482243537903, 0.14517705142498016, 0.025914452970027924, 0.12892380356788635, 0.045491501688957214, 0.03569066524505615, 0.07316604256629944, 0.006136124487966299, 0.002061679260805249, 0.03833366930484772, 0.1282617300748825, 0.016272909939289093, 0.1368865668773651], [0.013918820768594742, 0.022443870082497597, 0.013789919205009937, 0.13429959118366241, 0.031733326613903046, 0.013124053366482258, 0.007831697352230549, 0.04285743087530136, 0.03188561275601387, 0.03899861499667168, 0.036993205547332764, 0.017204217612743378, 0.06861642003059387, 0.03055926039814949, 0.0419309064745903, 0.028098952025175095, 0.011513203382492065, 0.038340043276548386, 0.2493429183959961, 0.054530855268239975, 0.0719870775938034], [0.036133356392383575, 0.02246580272912979, 0.015520095825195312, 0.04995091259479523, 0.007803793530911207, 0.015969805419445038, 0.010395551100373268, 0.0463782474398613, 0.0273339431732893, 0.05167585611343384, 0.020335890352725983, 0.015475200489163399, 0.01915106736123562, 0.03077525645494461, 0.0542624294757843, 0.00901252031326294, 0.021975701674818993, 0.03251224011182785, 0.41464269161224365, 0.025179540738463402, 0.07305014133453369], [0.09892579168081284, 0.051109928637742996, 0.03740962967276573, 0.04807063564658165, 0.022439636290073395, 0.03739457577466965, 0.018529508262872696, 0.05162203684449196, 0.05295997112989426, 0.03581681847572327, 0.0526394248008728, 0.0333172082901001, 0.029622187837958336, 0.04341336339712143, 0.05541747063398361, 0.01916569471359253, 0.0443565770983696, 0.048968423157930374, 0.06951140612363815, 0.052779801189899445, 0.09652987122535706], [0.04564547911286354, 0.016847003251314163, 0.07286514341831207, 0.022359931841492653, 0.02010556124150753, 0.004218681249767542, 0.02697858214378357, 0.010822939686477184, 0.03230518475174904, 0.2524629831314087, 0.020978065207600594, 0.06262367963790894, 0.05200204625725746, 0.03985314443707466, 0.01819230429828167, 0.0033303825184702873, 0.011877119541168213, 0.038837455213069916, 0.11725113540887833, 0.017431898042559624, 0.11301133036613464], [0.03539348021149635, 0.02951381914317608, 0.00448551494628191, 0.1258223056793213, 0.030062876641750336, 0.02746899612247944, 0.008911356329917908, 0.22927524149417877, 0.026249347254633904, 0.0059541198424994946, 0.02623685821890831, 0.004195814020931721, 0.027881421148777008, 0.02532941848039627, 0.029027406126260757, 0.030398810282349586, 0.13964885473251343, 0.033950816839933395, 0.07840652763843536, 0.03514893352985382, 0.04663807526230812], [0.2174353301525116, 0.0536312498152256, 0.02196814864873886, 0.02971584163606167, 0.02212417870759964, 0.026530252769589424, 0.031797364354133606, 0.022259382531046867, 0.04720393568277359, 0.04896534979343414, 0.04356509447097778, 0.018111370503902435, 0.024469180032610893, 0.05082569271326065, 0.0543954074382782, 0.0147749874740839, 0.02329825796186924, 0.06903459131717682, 0.04663080722093582, 0.026214396581053734, 0.10704917460680008], [0.020173605531454086, 0.01218623761087656, 0.02263503335416317, 0.004579624626785517, 0.003399925772100687, 0.0036594655830413103, 0.024426866322755814, 0.0034188800491392612, 0.020049531012773514, 0.04243098571896553, 0.016312407329678535, 0.01576395146548748, 0.014528309926390648, 0.021990276873111725, 0.06743856519460678, 0.008733347058296204, 0.00335011282004416, 0.028288228437304497, 0.5704220533370972, 0.008435678668320179, 0.08777689188718796], [0.20163670182228088, 0.04844757914543152, 0.024338973686099052, 0.03585216775536537, 0.0229350458830595, 0.026854611933231354, 0.031376637518405914, 0.03670629486441612, 0.04327559843659401, 0.043213486671447754, 0.034155383706092834, 0.0156877338886261, 0.02595733478665352, 0.047617629170417786, 0.05531691014766693, 0.01434770505875349, 0.028146469965577126, 0.05448292940855026, 0.058757901191711426, 0.0303431898355484, 0.12054964900016785], [0.03808741644024849, 0.037405434995889664, 0.07203434407711029, 0.011126451194286346, 0.01262405700981617, 0.00945982988923788, 0.013551733456552029, 0.004665416665375233, 0.03537852317094803, 0.0860622450709343, 0.026339661329984665, 0.04810861870646477, 0.033130984753370285, 0.04208080470561981, 0.08170784264802933, 0.004623683635145426, 0.0022974140010774136, 0.04608304798603058, 0.1902758628129959, 0.025366025045514107, 0.17959056794643402], [0.03526010364294052, 0.01906629651784897, 0.021061770617961884, 0.029981393367052078, 0.006930666044354439, 0.009609200060367584, 0.00847125519067049, 0.01939532347023487, 0.01920897327363491, 0.051579225808382034, 0.01644766330718994, 0.013838844373822212, 0.011142222210764885, 0.018121549859642982, 0.04082953557372093, 0.005841855425387621, 0.008693155832588673, 0.019524136558175087, 0.5386855602264404, 0.0232858844101429, 0.08302538841962814], [0.22491729259490967, 0.048158008605241776, 0.02339996211230755, 0.024973340332508087, 0.018449531868100166, 0.02722565084695816, 0.026455622166395187, 0.02102482318878174, 0.05072954669594765, 0.06052784621715546, 0.0451604425907135, 0.018544120714068413, 0.019593294709920883, 0.04808636009693146, 0.05530383810400963, 0.016093067824840546, 0.018415376543998718, 0.06484095007181168, 0.043299976736307144, 0.027155818417668343, 0.11764516681432724], [0.08492128551006317, 0.03630857169628143, 0.03190188854932785, 0.03475797176361084, 0.025060340762138367, 0.026534708216786385, 0.023192724213004112, 0.03225848823785782, 0.06507320702075958, 0.04324501007795334, 0.057590048760175705, 0.02797822654247284, 0.026254255324602127, 0.053135283291339874, 0.1094672679901123, 0.026611538603901863, 0.03275694325566292, 0.09013634920120239, 0.03608452528715134, 0.035267122089862823, 0.10146426409482956], [0.03909042105078697, 0.03356532007455826, 0.01638048142194748, 0.16745366156101227, 0.03120994381606579, 0.027437405660748482, 0.014187777414917946, 0.1447763293981552, 0.03278866782784462, 0.014918242581188679, 0.027518078684806824, 0.009353071451187134, 0.03630680590867996, 0.03560228645801544, 0.0722024068236351, 0.06572247296571732, 0.08317290991544724, 0.04241333529353142, 0.025339389219880104, 0.03556327149271965, 0.044997744262218475], [0.0335426963865757, 0.02833990752696991, 0.004888052586466074, 0.10109712928533554, 0.01500625442713499, 0.012849276885390282, 0.007149490062147379, 0.21099287271499634, 0.022287605330348015, 0.005289061926305294, 0.02084672451019287, 0.0028501455672085285, 0.016018779948353767, 0.01998710259795189, 0.03229750320315361, 0.04610256105661392, 0.31750795245170593, 0.027980390936136246, 0.025732863694429398, 0.01861279271543026, 0.03062083013355732], [0.22127844393253326, 0.04646140709519386, 0.03316555917263031, 0.021768853068351746, 0.02157452143728733, 0.02784847654402256, 0.039085350930690765, 0.02965921349823475, 0.0471699982881546, 0.05875330790877342, 0.03898289054632187, 0.026341808959841728, 0.020251810550689697, 0.046207960695028305, 0.048031996935606, 0.02017000876367092, 0.02972448244690895, 0.054162293672561646, 0.034093938767910004, 0.025731615722179413, 0.1095360815525055], [0.09504318982362747, 0.0857977420091629, 0.0024584827478975058, 0.02411641925573349, 0.018897205591201782, 0.022868629544973373, 0.021406356245279312, 0.007906949147582054, 0.05680760368704796, 0.010697560384869576, 0.08408857136964798, 0.0021581873297691345, 0.026194622740149498, 0.0439591184258461, 0.0397418737411499, 0.011932933703064919, 0.008656317368149757, 0.04998409003019333, 0.2936610281467438, 0.02317012846469879, 0.07045292109251022], [0.06263396888971329, 0.061874277889728546, 0.011658258736133575, 0.07980012893676758, 0.04507036879658699, 0.028105124831199646, 0.010614736936986446, 0.03978003188967705, 0.051625508815050125, 0.020609375089406967, 0.04741419851779938, 0.012965092435479164, 0.05336395278573036, 0.04615135118365288, 0.03042501211166382, 0.018606459721922874, 0.02393089048564434, 0.05295509099960327, 0.14126068353652954, 0.09854213893413544, 0.0626133382320404], [0.07571485638618469, 0.09074462205171585, 0.013461608439683914, 0.03225063160061836, 0.0350971594452858, 0.025054341182112694, 0.034130584448575974, 0.038092099130153656, 0.06471659243106842, 0.030418433248996735, 0.05444243922829628, 0.013545254245400429, 0.03440231829881668, 0.05711378902196884, 0.019685223698616028, 0.019734378904104233, 0.05574566125869751, 0.07181526720523834, 0.08435041457414627, 0.05005441606044769, 0.09942992776632309]], [[0.069743812084198, 0.008134190924465656, 0.009417158551514149, 0.016488224267959595, 0.006481368560343981, 0.004199882037937641, 0.013399794697761536, 0.004216804634779692, 0.027733098715543747, 0.010898338630795479, 0.020447369664907455, 0.026033708825707436, 0.030457209795713425, 0.06443829089403152, 0.02106340229511261, 0.018209079280495644, 0.05784150958061218, 0.08706545829772949, 0.13833467662334442, 0.03227739408612251, 0.3331192433834076], [0.00298838852904737, 0.026260359212756157, 0.16279026865959167, 0.27978190779685974, 0.16235487163066864, 0.043663788586854935, 0.08116108179092407, 0.04334206506609917, 0.02387203276157379, 0.05469295009970665, 0.01623288169503212, 0.019854318350553513, 0.01562952622771263, 0.00843747891485691, 0.01032420713454485, 0.0018112333491444588, 0.005999990273267031, 0.005318680312484503, 0.0145719600841403, 0.00690435990691185, 0.014007745310664177], [0.005406934767961502, 0.01672735996544361, 0.04195091500878334, 0.2439187616109848, 0.15167953073978424, 0.06342456489801407, 0.0741429477930069, 0.09747052937746048, 0.06488600373268127, 0.06690439581871033, 0.03787710890173912, 0.01900879666209221, 0.008585519157350063, 0.024153772741556168, 0.011443976312875748, 0.0032449213322252035, 0.004374066833406687, 0.0082239443436265, 0.013120410963892937, 0.017466722056269646, 0.025988774374127388], [0.013698006048798561, 0.014446060173213482, 0.020132914185523987, 0.06958352029323578, 0.07767390459775925, 0.12489787489175797, 0.13922728598117828, 0.17220979928970337, 0.07424937188625336, 0.05413438379764557, 0.0279743280261755, 0.016861382871866226, 0.00619519641622901, 0.027865217998623848, 0.032346732914447784, 0.004734694492071867, 0.03293624892830849, 0.015213187783956528, 0.007276689633727074, 0.003866112558171153, 0.06447702646255493], [0.0019033955177292228, 0.0019144294783473015, 0.006046149414032698, 0.009037097916007042, 0.004613066557794809, 0.04342767968773842, 0.567777693271637, 0.15606644749641418, 0.02872605063021183, 0.12256897240877151, 0.010515634901821613, 0.013000818900763988, 0.0007081069052219391, 0.005538211669772863, 0.010061964392662048, 0.0006634854362346232, 0.0038867502007633448, 0.001482356688939035, 0.003117308020591736, 0.001452236669138074, 0.007492193020880222], [0.0019133096793666482, 0.0023279362358152866, 0.003912696614861488, 0.0029897745698690414, 0.004550589714199305, 0.00287009053863585, 0.7585669159889221, 0.047604840248823166, 0.03711684048175812, 0.07790277153253555, 0.010805299505591393, 0.014091278426349163, 0.006784358993172646, 0.008102944120764732, 0.008800108917057514, 0.0009329913300462067, 0.0023076424840837717, 0.0032147597521543503, 0.002433215035125613, 0.0005400061490945518, 0.0022316151298582554], [0.010842699557542801, 0.019312679767608643, 0.0036039375700056553, 0.003451113123446703, 0.002509994897991419, 0.0010332772508263588, 0.008814758621156216, 0.04957692697644234, 0.37556561827659607, 0.1870615929365158, 0.09938841313123703, 0.011759836226701736, 0.013742774724960327, 0.11846262216567993, 0.005926365498453379, 0.005340786185115576, 0.005868873093277216, 0.06529034674167633, 0.002056505298241973, 0.003913115710020065, 0.006477815099060535], [0.00507361488416791, 0.010784654878079891, 0.004898834973573685, 0.009456696920096874, 0.004507343750447035, 0.0018094222759827971, 0.022945230826735497, 0.02411949448287487, 0.23088347911834717, 0.15298862755298615, 0.22675564885139465, 0.0823400542140007, 0.04326517879962921, 0.07947919517755508, 0.014139736071228981, 0.0055820755660533905, 0.0071871234104037285, 0.04859286546707153, 0.00851963646709919, 0.004486312158405781, 0.012184797786176205], [0.010531477630138397, 0.01598459482192993, 0.007221637759357691, 0.013074731454253197, 0.010133998468518257, 0.0063176644034683704, 0.0141387227922678, 0.023874569684267044, 0.10333652049303055, 0.09443250298500061, 0.21958445012569427, 0.12081736326217651, 0.09025586396455765, 0.0867253988981247, 0.024867771193385124, 0.01498140674084425, 0.02780642919242382, 0.05810156464576721, 0.015539308078587055, 0.015794970095157623, 0.026479072868824005], [0.013091475702822208, 0.010002825409173965, 0.0018549629021435976, 0.004969076253473759, 0.0016228153835982084, 0.001871684449724853, 0.0027034608647227287, 0.005253160372376442, 0.06225410848855972, 0.02220047265291214, 0.23014870285987854, 0.11566640436649323, 0.10450206696987152, 0.22039926052093506, 0.028385663405060768, 0.007082436233758926, 0.022937586531043053, 0.09119144827127457, 0.016894713044166565, 0.01802733540534973, 0.018940355628728867], [0.008214483968913555, 0.008349456824362278, 0.0064368462190032005, 0.008145215921103954, 0.0064162155613303185, 0.0054872059263288975, 0.014892266131937504, 0.007133444771170616, 0.017436537891626358, 0.028231307864189148, 0.048413269221782684, 0.17384812235832214, 0.29192087054252625, 0.09925978630781174, 0.08780194818973541, 0.02102813497185707, 0.04838266968727112, 0.03118741698563099, 0.030269956216216087, 0.020065397024154663, 0.03707950562238693], [0.005942555610090494, 0.0035374993458390236, 0.0018856788519769907, 0.005648920312523842, 0.0008691813563928008, 0.0014641531743109226, 0.00733793992549181, 0.0036241544876247644, 0.014637062326073647, 0.011538403108716011, 0.025894947350025177, 0.08021596074104309, 0.11768466979265213, 0.19420276582241058, 0.19155174493789673, 0.040992092341184616, 0.06004764512181282, 0.0386216938495636, 0.060084592550992966, 0.07736194878816605, 0.056856345385313034], [0.002382432110607624, 0.0007826350047253072, 0.00248892093077302, 0.0017453498439863324, 0.00028353542438708246, 0.0007998616783879697, 0.01464495062828064, 0.001466093584895134, 0.0033893478102982044, 0.024844221770763397, 0.0032251630909740925, 0.02610764466226101, 0.011419943533837795, 0.02921406365931034, 0.36292916536331177, 0.02352755516767502, 0.076240174472332, 0.007454368751496077, 0.1731887310743332, 0.15092028677463531, 0.0829455554485321], [0.016998469829559326, 0.020650601014494896, 0.012745303101837635, 0.014898624271154404, 0.007129864301532507, 0.006226298864930868, 0.014461671933531761, 0.011940663680434227, 0.05295912176370621, 0.02439056523144245, 0.02716875821352005, 0.019832702353596687, 0.03133692964911461, 0.1124165877699852, 0.11282631009817123, 0.059948552399873734, 0.1409185826778412, 0.13465172052383423, 0.0585838221013546, 0.06230061501264572, 0.05761433765292168], [0.010665679350495338, 0.007589397020637989, 0.011122348718345165, 0.010938582941889763, 0.0023689046502113342, 0.0017045469721779227, 0.0059666745364665985, 0.0017410478321835399, 0.025844698771834373, 0.020265832543373108, 0.011020257137715816, 0.010153298266232014, 0.005684340838342905, 0.03808778151869774, 0.12064485996961594, 0.017573466524481773, 0.13020840287208557, 0.11072173714637756, 0.18056385219097137, 0.198362797498703, 0.07877139747142792], [0.018174637109041214, 0.0190072450786829, 0.014603202231228352, 0.009251742623746395, 0.005120638757944107, 0.002920685103163123, 0.009904678910970688, 0.001643569441512227, 0.03079267032444477, 0.014665916562080383, 0.014568527229130268, 0.010157044045627117, 0.008293087594211102, 0.057693175971508026, 0.07347827404737473, 0.020621556788682938, 0.06976617127656937, 0.20517325401306152, 0.173383429646492, 0.16280652582645416, 0.07797389477491379], [0.010588803328573704, 0.01821753941476345, 0.011664065532386303, 0.011314629577100277, 0.003768478287383914, 0.001480771810747683, 0.0027580822352319956, 0.0009407759644091129, 0.0365544855594635, 0.004273119382560253, 0.017570888623595238, 0.006466749124228954, 0.008706606924533844, 0.07022292166948318, 0.008826700039207935, 0.009347320534288883, 0.018655894324183464, 0.40411078929901123, 0.14425629377365112, 0.11520468443632126, 0.09507038444280624], [0.027121206745505333, 0.060055408626794815, 0.009298750199377537, 0.015255482867360115, 0.0058968085795640945, 0.005726840812712908, 0.005358381196856499, 0.006138155236840248, 0.09274673461914062, 0.004237049724906683, 0.03227483481168747, 0.0042716870084404945, 0.008428562432527542, 0.16507825255393982, 0.008006633259356022, 0.009944912046194077, 0.015169147402048111, 0.42616894841194153, 0.031084474176168442, 0.03648743778467178, 0.03125021979212761], [0.017370758578181267, 0.014962046407163143, 0.005152231082320213, 0.009455006569623947, 0.003190069692209363, 0.0038318473380059004, 0.014370662160217762, 0.0030180022586137056, 0.06829147040843964, 0.004330446943640709, 0.021625589579343796, 0.005547182634472847, 0.0036335806362330914, 0.1649918407201767, 0.054075371474027634, 0.007362208794802427, 0.012257088907063007, 0.17304109036922455, 0.10758090764284134, 0.12984375655651093, 0.1760687530040741], [0.010518208146095276, 0.010118497535586357, 0.001980084925889969, 0.004729895386844873, 0.0111202048137784, 0.004031833726912737, 0.017628220841288567, 0.002755553927272558, 0.07903039455413818, 0.00529167614877224, 0.017273198813199997, 0.0031065165530890226, 0.011193943209946156, 0.19245703518390656, 0.02449471689760685, 0.008312888443470001, 0.010779077187180519, 0.25644350051879883, 0.10735690593719482, 0.041303105652332306, 0.1800745278596878], [0.009886316955089569, 0.06540748476982117, 0.0214428398758173, 0.06189749389886856, 0.02263023890554905, 0.014734472148120403, 0.040888525545597076, 0.019216110929846764, 0.11016621440649033, 0.03966445475816727, 0.024343034252524376, 0.010907061398029327, 0.023207487538456917, 0.14859850704669952, 0.04207463935017586, 0.010361408814787865, 0.02804536744952202, 0.1764719933271408, 0.06644121557474136, 0.02595490776002407, 0.03766026720404625]], [[0.03299587965011597, 0.021078765392303467, 0.008261440321803093, 0.02207290381193161, 0.010107854381203651, 0.010112800635397434, 0.009043539874255657, 0.004846001043915749, 0.07598000764846802, 0.013412294909358025, 0.08519785851240158, 0.0126314302906394, 0.015647897496819496, 0.08013808727264404, 0.009027792140841484, 0.023451274260878563, 0.010044456459581852, 0.24772755801677704, 0.07711529731750488, 0.05987467244267464, 0.1712321937084198], [0.08507746458053589, 0.1794952005147934, 0.030460698530077934, 0.027655815705657005, 0.016747133806347847, 0.016410110518336296, 0.07816237211227417, 0.009606481529772282, 0.06792084127664566, 0.005733644589781761, 0.045134253799915314, 0.012571888975799084, 0.018619781360030174, 0.10522427409887314, 0.01953824982047081, 0.028463495895266533, 0.021244926378130913, 0.20599843561649323, 0.01284260768443346, 0.0028818959835916758, 0.010210405103862286], [0.018378600478172302, 0.7152222394943237, 0.07219603657722473, 0.039336126297712326, 0.006211419589817524, 0.01377763319760561, 0.018439583480358124, 0.008640483021736145, 0.010155638679862022, 0.0035704371985048056, 0.007077685557305813, 0.000425645150244236, 0.0021079203579574823, 0.007840973325073719, 0.012304711155593395, 0.004145047161728144, 0.011976701207458973, 0.019197626039385796, 0.018257074058055878, 0.004771641455590725, 0.005966679658740759], [0.02319660596549511, 0.4145546853542328, 0.39528027176856995, 0.0413968600332737, 0.019142882898449898, 0.0013649639440700412, 0.002478179056197405, 0.0012675219913944602, 0.013807606883347034, 0.0007638160022906959, 0.004157991148531437, 0.0005446170689538121, 0.0012711378512904048, 0.01216992549598217, 0.0008686613291501999, 0.0010578283108770847, 0.0010497799376025796, 0.05316881462931633, 0.00580656249076128, 0.0032058567740023136, 0.0034453654661774635], [0.0014572017826139927, 0.11415620148181915, 0.2391965538263321, 0.58643639087677, 0.015549222938716412, 0.005065739620476961, 0.00040553792496211827, 0.0002993725938722491, 0.0036303282249718904, 0.0014007700374349952, 0.0032749101519584656, 0.0003038112190552056, 7.046691462164745e-05, 0.0022254283539950848, 0.0005240608588792384, 0.0006236292538233101, 0.0002806612756103277, 0.004956166259944439, 0.007922619581222534, 0.0057002948597073555, 0.006520566064864397], [0.0004183895653113723, 0.015604322776198387, 0.011103552766144276, 0.4315766990184784, 0.5182828307151794, 0.00682759378105402, 0.0013465257361531258, 0.00011866303975693882, 0.002138923155143857, 0.0001660275593167171, 0.0027584300842136145, 0.00013786146882921457, 0.0001381183392368257, 0.00226764683611691, 0.00020925035641994327, 8.943907596403733e-05, 3.711467797984369e-05, 0.0052980645559728146, 0.00016117100312840194, 0.00013065601524431258, 0.0011887558503076434], [0.01909949816763401, 0.07071857899427414, 0.01512831449508667, 0.0877675861120224, 0.23360447585582733, 0.3838632106781006, 0.020789053291082382, 0.010653665289282799, 0.037795934826135635, 0.005097575485706329, 0.015339273028075695, 0.0010971612064167857, 0.0005451652687042952, 0.051428601145744324, 0.00714315427467227, 0.0002061225677607581, 0.00035605396260507405, 0.03642504662275314, 0.0010121890809386969, 0.000220833026105538, 0.0017086181323975325], [0.0011353050358593464, 0.020723648369312286, 0.006483924109488726, 0.012816575355827808, 0.11312326788902283, 0.1225970983505249, 0.6218710541725159, 0.020630158483982086, 0.04094192385673523, 0.0035553236957639456, 0.005266872234642506, 0.0004973381292074919, 0.0010236100060865283, 0.01968243531882763, 0.000560174637939781, 9.733725892147049e-05, 4.438347968971357e-05, 0.005425664130598307, 0.0003719718079082668, 0.0001264643797185272, 0.00302539742551744], [0.006084664724767208, 0.02014339156448841, 0.009374596178531647, 0.015545738860964775, 0.021485647186636925, 0.06629519164562225, 0.5672353506088257, 0.1289723962545395, 0.09308522939682007, 0.010090460069477558, 0.007314616814255714, 0.0014987197937443852, 0.0045899925753474236, 0.022900961339473724, 0.005385804455727339, 0.0015503757167607546, 0.000821937108412385, 0.006338679231703281, 0.0020008189603686333, 0.000544724811334163, 0.008740806020796299], [0.0013372866669669747, 0.003161190077662468, 0.005070893093943596, 0.001640148344449699, 0.0030329744331538677, 0.008771022781729698, 0.5032117962837219, 0.3096371591091156, 0.12279576808214188, 0.029170125722885132, 0.0032831307034939528, 0.0005329187260940671, 0.0005875254864804447, 0.0027466986794024706, 0.0025000274181365967, 0.0004494998720474541, 0.00034242653055116534, 0.0006299749366007745, 0.0003277766809333116, 8.639059524284676e-05, 0.0006851934012956917], [0.003737262450158596, 0.010485897772014141, 0.0033761905506253242, 0.00557872885838151, 0.0039266422390937805, 0.004847373813390732, 0.057453420013189316, 0.09422925859689713, 0.42036789655685425, 0.214517280459404, 0.13887906074523926, 0.010734356939792633, 0.002970748580992222, 0.009339428506791592, 0.0016150579322129488, 0.0017596252728253603, 0.001402991940267384, 0.008983474224805832, 0.00048248207895085216, 0.00018792098853737116, 0.005124849267303944], [0.00023187440820038319, 0.0029153130017220974, 0.0003867322229780257, 0.000961651501711458, 0.0008092038915492594, 0.006053332705050707, 0.007828217931091785, 0.02437366358935833, 0.04940374195575714, 0.46058884263038635, 0.417259156703949, 0.018436308950185776, 0.0040388391353189945, 0.001341743627563119, 0.0013977296184748411, 0.00047563452972099185, 0.0003742930421140045, 0.0005043104174546897, 0.0005477611557580531, 0.00016882152704056352, 0.0019027777016162872], [0.000749116821680218, 0.003535079536959529, 0.0003534686693456024, 0.001078224740922451, 4.384302883408964e-05, 0.0014883815310895443, 0.0026590165216475725, 0.002238469198346138, 0.025463899597525597, 0.07478123903274536, 0.5440453886985779, 0.29930630326271057, 0.011121039278805256, 0.020694537088274956, 0.001558523392304778, 0.001598987029865384, 0.0004313009849283844, 0.004880920518189669, 0.0010911416029557586, 0.0002378394128754735, 0.00264331535436213], [0.010935695841908455, 0.014151966199278831, 0.004140186123549938, 0.007040820084512234, 0.003312688786536455, 0.011942598968744278, 0.019925689324736595, 0.008544902317225933, 0.034082282334566116, 0.016206083819270134, 0.17462439835071564, 0.1873883157968521, 0.2471829205751419, 0.17085900902748108, 0.015693917870521545, 0.006737211253494024, 0.0035574145149439573, 0.0243893563747406, 0.010623522102832794, 0.004927427973598242, 0.023733563721179962], [0.001621593488380313, 0.0019493568688631058, 0.003674236126244068, 0.0019314071396365762, 0.001373590319417417, 0.004460609517991543, 0.012267212383449078, 0.006865234114229679, 0.01000024750828743, 0.014393686316907406, 0.02508481591939926, 0.15746286511421204, 0.4663722515106201, 0.1765202432870865, 0.08191057294607162, 0.01685742661356926, 0.0022193691693246365, 0.0023254973348230124, 0.0033554055262356997, 0.0016116577899083495, 0.00774266617372632], [0.001123136724345386, 0.0014689811505377293, 0.000457005575299263, 0.0005680853500962257, 0.002234720392152667, 0.0004908759729005396, 0.0005760567728430033, 0.0030213268473744392, 0.014998214319348335, 0.004647879861295223, 0.02289516106247902, 0.027690162882208824, 0.47380736470222473, 0.3609956204891205, 0.055652063339948654, 0.005712398327887058, 0.003710142569616437, 0.008967315778136253, 0.0004247651086188853, 0.0010926518589258194, 0.00946605484932661], [0.0009548951056785882, 0.002800432499498129, 0.0002277301246067509, 0.00033216277370229363, 0.002897365717217326, 0.0006756815710105002, 0.0019871501717716455, 0.0008017139625735581, 0.01202458143234253, 0.006443037651479244, 0.01807740516960621, 0.01265332754701376, 0.24936619400978088, 0.3148573637008667, 0.31502917408943176, 0.02566705457866192, 0.005513222422450781, 0.015033192001283169, 0.0018559452146291733, 0.0010178409283980727, 0.011784512549638748], [0.029086850583553314, 0.021079204976558685, 0.002063908614218235, 0.004167668055742979, 0.0014823884703218937, 0.005991657730191946, 0.011824127286672592, 0.005468752235174179, 0.04969728738069534, 0.00863636378198862, 0.05605350434780121, 0.018581202253699303, 0.030316725373268127, 0.17964302003383636, 0.10086019337177277, 0.10735677182674408, 0.1091814637184143, 0.18364199995994568, 0.023225119337439537, 0.009288042783737183, 0.042353708297014236], [0.005245751701295376, 0.01374912355095148, 0.012180255725979805, 0.000690172309987247, 0.00015788929886184633, 0.0002771011786535382, 0.004348800051957369, 0.0011569139314815402, 0.0039663719944655895, 0.004028786905109882, 0.003923447802662849, 0.014876140281558037, 0.019501645117998123, 0.021029841154813766, 0.07535947859287262, 0.07194152474403381, 0.5182738900184631, 0.10339163988828659, 0.06961953639984131, 0.018845710903406143, 0.03743584826588631], [0.0030702161602675915, 0.009056207723915577, 0.004895152524113655, 0.0008101966232061386, 0.00022786902263760567, 0.000180352246388793, 0.0009260764927603304, 0.0020268133375793695, 0.006351741962134838, 0.0018240223871544003, 0.005547225009649992, 0.01318775862455368, 0.15444636344909668, 0.035275381058454514, 0.029629137367010117, 0.015546387992799282, 0.37852177023887634, 0.14414942264556885, 0.04980092868208885, 0.016537992283701897, 0.12798894941806793], [0.03358369693160057, 0.05065952241420746, 0.013767373748123646, 0.013213644735515118, 0.0024175227154046297, 0.0010206586448475718, 0.003217855002731085, 0.001163979759439826, 0.030073847621679306, 0.0030082121957093477, 0.026132337749004364, 0.003920334856957197, 0.009536037221550941, 0.0799315944314003, 0.0196430254727602, 0.0217357836663723, 0.02016792818903923, 0.3254625201225281, 0.15863122045993805, 0.10991782695055008, 0.07279510051012039]], [[0.0038461082149297, 0.026005277410149574, 0.04181242734193802, 0.042825985699892044, 0.006661716848611832, 0.0029004232492297888, 0.042901355773210526, 0.023407652974128723, 0.04723592475056648, 0.40973329544067383, 0.03960786759853363, 0.04453353211283684, 0.005078630521893501, 0.054562557488679886, 0.013278010301291943, 0.003956388682126999, 0.011956104077398777, 0.06949672102928162, 0.03738798946142197, 0.01491368468850851, 0.057898253202438354], [0.19612623751163483, 0.035574059933423996, 0.005597653333097696, 0.015516625717282295, 0.003918622154742479, 0.009980048052966595, 0.010170667432248592, 0.0096967201679945, 0.04413170740008354, 0.014591382816433907, 0.0466005839407444, 0.004974975250661373, 0.004884383641183376, 0.042029935866594315, 0.009975050576031208, 0.009876498021185398, 0.006897205486893654, 0.0730203166604042, 0.013236473314464092, 0.018510032445192337, 0.42469078302383423], [0.0407898910343647, 0.07395324856042862, 0.00034988950937986374, 0.0015997798182070255, 0.0005821557133458555, 0.007777772378176451, 0.0006590069970116019, 0.007879145443439484, 0.21360281109809875, 0.004066525027155876, 0.15088880062103271, 0.00044110443559475243, 0.0017199032008647919, 0.18832924962043762, 0.00287065957672894, 0.0037267219740897417, 0.006089295260608196, 0.2442704290151596, 0.0009197755134664476, 0.009735146537423134, 0.03974870592355728], [0.05480587109923363, 0.11791174113750458, 0.0013316778931766748, 0.012561562471091747, 0.0015400111442431808, 0.03488082066178322, 0.006632304284721613, 0.01899908110499382, 0.17006540298461914, 0.008489676751196384, 0.12307406961917877, 0.0011927974410355091, 0.0029038735665380955, 0.17876185476779938, 0.0043189628049731255, 0.0032425234094262123, 0.005688529461622238, 0.214578777551651, 0.00166152766905725, 0.014676352962851524, 0.022682663053274155], [0.030053183436393738, 0.09294931590557098, 0.0037427935749292374, 0.012428628280758858, 0.0013476517051458359, 0.014711083844304085, 0.0015486994525417686, 0.007252200972288847, 0.21049511432647705, 0.007354435510933399, 0.1561867594718933, 0.0038390785921365023, 0.00225052353926003, 0.1846037358045578, 0.008561843074858189, 0.006289190147072077, 0.004688376095145941, 0.22263363003730774, 0.0017743748612701893, 0.016033006832003593, 0.011256476864218712], [0.02411072328686714, 0.09755056351423264, 0.002624127082526684, 0.01245094370096922, 0.003344553057104349, 0.040319327265024185, 0.004644390661269426, 0.003940436989068985, 0.17440517246723175, 0.018884584307670593, 0.15092596411705017, 0.0018309151055291295, 0.005879675038158894, 0.21292610466480255, 0.007271552924066782, 0.0015768331941217184, 0.0010227628517895937, 0.2070353478193283, 0.0033389439340680838, 0.013039113022387028, 0.012877884320914745], [0.005107512231916189, 0.10164390504360199, 0.0045591057278215885, 0.004400926176458597, 0.0038754057604819536, 0.07753945887088776, 0.006416634190827608, 0.014286995865404606, 0.21875204145908356, 0.012679158709943295, 0.11930370330810547, 0.00409722002223134, 0.0077826096676290035, 0.21024231612682343, 0.004485197830945253, 0.004687023349106312, 0.010587048716843128, 0.1699926108121872, 0.0018291173037141562, 0.01609395071864128, 0.0016378770815208554], [0.02216878905892372, 0.1176929622888565, 0.0004908404662273824, 0.008461454883217812, 0.0008400590741075575, 0.01656663417816162, 0.002731689950451255, 0.20016305148601532, 0.13587644696235657, 0.004653652664273977, 0.11257915198802948, 0.0003909852239303291, 0.0017332846764475107, 0.1246633380651474, 0.0017351236892864108, 0.002480579074472189, 0.03208038955926895, 0.18887600302696228, 0.0005802460946142673, 0.015141605399549007, 0.01009366661310196], [0.045584291219711304, 0.062020089477300644, 0.005572198424488306, 0.013979661278426647, 0.0030287900008261204, 0.024476082995533943, 0.015135640278458595, 0.023578215390443802, 0.15533395111560822, 0.019249001517891884, 0.10012103617191315, 0.005467742681503296, 0.005398903042078018, 0.17855075001716614, 0.00859149731695652, 0.007313029374927282, 0.01110243983566761, 0.27035412192344666, 0.004820394329726696, 0.026525385677814484, 0.013796842657029629], [0.008076086640357971, 0.09802761673927307, 0.0018901985604315996, 0.008565729483962059, 0.0022589953150600195, 0.014956530183553696, 0.0075109838508069515, 0.005102801136672497, 0.19660982489585876, 0.02094249241054058, 0.1387946605682373, 0.0021571917459368706, 0.006061079911887646, 0.22474467754364014, 0.009227980859577656, 0.0024573567789047956, 0.002077479148283601, 0.22718709707260132, 0.0016131000593304634, 0.016367418691515923, 0.0053708371706306934], [0.06457775086164474, 0.07017138600349426, 0.003883623518049717, 0.00965144857764244, 0.0024421412963420153, 0.027206901460886, 0.006742879748344421, 0.01898648776113987, 0.1670185625553131, 0.011100120842456818, 0.11669016629457474, 0.003912161570042372, 0.005032585933804512, 0.16972284018993378, 0.005736819468438625, 0.006780881434679031, 0.0102331368252635, 0.24396006762981415, 0.003675400046631694, 0.0286862850189209, 0.023788422346115112], [0.0298153106123209, 0.06243308261036873, 0.00019655353389680386, 0.0011221520835533738, 0.0002069890615530312, 0.005650984589010477, 0.00036935030948370695, 0.0048637911677360535, 0.23737584054470062, 0.0018736891215667129, 0.1537940949201584, 0.0003098254674114287, 0.0008400427759625018, 0.203590527176857, 0.0011678828159347177, 0.001684942515566945, 0.003104252740740776, 0.27009135484695435, 0.0002948894980363548, 0.007245942950248718, 0.01396846491843462], [0.021893145516514778, 0.07163936644792557, 0.0031377309933304787, 0.010400126688182354, 0.0010062940418720245, 0.011457234621047974, 0.0010039177723228931, 0.0065951575525105, 0.22984303534030914, 0.004299691878259182, 0.15581916272640228, 0.0038988611195236444, 0.001997958403080702, 0.20945577323436737, 0.007421242073178291, 0.005977426655590534, 0.0047896504402160645, 0.2292906790971756, 0.0009979536989703774, 0.01253183837980032, 0.006543682422488928], [0.034376997500658035, 0.05907052382826805, 0.005675239022821188, 0.01151595264673233, 0.0022864823695272207, 0.022124871611595154, 0.012759859673678875, 0.01602352410554886, 0.1627776175737381, 0.015905888751149178, 0.10169877856969833, 0.005901831202208996, 0.004475530236959457, 0.18717798590660095, 0.008085222914814949, 0.006333478726446629, 0.008487042039632797, 0.2958727777004242, 0.003451864467933774, 0.024317298084497452, 0.011681205593049526], [0.007533974014222622, 0.08366810530424118, 0.002795094856992364, 0.008427750319242477, 0.006720507517457008, 0.02365337871015072, 0.015540871769189835, 0.02913227118551731, 0.17872518301010132, 0.020294824615120888, 0.11713845282793045, 0.0028200745582580566, 0.019571619108319283, 0.21401867270469666, 0.02216842956840992, 0.0045890784822404385, 0.009053124114871025, 0.181589737534523, 0.0030412760097533464, 0.03697870299220085, 0.012538937851786613], [0.022875899448990822, 0.10151991248130798, 0.002678296063095331, 0.005326635669916868, 0.002105340361595154, 0.041362348943948746, 0.0025061455089598894, 0.007101456634700298, 0.20588232576847076, 0.006788432132452726, 0.15816263854503632, 0.002543192356824875, 0.003955136053264141, 0.18576580286026, 0.007658245973289013, 0.004055290948599577, 0.005404788535088301, 0.205791637301445, 0.0010779527947306633, 0.01831759512424469, 0.009120885282754898], [0.021727263927459717, 0.07003060728311539, 0.0005126871401444077, 0.005668046418577433, 0.0005668238154612482, 0.006588883697986603, 0.002943312982097268, 0.4189319908618927, 0.07830405235290527, 0.004239765461534262, 0.06831859797239304, 0.0006315680220723152, 0.0011508835013955832, 0.06042435020208359, 0.0024466223549097776, 0.0033920500427484512, 0.13523438572883606, 0.08810105174779892, 0.0006138770841062069, 0.017815550789237022, 0.012357598170638084], [0.0295706894248724, 0.06483834981918335, 0.005769002716988325, 0.012955463491380215, 0.0025490368716418743, 0.029505936428904533, 0.02527136169373989, 0.027519289404153824, 0.14700987935066223, 0.02277289144694805, 0.08624302595853806, 0.005669448059052229, 0.0052114431746304035, 0.1767815351486206, 0.005800091195851564, 0.00614696042612195, 0.013218024745583534, 0.29359135031700134, 0.004323374945670366, 0.02823401242494583, 0.007018845062702894], [0.03859046846628189, 0.10778443515300751, 0.006025335751473904, 0.008556828834116459, 0.003869719337671995, 0.016181297600269318, 0.007869265042245388, 0.026396311819553375, 0.14786404371261597, 0.017404109239578247, 0.13633795082569122, 0.006088509690016508, 0.010478125885128975, 0.1309879720211029, 0.009076554328203201, 0.00896103773266077, 0.015902204439044, 0.1633148491382599, 0.004347789566963911, 0.03404836729168892, 0.0999148041009903], [0.016807550564408302, 0.06883395463228226, 0.008718003518879414, 0.013723209500312805, 0.005546568427234888, 0.030024541541934013, 0.006237160414457321, 0.010931232944130898, 0.18753942847251892, 0.013467365875840187, 0.1379128247499466, 0.008112078532576561, 0.00860135443508625, 0.20920337736606598, 0.012285223230719566, 0.0077719311229884624, 0.007848022505640984, 0.21210698783397675, 0.00377467623911798, 0.020146045833826065, 0.01040840893983841], [0.05554880574345589, 0.04308963194489479, 0.04162633791565895, 0.047891244292259216, 0.012501968070864677, 0.009352515451610088, 0.02476491965353489, 0.08025860041379929, 0.08653675019741058, 0.04529959335923195, 0.0642198696732521, 0.03027140349149704, 0.012973083183169365, 0.10962734371423721, 0.0036048362962901592, 0.025875471532344818, 0.042663075029850006, 0.09657813608646393, 0.06022397801280022, 0.01760926842689514, 0.08948316425085068]], [[0.005087888799607754, 0.02076099067926407, 0.01848098821938038, 0.04922671616077423, 0.02940461039543152, 0.015753136947751045, 0.07727399468421936, 0.026303034275770187, 0.026138531044125557, 0.31269708275794983, 0.029728876426815987, 0.03513108193874359, 0.05238613486289978, 0.01794062927365303, 0.037759244441986084, 0.015942037105560303, 0.014842557720839977, 0.01407726388424635, 0.09661939740180969, 0.02122998610138893, 0.08321593701839447], [0.0163996834307909, 0.03413587436079979, 0.023869000375270844, 0.047161273658275604, 0.0533718578517437, 0.016780462116003036, 0.05651814118027687, 0.05532292649149895, 0.053660228848457336, 0.09489642083644867, 0.056712910532951355, 0.047073278576135635, 0.08612433820962906, 0.03665833920240402, 0.027930114418268204, 0.008779741823673248, 0.04562827944755554, 0.031944192945957184, 0.06547237187623978, 0.020650556311011314, 0.12091001123189926], [0.03530137613415718, 0.07093975692987442, 0.02799653261899948, 0.10307791829109192, 0.032316822558641434, 0.03560498729348183, 0.05708695948123932, 0.011743291281163692, 0.08430133759975433, 0.02156849205493927, 0.08387968689203262, 0.08917397260665894, 0.08862357586622238, 0.06370160728693008, 0.0068089645355939865, 0.004060608800500631, 0.0065298923291265965, 0.0735178217291832, 0.0044768513180315495, 0.005760143045336008, 0.09352932125329971], [0.013500341214239597, 0.05270162224769592, 0.017921652644872665, 0.06169171258807182, 0.062712661921978, 0.049649015069007874, 0.018026558682322502, 0.033593107014894485, 0.0765642300248146, 0.024310875684022903, 0.0720442458987236, 0.027898676693439484, 0.08012714982032776, 0.08021591603755951, 0.05848442763090134, 0.012072916142642498, 0.055956415832042694, 0.07083098590373993, 0.023966016247868538, 0.02784622646868229, 0.07988519966602325], [0.018371015787124634, 0.05010512098670006, 0.051285624504089355, 0.03793581575155258, 0.014740988612174988, 0.025467239320278168, 0.011575267650187016, 0.08596981316804886, 0.0811147466301918, 0.04084549471735954, 0.07561612129211426, 0.0874844565987587, 0.024271033704280853, 0.06265964359045029, 0.015957850962877274, 0.014686859212815762, 0.05406421422958374, 0.06982078403234482, 0.020282482728362083, 0.013661598786711693, 0.1440838873386383], [0.011842206120491028, 0.03061848320066929, 0.04865679889917374, 0.0850033387541771, 0.028937650844454765, 0.0772203654050827, 0.01707056537270546, 0.08623809367418289, 0.037755079567432404, 0.07693686336278915, 0.04125066101551056, 0.08409057557582855, 0.03477117419242859, 0.03402772918343544, 0.02137095108628273, 0.022811606526374817, 0.062453288584947586, 0.030563246458768845, 0.08319788426160812, 0.018033353611826897, 0.06714996695518494], [0.06140684708952904, 0.07426469027996063, 0.059528596699237823, 0.019092103466391563, 0.021073102951049805, 0.005849761422723532, 0.05557753145694733, 0.014689655974507332, 0.08076343685388565, 0.11473725736141205, 0.06571843475103378, 0.03926559537649155, 0.01598920114338398, 0.06381797790527344, 0.02708812616765499, 0.009835285134613514, 0.008720564655959606, 0.08502712845802307, 0.0251974668353796, 0.05575846880674362, 0.09659869223833084], [0.013633793219923973, 0.03739513084292412, 0.018646350130438805, 0.052940528839826584, 0.05104253068566322, 0.05956915393471718, 0.03199338912963867, 0.12768596410751343, 0.0440526157617569, 0.010814306326210499, 0.047004371881484985, 0.019933877512812614, 0.042298831045627594, 0.050727345049381256, 0.030774345621466637, 0.020379096269607544, 0.18538619577884674, 0.03416486456990242, 0.007026762701570988, 0.01656801626086235, 0.09796258807182312], [0.0342692993581295, 0.04394453763961792, 0.025350378826260567, 0.04319688305258751, 0.040918655693531036, 0.022060325369238853, 0.04188019782304764, 0.034945473074913025, 0.06078802049160004, 0.08019349724054337, 0.06260892748832703, 0.03431635722517967, 0.07019848376512527, 0.055955950170755386, 0.06466846168041229, 0.012613460421562195, 0.039979055523872375, 0.05178368091583252, 0.04465650022029877, 0.030586805194616318, 0.10508516430854797], [0.03183020278811455, 0.04342466965317726, 0.02151617594063282, 0.016409235075116158, 0.01093979924917221, 0.019430674612522125, 0.3072849214076996, 0.004849607590585947, 0.046617135405540466, 0.08041369169950485, 0.036429502069950104, 0.01787477917969227, 0.03406042233109474, 0.07023642957210541, 0.019051257520914078, 0.012346548028290272, 0.004196137189865112, 0.08490167558193207, 0.011788261123001575, 0.016209494322538376, 0.11018934845924377], [0.03687313571572304, 0.04452323541045189, 0.019556276500225067, 0.048632167279720306, 0.043533071875572205, 0.021726662293076515, 0.03547351434826851, 0.04003768414258957, 0.06266605854034424, 0.06870441883802414, 0.059295445680618286, 0.02505718544125557, 0.07503733038902283, 0.05389941856265068, 0.06292302906513214, 0.01354025024920702, 0.05231836810708046, 0.046779125928878784, 0.04635107144713402, 0.03870349004864693, 0.1043691411614418], [0.0702783390879631, 0.09046991169452667, 0.034075044095516205, 0.06555909663438797, 0.026552274823188782, 0.03825761750340462, 0.02997523732483387, 0.013670708052814007, 0.09678985923528671, 0.015012740157544613, 0.07558692991733551, 0.062017180025577545, 0.061599407345056534, 0.08166327327489853, 0.015138866379857063, 0.003971319645643234, 0.009296534582972527, 0.09752257168292999, 0.004603056702762842, 0.00901233870536089, 0.09894765168428421], [0.02893831394612789, 0.04753120243549347, 0.07107540220022202, 0.04089188948273659, 0.02472686395049095, 0.023498445749282837, 0.014007116667926311, 0.03517036885023117, 0.0721888542175293, 0.03936164826154709, 0.0680806115269661, 0.10441438853740692, 0.06386365741491318, 0.062401965260505676, 0.016032230108976364, 0.00719844875857234, 0.03959633409976959, 0.06839315593242645, 0.015487616881728172, 0.01880091242492199, 0.13834063708782196], [0.03659222275018692, 0.03994357958436012, 0.02694273181259632, 0.0490000881254673, 0.02968081459403038, 0.016045112162828445, 0.03281589597463608, 0.042356058955192566, 0.06164513900876045, 0.11627024412155151, 0.06308412551879883, 0.03580940142273903, 0.050867173820734024, 0.052687134593725204, 0.058797381818294525, 0.012393740005791187, 0.03356514498591423, 0.055586520582437515, 0.05138470605015755, 0.03635517135262489, 0.09817761927843094], [0.01153492834419012, 0.044422540813684464, 0.05152570828795433, 0.12179894745349884, 0.06343428045511246, 0.030876144766807556, 0.021262191236019135, 0.05124139413237572, 0.04596319422125816, 0.04516565799713135, 0.042149439454078674, 0.04215383529663086, 0.07942226529121399, 0.05052156373858452, 0.048843856900930405, 0.016765307635068893, 0.05691714584827423, 0.04144669696688652, 0.05073325335979462, 0.030161617323756218, 0.053660035133361816], [0.0230367761105299, 0.03095826879143715, 0.03132711723446846, 0.12263639271259308, 0.0650881826877594, 0.021439552307128906, 0.03401726856827736, 0.0327254943549633, 0.03342529386281967, 0.07950256764888763, 0.0348498672246933, 0.023880301043391228, 0.0947728157043457, 0.036746546626091, 0.043957244604825974, 0.01935613714158535, 0.052343178540468216, 0.036012835800647736, 0.056060872972011566, 0.03784412145614624, 0.09001918882131577], [0.03854706138372421, 0.050499409437179565, 0.03325425833463669, 0.027194468304514885, 0.010990168899297714, 0.019127128645777702, 0.03444790467619896, 0.18043851852416992, 0.04995820298790932, 0.02722054533660412, 0.03934022784233093, 0.021425794810056686, 0.01391855999827385, 0.0619455948472023, 0.04397938400506973, 0.010863316245377064, 0.11492966115474701, 0.041423603892326355, 0.018565349280834198, 0.051158152520656586, 0.11077272146940231], [0.05065218731760979, 0.04707743600010872, 0.021286550909280777, 0.046045660972595215, 0.03575733304023743, 0.024329887703061104, 0.0393543504178524, 0.034907396882772446, 0.06805825978517532, 0.08009600639343262, 0.06668078899383545, 0.027818594127893448, 0.05962398648262024, 0.06223700940608978, 0.07780992239713669, 0.019890060648322105, 0.032493095844984055, 0.05445149913430214, 0.04881511256098747, 0.05254172161221504, 0.050073131918907166], [0.0968642309308052, 0.05891339108347893, 0.029906127601861954, 0.012300832197070122, 0.005686159245669842, 0.003684084629639983, 0.01185860950499773, 0.005648455116897821, 0.06968425959348679, 0.04182901233434677, 0.04182913899421692, 0.03437578305602074, 0.012952552177011967, 0.06283538788557053, 0.050792399793863297, 0.00303409481421113, 0.005463992245495319, 0.07436910271644592, 0.035703618079423904, 0.0777272880077362, 0.2645415663719177], [0.06608626991510391, 0.07114285230636597, 0.028060978278517723, 0.029164060950279236, 0.019481297582387924, 0.00936522614210844, 0.02069059945642948, 0.008341479115188122, 0.07400976121425629, 0.024430453777313232, 0.0671176016330719, 0.045049067586660385, 0.045870162546634674, 0.06801407039165497, 0.04581648111343384, 0.005759557243436575, 0.010101141408085823, 0.07365184277296066, 0.05531582608819008, 0.10337673127651215, 0.1291544884443283], [0.05151989310979843, 0.04643828794360161, 0.026370324194431305, 0.04086364060640335, 0.028208350762724876, 0.012557204812765121, 0.05177495628595352, 0.04059963673353195, 0.0620969720184803, 0.13607949018478394, 0.05898638069629669, 0.04206441342830658, 0.048681244254112244, 0.042056988924741745, 0.02231009677052498, 0.021539729088544846, 0.032743848860263824, 0.03790494427084923, 0.08514020591974258, 0.030657822266221046, 0.08140554279088974]], [[0.04939555749297142, 0.043103065341711044, 0.021050075069069862, 0.020111292600631714, 0.011249259114265442, 0.011381752789020538, 0.023732058703899384, 0.01884845457971096, 0.05505526065826416, 0.08652054518461227, 0.054290659725666046, 0.017165303230285645, 0.015579616650938988, 0.04863235726952553, 0.06270221620798111, 0.015879232436418533, 0.015201800502836704, 0.06412915885448456, 0.15565700829029083, 0.07979044318199158, 0.13052493333816528], [0.07486260682344437, 0.04186133295297623, 0.016536764800548553, 0.030523600056767464, 0.027771171182394028, 0.017501378431916237, 0.03966764360666275, 0.045330483466386795, 0.05643733963370323, 0.08589853346347809, 0.04732293635606766, 0.020225537940859795, 0.030193448066711426, 0.04693570360541344, 0.039371635764837265, 0.02200881578028202, 0.051354698836803436, 0.06048410013318062, 0.052980728447437286, 0.04047834128141403, 0.15225322544574738], [0.08967272192239761, 0.016794893890619278, 0.003572062822058797, 0.05143757164478302, 0.08707000315189362, 0.039780810475349426, 0.005141126457601786, 0.057138968259096146, 0.03066491149365902, 0.07929334789514542, 0.029632680118083954, 0.006035477854311466, 0.059246502816677094, 0.025153089314699173, 0.018405241891741753, 0.03131435066461563, 0.01075979694724083, 0.042893338948488235, 0.0688493475317955, 0.03707239404320717, 0.21007126569747925], [0.06425067782402039, 0.036289509385824203, 0.019790353253483772, 0.00042040314292535186, 0.010230532847344875, 0.027787374332547188, 0.035508278757333755, 0.004420564044266939, 0.06157714128494263, 0.1207711324095726, 0.04342372342944145, 0.01480625756084919, 0.01375487633049488, 0.04961211606860161, 0.14187872409820557, 0.007973450236022472, 0.004482827614992857, 0.05904479697346687, 0.04149136319756508, 0.016461309045553207, 0.22602452337741852], [0.07916270941495895, 0.0494377464056015, 0.01376684196293354, 0.009987959638237953, 0.03756837919354439, 0.03888998180627823, 0.03844863176345825, 0.023637235164642334, 0.057894010096788406, 0.14095796644687653, 0.0518735833466053, 0.012952830642461777, 0.06010676175355911, 0.06268465518951416, 0.05304102227091789, 0.023735644295811653, 0.01842530257999897, 0.08004102855920792, 0.025821615010499954, 0.01593373529613018, 0.10563234239816666], [0.0787200853228569, 0.043468039482831955, 0.028958695009350777, 0.03553399816155434, 0.05283043906092644, 0.027607088908553123, 0.040601376444101334, 0.050784602761268616, 0.052239369601011276, 0.06509965658187866, 0.051780931651592255, 0.028751829639077187, 0.056736066937446594, 0.05261378735303879, 0.04536037519574165, 0.026776887476444244, 0.04033566266298294, 0.06418927758932114, 0.05218096077442169, 0.03254919871687889, 0.07288172841072083], [0.14909540116786957, 0.06038526073098183, 0.020500363782048225, 0.005113227758556604, 0.012127888388931751, 0.017658380791544914, 0.00880682934075594, 0.014181808568537235, 0.06187883019447327, 0.12212946265935898, 0.052864350378513336, 0.02456803061068058, 0.008017485961318016, 0.04798607900738716, 0.014704396016895771, 0.010770350694656372, 0.00917262677103281, 0.06275341659784317, 0.1535758227109909, 0.0453253835439682, 0.09838460385799408], [0.1180964782834053, 0.044950343668460846, 0.015604482032358646, 0.004037921782582998, 0.015387983992695808, 0.03685171529650688, 0.028956621885299683, 0.00842586625367403, 0.054359160363674164, 0.10800079256296158, 0.04830337315797806, 0.017431043088436127, 0.017721690237522125, 0.05911138653755188, 0.04810483753681183, 0.020789870992302895, 0.008301408030092716, 0.06756862252950668, 0.04424862563610077, 0.03599831834435463, 0.19774962961673737], [0.10048674046993256, 0.04405984655022621, 0.01949741318821907, 0.03676731511950493, 0.03054659627377987, 0.02141283079981804, 0.03869887441396713, 0.04161003232002258, 0.050707463175058365, 0.0835481807589531, 0.04359987750649452, 0.022388488054275513, 0.037591636180877686, 0.04709308221936226, 0.06655881553888321, 0.018177591264247894, 0.04604561999440193, 0.05582628771662712, 0.0602901466190815, 0.04036055877804756, 0.09473263472318649], [0.18890565633773804, 0.038666870445013046, 0.009495362639427185, 0.006900627166032791, 0.05075499415397644, 0.02422775700688362, 0.020881298929452896, 0.01326142530888319, 0.052031099796295166, 0.06743880361318588, 0.04044897109270096, 0.01187240518629551, 0.04565591737627983, 0.04789317026734352, 0.014554668217897415, 0.0066151246428489685, 0.005922993645071983, 0.0644340068101883, 0.1487036794424057, 0.01446574553847313, 0.12686951458454132], [0.092111736536026, 0.0379033237695694, 0.017567643895745277, 0.03129089996218681, 0.03815040737390518, 0.023662026971578598, 0.04312456026673317, 0.04330270364880562, 0.04978202283382416, 0.0641537681221962, 0.04091767966747284, 0.0193644966930151, 0.044939834624528885, 0.044606614857912064, 0.04931463673710823, 0.021168818697333336, 0.04464516043663025, 0.05512932687997818, 0.055556196719408035, 0.05298962816596031, 0.13031847774982452], [0.06783539056777954, 0.016726814210414886, 0.004035420250147581, 0.03627311810851097, 0.0603000670671463, 0.040845416486263275, 0.006706965155899525, 0.05647794157266617, 0.03192557394504547, 0.09936076402664185, 0.030830929055809975, 0.005339795723557472, 0.05037694051861763, 0.025804204866290092, 0.024282587692141533, 0.029714765027165413, 0.011095094494521618, 0.047178324311971664, 0.05346153676509857, 0.05693870410323143, 0.24448953568935394], [0.08324489742517471, 0.03813635930418968, 0.01097839418798685, 0.00507460767403245, 0.047632064670324326, 0.05380665883421898, 0.024923866614699364, 0.020795248448848724, 0.054350923746824265, 0.11336531490087509, 0.04823857545852661, 0.010680093429982662, 0.06942257285118103, 0.061423081904649734, 0.06706931442022324, 0.034798942506313324, 0.015634676441550255, 0.07339324057102203, 0.02329530566930771, 0.019964225590229034, 0.12377159297466278], [0.10485987365245819, 0.04355216398835182, 0.021187499165534973, 0.03397950902581215, 0.026311339810490608, 0.02152436040341854, 0.03427836671471596, 0.040439505130052567, 0.05150843411684036, 0.09222573786973953, 0.04295885190367699, 0.02391182817518711, 0.03304499760270119, 0.04798414185643196, 0.08037152886390686, 0.01937711611390114, 0.04644721746444702, 0.05830324441194534, 0.052202802151441574, 0.028967227786779404, 0.09656424075365067], [0.19119562208652496, 0.06382577121257782, 0.02517642453312874, 0.015724554657936096, 0.02874406799674034, 0.05789679288864136, 0.03358103707432747, 0.011093754321336746, 0.0767534002661705, 0.04931958019733429, 0.05714410915970802, 0.020410317927598953, 0.03492354601621628, 0.08674599975347519, 0.006074727047234774, 0.016575971618294716, 0.008970797061920166, 0.08952341228723526, 0.07209055870771408, 0.009516080841422081, 0.04471341148018837], [0.17860017716884613, 0.03684056177735329, 0.014028939418494701, 0.005213494412600994, 0.036396246403455734, 0.0654057115316391, 0.031074002385139465, 0.012647267431020737, 0.049947649240493774, 0.04491426423192024, 0.044800277799367905, 0.014070121571421623, 0.05310233309864998, 0.06689765304327011, 0.035778168588876724, 0.018516888841986656, 0.014134377241134644, 0.07501545548439026, 0.06304939091205597, 0.019587889313697815, 0.11997906863689423], [0.13342633843421936, 0.04450685530900955, 0.013887007720768452, 0.005236208438873291, 0.03431073576211929, 0.052132539451122284, 0.015510211698710918, 0.01218231301754713, 0.06590922176837921, 0.06721378117799759, 0.05408230051398277, 0.017254935577511787, 0.03509123623371124, 0.06730473786592484, 0.04933521896600723, 0.042351193726062775, 0.004950814414769411, 0.07171201705932617, 0.03254802152514458, 0.03873048722743988, 0.142323836684227], [0.10047850757837296, 0.04383537545800209, 0.023160971701145172, 0.03157610073685646, 0.03629722073674202, 0.021378029137849808, 0.03866010904312134, 0.041648443788290024, 0.050176095217466354, 0.09418076276779175, 0.03997126221656799, 0.026028653606772423, 0.043864328414201736, 0.04685826599597931, 0.07427320629358292, 0.021340971812605858, 0.04809126257896423, 0.05134046822786331, 0.05002165585756302, 0.032786305993795395, 0.08403204381465912], [0.08171199262142181, 0.05269451439380646, 0.015749908983707428, 0.0010258336551487446, 0.0037247054278850555, 0.017455771565437317, 0.12235920131206512, 0.0056924764066934586, 0.05844496563076973, 0.14948058128356934, 0.046258099377155304, 0.009933115914463997, 0.005056479014456272, 0.04875591769814491, 0.11141209304332733, 0.007293272763490677, 0.005529012531042099, 0.06993205845355988, 0.013506132178008556, 0.04853196069598198, 0.125451922416687], [0.12439519166946411, 0.04503890872001648, 0.0182377640157938, 0.0064989058300852776, 0.015278523787856102, 0.01881251111626625, 0.029871899634599686, 0.01658082939684391, 0.053045693784952164, 0.07967817038297653, 0.04343026876449585, 0.014547917060554028, 0.015075967647135258, 0.04496385157108307, 0.03190261870622635, 0.007846077904105186, 0.017538217827677727, 0.06677812337875366, 0.11411666870117188, 0.02540513500571251, 0.2109568566083908], [0.05237182602286339, 0.04082103446125984, 0.022125933319330215, 0.10708566755056381, 0.04099654778838158, 0.02158617228269577, 0.033035632222890854, 0.06247586011886597, 0.04935969039797783, 0.05671067535877228, 0.04750826209783554, 0.019320515915751457, 0.061111267656087875, 0.03993643820285797, 0.0205234382301569, 0.01702311635017395, 0.049960363656282425, 0.05504778400063515, 0.06580125540494919, 0.04507015272974968, 0.09212843328714371]], [[0.0643056184053421, 0.04591386392712593, 0.033148910850286484, 0.016609851270914078, 0.02951664850115776, 0.10880080610513687, 0.03316119313240051, 0.024729114025831223, 0.04144297167658806, 0.13787402212619781, 0.03300833702087402, 0.03717619925737381, 0.03476306051015854, 0.03746752068400383, 0.03501826897263527, 0.02071024663746357, 0.024588434025645256, 0.041073549538850784, 0.1391827017068863, 0.040530040860176086, 0.020978622138500214], [0.09091455489397049, 0.1316126137971878, 0.022030683234333992, 0.02536970190703869, 0.007718959357589483, 0.021882349625229836, 0.030538519844412804, 0.01771184802055359, 0.11101334542036057, 0.029521619901061058, 0.049359507858753204, 0.016660498455166817, 0.006332761608064175, 0.12145522981882095, 0.012995441444218159, 0.009154217317700386, 0.018839942291378975, 0.20208415389060974, 0.04091775044798851, 0.014938890933990479, 0.018947314471006393], [4.518092464422807e-05, 3.1930278055369854e-05, 0.7977863550186157, 3.069628746743547e-06, 7.320957138290396e-06, 3.126056617475115e-05, 3.367752651683986e-05, 3.4604101983859437e-07, 8.292208076454699e-05, 0.0002595038095023483, 2.3924481865833513e-05, 0.20140135288238525, 5.167670678929426e-06, 7.947600533952937e-05, 7.63264688430354e-06, 5.944150416326011e-07, 4.488386480261397e-07, 0.00017949882021639496, 1.046403940563323e-05, 5.165739366930211e-06, 4.7233179429895245e-06], [8.632498065708205e-05, 2.7359337764210068e-05, 1.0382982509327121e-06, 0.9989209175109863, 2.9398564947769046e-05, 8.601722220191732e-05, 2.2535618882102426e-06, 0.00012117747246520594, 3.973599086748436e-05, 3.1282152122003026e-06, 1.6338533896487206e-05, 4.347375295310485e-07, 7.77928016759688e-06, 4.5171374949859455e-05, 0.00035261461744084954, 6.61833691992797e-05, 9.175174636766315e-05, 9.399039117852226e-05, 8.638378403702518e-07, 2.435292344671325e-06, 5.071022769698175e-06], [0.002018147613853216, 0.0007247041212394834, 0.0001999243104364723, 0.0011066420702263713, 0.7498070597648621, 0.0013242329005151987, 0.00010594413470244035, 0.001051999512128532, 0.0011309364344924688, 7.069909770507365e-05, 0.0005583305610343814, 0.0001300618314417079, 0.23438790440559387, 0.0015902224695309997, 6.457246490754187e-05, 0.0007541094091720879, 0.0014648048672825098, 0.0031205853447318077, 0.00013810723612550646, 0.00010588594886939973, 0.00014514761278405786], [0.001297504873946309, 0.0004380532482173294, 0.0010160236852243543, 0.002073099371045828, 0.0006624143570661545, 0.9889001846313477, 0.0003054427506867796, 0.00042409379966557026, 0.0006434695678763092, 0.00012755244097206742, 0.00037116746534593403, 0.0005063117132522166, 0.0003806375025305897, 0.0007557802018709481, 0.00017062462575268, 0.00022356731642503291, 0.00010963447130052373, 0.0013969719875603914, 5.923503340454772e-05, 5.3039941121824086e-05, 8.524380245944485e-05], [0.002968920860439539, 0.0051561095751821995, 0.0014213331742212176, 0.0002275329316034913, 6.26773908152245e-05, 0.0019024156499654055, 0.9250309467315674, 0.00045616342686116695, 0.0054204729385674, 0.029053982347249985, 0.002190055325627327, 0.0006550824036821723, 9.037696872837842e-05, 0.0059689804911613464, 0.0005095810629427433, 0.0019163083052262664, 0.0005514600779861212, 0.014751658774912357, 0.001118060084991157, 0.0004068331327289343, 0.0001410416152793914], [0.03511881083250046, 0.0039120386354625225, 3.9600363379577175e-05, 0.010238238610327244, 0.0027712888550013304, 0.0028104025404900312, 0.0002674675779417157, 0.6890578269958496, 0.006230724975466728, 0.00025566344265826046, 0.0022545927204191685, 2.5543373340042308e-05, 0.001826234976761043, 0.006383116357028484, 0.0002817601489368826, 0.004029082600027323, 0.2142878621816635, 0.017486337572336197, 0.00020268493972253054, 0.0014455479104071856, 0.001075178268365562], [0.09339521080255508, 0.08714848011732101, 0.01240975596010685, 0.019751593470573425, 0.006550511345267296, 0.010952369309961796, 0.020986298099160194, 0.012633769772946835, 0.13300424814224243, 0.0445619598031044, 0.07883826643228531, 0.010737720876932144, 0.009719154797494411, 0.12103097140789032, 0.027837341651320457, 0.010996201075613499, 0.019940856844186783, 0.20678578317165375, 0.02956475503742695, 0.007659466005861759, 0.03549528867006302], [0.00031955025042407215, 0.00031680017127655447, 0.0023681519087404013, 1.9963757949881256e-05, 1.2239778698130976e-05, 5.5786193115636706e-05, 0.0007873426657170057, 1.3242853128758725e-05, 0.0012345262803137302, 0.9878014922142029, 0.0003014723479282111, 0.0010753208771348, 3.914160333806649e-05, 0.001095808343961835, 7.211487536551431e-05, 1.4247493709262926e-05, 8.701797014509793e-06, 0.003712920704856515, 0.0007201223052106798, 6.3764568949409295e-06, 2.4717348424019292e-05], [0.11048977077007294, 0.07710881531238556, 0.014178536832332611, 0.01719658076763153, 0.010768032632768154, 0.0212110485881567, 0.021690314635634422, 0.0153090450912714, 0.12236826121807098, 0.037620823830366135, 0.08649340271949768, 0.013458277098834515, 0.014406353235244751, 0.11112197488546371, 0.022887494415044785, 0.012411702424287796, 0.01876862905919552, 0.195871040225029, 0.03207484632730484, 0.009999539703130722, 0.03456542268395424], [0.0002538037660997361, 6.551737169502303e-05, 0.720840334892273, 4.290724973543547e-06, 1.5481835362152196e-05, 6.795967055950314e-05, 7.624467980349436e-05, 1.1188509461135254e-06, 0.00021310058946255594, 0.00040008488576859236, 7.775580888846889e-05, 0.2772609293460846, 1.4568575352313928e-05, 0.00018644896044861525, 3.2764040952315554e-05, 2.5622014163673157e-06, 1.1473287031549262e-06, 0.00040729925967752934, 4.158861702308059e-05, 1.3448849131236784e-05, 2.3497279471484944e-05], [0.005283166654407978, 0.0009274810436181724, 0.0002691452100407332, 0.0005354618187993765, 0.5003929138183594, 0.0016807530773803592, 0.00022062487551011145, 0.0020064497366547585, 0.0027224652003496885, 0.00018498749705031514, 0.0013283607549965382, 0.00020650184887927026, 0.46757251024246216, 0.003492985386401415, 9.6994532214012e-05, 0.002192036947235465, 0.002347712405025959, 0.007702834438532591, 0.00034573301672935486, 0.0001609929749974981, 0.0003297505609225482], [0.07861018925905228, 0.07868559658527374, 0.016296857967972755, 0.02141769416630268, 0.006814354564994574, 0.010748220607638359, 0.023202955722808838, 0.009932266548275948, 0.1297881156206131, 0.04199041798710823, 0.07621240615844727, 0.013313224539160728, 0.009851759299635887, 0.13470427691936493, 0.04063301905989647, 0.012700887396931648, 0.01690102554857731, 0.21476028859615326, 0.0226298701018095, 0.006681123282760382, 0.03412536904215813], [2.5043025743798353e-05, 1.5252724551828578e-05, 1.2325344869168475e-05, 0.00019264864386059344, 1.4070892575546168e-06, 8.261220500571653e-06, 8.504523975716438e-06, 2.0142035737080732e-06, 5.434982813312672e-05, 4.4450254790717736e-05, 1.6037274690461345e-05, 9.547369700158015e-06, 1.328315647697309e-06, 7.518759957747534e-05, 0.9993605017662048, 7.011901743680937e-06, 1.2501652236096561e-05, 0.00014376494800671935, 7.912451110314578e-06, 7.973691253937432e-07, 1.1860626045745448e-06], [0.005117000080645084, 0.0016150991432368755, 8.165005419868976e-05, 0.006029834970831871, 0.001656687119975686, 0.0010348998475819826, 0.0022731642238795757, 0.006753983441740274, 0.0024364162236452103, 0.0002702781348489225, 0.0012532449327409267, 4.424270082381554e-05, 0.001376827945932746, 0.002446926198899746, 0.000627731962595135, 0.9421267509460449, 0.01692768558859825, 0.006737976800650358, 0.0001857971801655367, 0.0003661345108412206, 0.0006376653909683228], [0.013947556726634502, 0.0009870502399280667, 2.0409950593602844e-05, 0.0015550011303275824, 0.0006518654990941286, 0.00037827561027370393, 0.00019426312064751983, 0.10588140040636063, 0.0019341324223205447, 5.774770033895038e-05, 0.0006880417931824923, 8.692081792105455e-06, 0.0003561275079846382, 0.001560264267027378, 0.0004547103599179536, 0.004011509940028191, 0.8611229658126831, 0.005339855328202248, 7.360048039117828e-05, 0.00028716144151985645, 0.0004894629237242043], [0.09517963230609894, 0.08178170025348663, 0.01851661503314972, 0.018212372437119484, 0.007517763879150152, 0.013250519521534443, 0.033074986189603806, 0.010977841913700104, 0.11542364209890366, 0.04889039695262909, 0.07715550065040588, 0.01484750211238861, 0.010696188546717167, 0.10943335294723511, 0.039178211241960526, 0.011655628681182861, 0.01804383099079132, 0.19169731438159943, 0.026770098134875298, 0.010552470572292805, 0.04714440926909447], [0.000435858266428113, 0.00030220128246583045, 0.00029721748433075845, 2.5001038011396304e-05, 5.393337778514251e-05, 5.531324495677836e-05, 0.00015787329175509512, 1.153246466856217e-05, 0.0004423297941684723, 0.002008152427151799, 0.00024086007033474743, 0.0003804400039371103, 0.00015000950952526182, 0.0003870026848744601, 3.016747723449953e-05, 1.724723551888019e-05, 9.52511891227914e-06, 0.0012655900791287422, 0.9935110211372375, 7.642951823072508e-05, 0.0001422670466126874], [0.07361744344234467, 0.016666743904352188, 0.013496233150362968, 0.0064199697226285934, 0.006673808675259352, 0.003502053674310446, 0.007348671089857817, 0.018634837120771408, 0.025930743664503098, 0.0032780084293335676, 0.012344828806817532, 0.00953134149312973, 0.0054663363844156265, 0.023387471213936806, 0.0010598674416542053, 0.0068413615226745605, 0.00882791355252266, 0.054505180567502975, 0.014460449106991291, 0.6834250688552856, 0.004581674002110958], [0.06743336468935013, 0.07271445542573929, 0.030011337250471115, 0.007774870377033949, 0.011505136266350746, 0.03003581054508686, 0.04694036766886711, 0.009720826521515846, 0.0800287202000618, 0.08149980753660202, 0.05291026085615158, 0.027819551527500153, 0.0251601729542017, 0.08469611406326294, 0.005787482485175133, 0.01067254226654768, 0.011599325574934483, 0.12820734083652496, 0.05084741860628128, 0.024087857455015182, 0.1405472755432129]], [[0.039370935410261154, 0.03684433177113533, 0.0484745055437088, 0.16421379148960114, 0.020228317007422447, 0.011111070401966572, 0.013193544931709766, 0.09055757522583008, 0.0648321807384491, 0.04906255379319191, 0.042914945632219315, 0.04768877476453781, 0.013006383553147316, 0.06771203875541687, 0.014477549120783806, 0.02811707928776741, 0.07121175527572632, 0.09047004580497742, 0.011429473757743835, 0.016150835901498795, 0.0589323565363884], [0.059627290815114975, 0.04922201856970787, 0.04168830066919327, 0.03398853912949562, 0.01372904609888792, 0.021784501150250435, 0.024838600307703018, 0.038891665637493134, 0.0628771111369133, 0.1029781624674797, 0.04560665413737297, 0.040854133665561676, 0.01666228473186493, 0.059841226786375046, 0.03558657690882683, 0.020744802430272102, 0.02392672561109066, 0.0790925920009613, 0.03444929048418999, 0.020904619246721268, 0.17270585894584656], [0.024215755984187126, 0.04818679764866829, 0.02440652996301651, 0.07860272377729416, 0.046994648873806, 0.022321460768580437, 0.020755769684910774, 0.0900636538863182, 0.05345892161130905, 0.04600328952074051, 0.0558028444647789, 0.030529841780662537, 0.03418688476085663, 0.0467841811478138, 0.058626316487789154, 0.01523510180413723, 0.03974294289946556, 0.06537874788045883, 0.013397904112935066, 0.018581368029117584, 0.16672426462173462], [0.054334864020347595, 0.07213806360960007, 0.04148155078291893, 0.0030122408643364906, 0.02203657105565071, 0.009578217752277851, 0.02153676189482212, 0.013315362855792046, 0.0737631544470787, 0.05279585346579552, 0.049538545310497284, 0.04999464005231857, 0.027721405029296875, 0.07095656543970108, 0.02387297712266445, 0.006898279767483473, 0.024397803470492363, 0.09745872765779495, 0.04109658673405647, 0.0058016302064061165, 0.23827016353607178], [0.03879307582974434, 0.05008687824010849, 0.04152027145028114, 0.11752252280712128, 0.039317868649959564, 0.046710673719644547, 0.01065991260111332, 0.057546839118003845, 0.06597626209259033, 0.01234200969338417, 0.06088164076209068, 0.051121752709150314, 0.033031489700078964, 0.049208998680114746, 0.029688609763979912, 0.007386567071080208, 0.0504588708281517, 0.06082199513912201, 0.014024442061781883, 0.012384709902107716, 0.1505146324634552], [0.03467519208788872, 0.06483537703752518, 0.014800522476434708, 0.04718541353940964, 0.06836284697055817, 0.011772134341299534, 0.009361515752971172, 0.035845279693603516, 0.08737724274396896, 0.007241778541356325, 0.08143918216228485, 0.011274879798293114, 0.073809914290905, 0.08311961591243744, 0.016898786649107933, 0.03408912569284439, 0.039845190942287445, 0.09241203218698502, 0.0096160639077425, 0.01495613157749176, 0.1610817313194275], [0.06725532561540604, 0.0672619640827179, 0.017936116084456444, 0.05924639105796814, 0.008969662711024284, 0.07832175493240356, 0.004941234365105629, 0.013577725738286972, 0.09018255770206451, 0.04263785853981972, 0.05350721254944801, 0.016853028908371925, 0.008072474040091038, 0.09472999721765518, 0.02098225988447666, 0.007104681339114904, 0.008775939233601093, 0.1084258109331131, 0.028489790856838226, 0.0232068058103323, 0.17952145636081696], [0.05147973448038101, 0.09169349074363708, 0.013916324824094772, 0.016084423288702965, 0.01399903278797865, 0.01609642431139946, 0.012738808989524841, 0.004439023323357105, 0.08842864632606506, 0.017635231837630272, 0.08016220480203629, 0.015396381728351116, 0.02590295672416687, 0.09982525557279587, 0.021178405731916428, 0.00942798238247633, 0.005991821642965078, 0.10985153913497925, 0.019304072484374046, 0.017047381028532982, 0.2694009244441986], [0.07474687695503235, 0.05459875985980034, 0.042010895907878876, 0.0368087999522686, 0.013117275200784206, 0.019004061818122864, 0.030040491372346878, 0.02081194333732128, 0.07360188663005829, 0.09116540849208832, 0.049223482608795166, 0.03461743891239166, 0.01662149466574192, 0.07495813071727753, 0.041522491723299026, 0.013549352996051311, 0.016540275886654854, 0.1039721667766571, 0.044230494648218155, 0.02181210368871689, 0.12704621255397797], [0.07037284970283508, 0.021257858723402023, 0.07622716575860977, 0.02743033692240715, 0.04772811383008957, 0.00896802730858326, 0.057149436324834824, 0.035179030150175095, 0.06496696174144745, 0.05964021384716034, 0.02967350371181965, 0.0733700767159462, 0.03514465317130089, 0.07088559120893478, 0.04305962473154068, 0.007419455796480179, 0.029642388224601746, 0.11047366261482239, 0.02055264450609684, 0.014603085815906525, 0.09625539928674698], [0.07775161415338516, 0.0662606805562973, 0.03295261785387993, 0.05825135111808777, 0.015547200106084347, 0.025090133771300316, 0.022285444661974907, 0.022578328847885132, 0.0788409560918808, 0.051103975623846054, 0.058207858353853226, 0.027441928163170815, 0.019772542640566826, 0.07876235246658325, 0.03921882435679436, 0.01656113937497139, 0.020488761365413666, 0.09948288649320602, 0.027098000049591064, 0.02291412465274334, 0.13938923180103302], [0.021336061879992485, 0.04967761039733887, 0.03235188499093056, 0.1053825095295906, 0.05707945302128792, 0.028278924524784088, 0.028597375378012657, 0.07225597649812698, 0.05417533591389656, 0.06118325889110565, 0.052569396793842316, 0.032368771731853485, 0.03639744222164154, 0.05229432135820389, 0.04804467782378197, 0.012393656186759472, 0.031976550817489624, 0.07172371447086334, 0.009943695738911629, 0.02263144589960575, 0.11933793127536774], [0.034722115844488144, 0.047222476452589035, 0.06154605373740196, 0.1205635592341423, 0.03823349252343178, 0.03207683190703392, 0.014716663397848606, 0.04931166395545006, 0.07589473575353622, 0.024991223588585854, 0.056151580065488815, 0.06099693849682808, 0.02536534145474434, 0.06975787878036499, 0.026248574256896973, 0.00828021764755249, 0.028404600918293, 0.08724772930145264, 0.010661132633686066, 0.011096732690930367, 0.11651040613651276], [0.07998693734407425, 0.05458725243806839, 0.03680500388145447, 0.028284693136811256, 0.013719892129302025, 0.01884584315121174, 0.027642713859677315, 0.019302714616060257, 0.07649330794811249, 0.0810873955488205, 0.05348154902458191, 0.03201478719711304, 0.01940475031733513, 0.07749353349208832, 0.04628191143274307, 0.013628662563860416, 0.01691245846450329, 0.10631348192691803, 0.04155704379081726, 0.02059239149093628, 0.13556362688541412], [0.020839238539338112, 0.07249227166175842, 0.019629554823040962, 0.02257765829563141, 0.012464489787817001, 0.01047287043184042, 0.015306507237255573, 0.010995953343808651, 0.09537553042173386, 0.10329641401767731, 0.06409595906734467, 0.018293146044015884, 0.02594008669257164, 0.11855782568454742, 0.006982032209634781, 0.01855548284947872, 0.006710690911859274, 0.12030380964279175, 0.05049893260002136, 0.017242692410945892, 0.16936883330345154], [0.09249334782361984, 0.08156280964612961, 0.02134077437222004, 0.02173730731010437, 0.04338296130299568, 0.03190835192799568, 0.023916449397802353, 0.020247597247362137, 0.09288953244686127, 0.024104036390781403, 0.07233565300703049, 0.019502757117152214, 0.051517896354198456, 0.08517653495073318, 0.015873055905103683, 0.011395303532481194, 0.025750601664185524, 0.09243611991405487, 0.015145194716751575, 0.013508261181414127, 0.14377543330192566], [0.06339821964502335, 0.08813370019197464, 0.013171744532883167, 0.008504682220518589, 0.01479259692132473, 0.01652417704463005, 0.033448725938797, 0.004646281711757183, 0.09374825656414032, 0.03365541622042656, 0.07641778141260147, 0.012458700686693192, 0.026478905230760574, 0.10394027829170227, 0.008997947908937931, 0.009767374955117702, 0.002792735816910863, 0.11611407995223999, 0.025625109672546387, 0.029442470520734787, 0.21794064342975616], [0.08671167492866516, 0.0540451817214489, 0.03052487224340439, 0.03118513710796833, 0.007733967620879412, 0.016638651490211487, 0.029469294473528862, 0.01596852019429207, 0.07995852082967758, 0.0782986730337143, 0.05464090034365654, 0.024449437856674194, 0.012407849542796612, 0.0862320065498352, 0.06505800783634186, 0.016109880059957504, 0.014945688657462597, 0.12307235598564148, 0.04498498886823654, 0.018192913383245468, 0.10937143862247467], [0.05987553671002388, 0.03695198521018028, 0.09006578475236893, 0.013404520228505135, 0.005904214922338724, 0.003918591886758804, 0.14054164290428162, 0.037209875881671906, 0.05299532413482666, 0.22288979589939117, 0.02524542808532715, 0.05232803151011467, 0.007383440155535936, 0.05782931298017502, 0.015896711498498917, 0.007116950582712889, 0.03207821398973465, 0.07280275970697403, 0.006241593975573778, 0.008947307243943214, 0.05037297308444977], [0.08196728676557541, 0.04195781797170639, 0.04439407214522362, 0.01619052328169346, 0.029466748237609863, 0.01727772317826748, 0.027141917496919632, 0.05778694525361061, 0.06722308695316315, 0.07483880966901779, 0.04765039682388306, 0.03526885062456131, 0.0211276076734066, 0.06775638461112976, 0.03662708401679993, 0.011799070052802563, 0.05357103794813156, 0.0879843458533287, 0.019504841417074203, 0.007899492979049683, 0.15256592631340027], [0.11435804516077042, 0.08628182113170624, 0.034352365881204605, 0.056164976209402084, 0.024147378280758858, 0.010657135397195816, 0.014948399737477303, 0.02229265496134758, 0.0944247916340828, 0.03863837197422981, 0.05443086475133896, 0.02930116467177868, 0.02401585876941681, 0.0789140984416008, 0.028641678392887115, 0.024302097037434578, 0.021563326939940453, 0.11856799572706223, 0.030102232471108437, 0.014565459452569485, 0.07932937145233154]]], [[[0.3819771111011505, 0.04790855944156647, 0.003121504792943597, 0.0039143990725278854, 0.007519137114286423, 0.005514383316040039, 0.014564276672899723, 0.00988489668816328, 0.04216073825955391, 0.00525451498106122, 0.02239472046494484, 0.007565133739262819, 0.01650124602019787, 0.13492700457572937, 0.008180414326488972, 0.005663614254444838, 0.011473271995782852, 0.20207913219928741, 0.008705871179699898, 0.01218355167657137, 0.04850644990801811], [0.004930137190967798, 0.020534571260213852, 0.9260650277137756, 0.01309398002922535, 0.002867475152015686, 0.00016880415205378085, 0.0032228315249085426, 0.0002544113958720118, 0.0019028275273740292, 0.0033100214786827564, 0.00036105155595578253, 0.002122210105881095, 0.0004651715571526438, 0.0015083379112184048, 0.0006680868100374937, 2.5324354282929562e-05, 0.00021652363648172468, 0.0064536468125879765, 0.004168448969721794, 0.004935676697641611, 0.002725574653595686], [0.03063874877989292, 0.022258564829826355, 0.1431029587984085, 0.40362948179244995, 0.12697507441043854, 0.004528487101197243, 0.02327774278819561, 0.00563794607296586, 0.02922673709690571, 0.015821559354662895, 0.007056794594973326, 0.0005494201905094087, 0.0012699958169832826, 0.03166806697845459, 0.005221841856837273, 0.0018401385750621557, 0.0014989146729931235, 0.06643374264240265, 0.012030193582177162, 0.05593959614634514, 0.011394037865102291], [0.011048225685954094, 0.0023270028177648783, 0.06491731107234955, 0.023364927619695663, 0.7783895134925842, 0.019363297149538994, 0.022394420579075813, 0.0029857433401048183, 0.008936271071434021, 0.004791129846125841, 0.004263707436621189, 0.011615707539021969, 0.000756733410526067, 0.008249517530202866, 0.005622978787869215, 0.00011516034282976761, 0.00027962116291746497, 0.009813510812819004, 0.00018595182336866856, 0.0011286096414551139, 0.019450748339295387], [0.0020180160645395517, 0.0003408160409890115, 0.003192707896232605, 0.0018655990716069937, 0.006271081510931253, 0.5282024145126343, 0.44154560565948486, 0.0016664979048073292, 0.0006345090223476291, 0.004917449317872524, 0.0001875122106866911, 0.001935951760970056, 2.64850659732474e-05, 0.002317350124940276, 0.0034647888969630003, 3.361479321029037e-05, 0.00011603890743572265, 0.0009170246194116771, 7.037269824650139e-05, 2.9927083232905716e-05, 0.0002462347620166838], [0.00524710351601243, 0.013887411914765835, 0.003689577104523778, 0.0011911316541954875, 0.023561162874102592, 0.054630622267723083, 0.6927293539047241, 0.08340517431497574, 0.01889442838728428, 0.014700772240757942, 0.0013209703611209989, 0.001424148096702993, 0.0034157331101596355, 0.04011604189872742, 0.01073950994759798, 0.0007145307608880103, 0.0005929532344453037, 0.026099637150764465, 0.0004098345816601068, 6.600591405003797e-06, 0.00322334049269557], [0.002277131425216794, 0.005026464816182852, 0.0004940915969200432, 0.0013990446459501982, 0.0006207565311342478, 0.0017807079711928964, 0.01866784691810608, 0.5856090784072876, 0.25571632385253906, 0.04280015453696251, 0.0010799113661050797, 5.56865161343012e-05, 0.0007698547560721636, 0.01780955120921135, 0.0026366093661636114, 0.001265155035071075, 0.0014152101939544082, 0.05910768359899521, 0.00027889368357136846, 0.00026420815265737474, 0.000925586384255439], [0.05288521945476532, 0.0017004117835313082, 0.015043400228023529, 0.001276171999052167, 0.0007107001729309559, 4.6593700972152874e-05, 0.04633377492427826, 0.04846353456377983, 0.2837975323200226, 0.46644389629364014, 0.013867322355508804, 0.02332923375070095, 0.003730935277417302, 0.004671311937272549, 0.010043769143521786, 0.0010689756600186229, 0.0028587812557816505, 0.01447994727641344, 0.0022101097274571657, 0.0004189198079984635, 0.006619430612772703], [0.04479234293103218, 0.0016444732900708914, 0.0053049130365252495, 0.003296216018497944, 0.0030274747405201197, 0.00042204459896311164, 0.003735162550583482, 0.006211548112332821, 0.11682301014661789, 0.4890108108520508, 0.12432946264743805, 0.11593218147754669, 0.0059637571685016155, 0.00530878733843565, 0.005074458196759224, 0.0022685767617076635, 0.007564855273813009, 0.03321247920393944, 0.0024329458829015493, 0.007382328622043133, 0.016262168064713478], [0.09320857375860214, 0.001101743895560503, 0.0010467548854649067, 0.0004050892312079668, 0.0005103055154904723, 0.000150718551594764, 0.0077492124401032925, 0.0012663863599300385, 0.03733199089765549, 0.05507509037852287, 0.3689790666103363, 0.3520849943161011, 0.01188148558139801, 0.007015747483819723, 0.002442234428599477, 0.000787477008998394, 0.0012673221062868834, 0.04990442097187042, 0.00033071203506551683, 0.005300407763570547, 0.002160211093723774], [0.003923803102225065, 0.00012952336692251265, 0.00018492033996153623, 0.0001032213112921454, 0.00020693590340670198, 8.508311293553561e-05, 0.0002730272535700351, 2.564891656220425e-05, 0.0004209491889923811, 0.002591536147519946, 0.027826322242617607, 0.9245255589485168, 0.02974512241780758, 0.001973251346498728, 0.0005791325820609927, 4.476400135899894e-05, 0.0006644630921073258, 0.0032649084459990263, 0.0003568402025848627, 0.0006014496320858598, 0.0024735615588724613], [0.007797799073159695, 0.00016347655036952347, 1.3241151464171708e-05, 9.295418567489833e-05, 0.0001518436474725604, 0.00021460303105413914, 0.0010416702134534717, 0.00019387547217775136, 0.0005571047659032047, 0.0007564707775600255, 0.02019497938454151, 0.06175963208079338, 0.7257958650588989, 0.10043630748987198, 0.02466064877808094, 0.005594788584858179, 0.01590091921389103, 0.026488065719604492, 0.002215619897469878, 0.003303142264485359, 0.0026670696679502726], [0.004904361441731453, 2.5504856239422224e-05, 0.0001117308929678984, 2.082056744256988e-05, 1.0860998145290068e-06, 0.00010168189328396693, 0.0006582486093975604, 4.2460185795789585e-05, 7.499962521251291e-05, 0.00036551812081597745, 5.565542232943699e-05, 0.007431416772305965, 0.005722769070416689, 0.04340813308954239, 0.9207911491394043, 0.0015768156154081225, 0.006672545336186886, 0.0010687680914998055, 0.003139220643788576, 0.0026175931561738253, 0.0012095520505681634], [0.03192063048481941, 0.0021727420389652252, 0.0018361039692535996, 0.002832536119967699, 0.001494665746577084, 0.0012786084553226829, 0.00899537280201912, 0.004373172298073769, 0.017822520807385445, 0.006489081773906946, 0.0030598684679716825, 0.00626443512737751, 0.043528009206056595, 0.13262328505516052, 0.4321988523006439, 0.058514293283224106, 0.12995924055576324, 0.05414506420493126, 0.009357091039419174, 0.01296275109052658, 0.03817174583673477], [0.0060839285142719746, 0.0027215396985411644, 0.0004634325159713626, 0.0005343344528228045, 0.00023841587244533002, 0.0018845946760848165, 7.159738015616313e-05, 0.0004057683690916747, 0.017862077802419662, 0.009950332343578339, 0.003959596157073975, 0.0011075674556195736, 0.002269485965371132, 0.0637451633810997, 0.20919393002986908, 0.005035615060478449, 0.27075010538101196, 0.27047422528266907, 0.010479615069925785, 0.04917961359024048, 0.07358897477388382], [0.004934426862746477, 0.002849695272743702, 0.0005785902612842619, 0.0013409050879999995, 0.0003584757505450398, 0.002148887375369668, 8.195909322239459e-05, 0.0017780403140932322, 0.007799334824085236, 0.017337234690785408, 0.00639895536005497, 0.0021240930072963238, 0.002776879584416747, 0.012831807136535645, 0.15836812555789948, 0.030584461987018585, 0.4972474277019501, 0.10695197433233261, 0.0684640109539032, 0.034600842744112015, 0.04044376313686371], [0.06059115007519722, 0.0036119844298809767, 0.002631228882819414, 0.00010310326615581289, 7.806102075846866e-05, 7.449831173289567e-06, 0.00041323312325403094, 0.0001618021196918562, 0.0024068302009254694, 0.0022929925471544266, 0.002185492543503642, 0.00589792663231492, 0.004033754579722881, 0.007677890360355377, 0.02572065405547619, 0.010147088207304478, 0.1778036206960678, 0.2729155123233795, 0.3263167142868042, 0.04212396219372749, 0.052879590541124344], [0.08281910419464111, 0.05591902509331703, 0.009521574713289738, 0.009300583973526955, 0.004149917513132095, 0.0014422028325498104, 0.0069936728104949, 0.002670553745701909, 0.04077901691198349, 0.007032163441181183, 0.0397086963057518, 0.013802111148834229, 0.018407149240374565, 0.04848642647266388, 0.004765214864164591, 0.007504185661673546, 0.028719527646899223, 0.3262428045272827, 0.05223679542541504, 0.13958312571048737, 0.09991616010665894], [0.025679713115096092, 0.0033796157222241163, 0.003430793061852455, 0.005034806206822395, 0.0034822889138013124, 0.00025583573733456433, 9.638542542234063e-05, 8.948546019382775e-05, 0.0030417179223150015, 0.0004375936114229262, 0.00276516517624259, 0.0010093359742313623, 0.00861753523349762, 0.018081363290548325, 0.003221802646294236, 0.0004654276417568326, 0.002740739844739437, 0.12732034921646118, 0.04041527584195137, 0.2786613702774048, 0.4717734754085541], [0.16857436299324036, 0.001477329875342548, 0.005181409884244204, 0.0030555366538465023, 0.0011890762252733111, 0.00010029348777607083, 0.0016600509406998754, 2.671295078471303e-05, 0.002211988437920809, 0.0001735976111376658, 0.0023540309630334377, 0.003318356117233634, 0.0013198243686929345, 0.020658064633607864, 0.0018727974966168404, 0.00034402089659124613, 0.001757158082909882, 0.1213264986872673, 0.059448711574077606, 0.08162875473499298, 0.5223214030265808], [0.039193619042634964, 0.23439596593379974, 0.37612348794937134, 0.046988677233457565, 0.01516873762011528, 0.004808410536497831, 0.03841271623969078, 0.0006877995328977704, 0.004341831896454096, 0.007964163087308407, 0.0017441377276554704, 0.0037795838434249163, 0.004645592533051968, 0.01544720958918333, 0.00827102828770876, 0.0004330843221396208, 0.0066465092822909355, 0.039843492209911346, 0.0511360839009285, 0.07916396111249924, 0.020803865045309067]], [[0.026729920879006386, 0.06023751199245453, 0.0982789397239685, 0.137864887714386, 0.035288915038108826, 0.01219119131565094, 0.012218671850860119, 0.017709987238049507, 0.0741906687617302, 0.04180318862199783, 0.0637422725558281, 0.1291319876909256, 0.027828274294734, 0.028987500816583633, 0.03960090130567551, 0.006288540083914995, 0.021878749132156372, 0.056282252073287964, 0.0380435474216938, 0.030017979443073273, 0.04168417304754257], [0.10898320376873016, 0.038734350353479385, 0.04596789553761482, 0.03404965251684189, 0.012087218463420868, 0.011036975309252739, 0.01596478559076786, 0.036769598722457886, 0.05352892354130745, 0.029257766902446747, 0.07718385756015778, 0.09111038595438004, 0.02786536142230034, 0.03880498558282852, 0.04179403930902481, 0.0123257115483284, 0.044177550822496414, 0.04821961745619774, 0.014973237179219723, 0.024145163595676422, 0.19301970303058624], [0.11469310522079468, 0.03307386860251427, 0.12341000139713287, 0.004238793160766363, 0.005908288061618805, 0.0038051018491387367, 0.006356071215122938, 0.030913323163986206, 0.04041875898838043, 0.03319171071052551, 0.05694916099309921, 0.16077442467212677, 0.030153585597872734, 0.039749473333358765, 0.022451026365160942, 0.0056258998811244965, 0.017283525317907333, 0.05137776955962181, 0.003230415051802993, 0.003525754902511835, 0.21286995708942413], [0.11411528289318085, 0.0924922451376915, 0.06362660229206085, 0.01635248400270939, 0.007393892388790846, 0.00527066458016634, 0.005662939045578241, 0.01931748352944851, 0.08839784562587738, 0.008428978733718395, 0.10429185628890991, 0.02860611118376255, 0.008188608102500439, 0.0575365275144577, 0.021378319710493088, 0.006933147553354502, 0.028400806710124016, 0.10609275102615356, 0.0016193664632737637, 0.0045641385950148106, 0.21132993698120117], [0.11681906133890152, 0.09900505840778351, 0.06503576785326004, 0.0049796137027442455, 0.04231918975710869, 0.011004958301782608, 0.021825116127729416, 0.02093944139778614, 0.09129153192043304, 0.025666840374469757, 0.07080462574958801, 0.03572174161672592, 0.02773398905992508, 0.07687387615442276, 0.007662894669920206, 0.0056565129198133945, 0.019947417080402374, 0.11639681458473206, 0.004566381219774485, 0.006977397482842207, 0.12877178192138672], [0.13941267132759094, 0.07957493513822556, 0.06193293258547783, 0.05221759155392647, 0.02280493825674057, 0.022308403626084328, 0.02160213515162468, 0.02136281691491604, 0.07154271006584167, 0.023436421528458595, 0.07039264589548111, 0.024060148745775223, 0.01477086916565895, 0.06472299993038177, 0.02467576041817665, 0.019450660794973373, 0.035203803330659866, 0.09910126775503159, 0.00441308319568634, 0.01031523384153843, 0.11669791489839554], [0.21379303932189941, 0.03480900824069977, 0.020718375220894814, 0.002066980116069317, 0.00893428549170494, 0.0062689702026546, 0.020172441378235817, 0.014356785453855991, 0.03224623203277588, 0.15031477808952332, 0.03312070667743683, 0.0137704499065876, 0.007612952496856451, 0.03613699972629547, 0.011260907165706158, 0.03901241347193718, 0.03416675701737404, 0.05491121485829353, 0.007451462093740702, 0.03043370693922043, 0.2284415066242218], [0.193766251206398, 0.09367739409208298, 0.025561101734638214, 0.07973562180995941, 0.006432204972952604, 0.017255155369639397, 0.0013224041322246194, 0.015949193388223648, 0.04888243228197098, 0.003913471009582281, 0.045798011124134064, 0.005273324903100729, 0.003224121406674385, 0.041246116161346436, 0.006276486907154322, 0.009156683459877968, 0.03662097826600075, 0.09655369818210602, 0.0029506797436624765, 0.0017583207227289677, 0.26464635133743286], [0.15397249162197113, 0.087153859436512, 0.08039196580648422, 0.04785742983222008, 0.030899977311491966, 0.014523627236485481, 0.01472184993326664, 0.021222220733761787, 0.044723570346832275, 0.0150179797783494, 0.059006888419389725, 0.04077204316854477, 0.016126209869980812, 0.024101288989186287, 0.014368093572556973, 0.006079008337110281, 0.022372020408511162, 0.035069506615400314, 0.009030492044985294, 0.019367411732673645, 0.24322208762168884], [0.25412070751190186, 0.04424694553017616, 0.03001270815730095, 0.0016916105523705482, 0.014069000259041786, 0.005375886335968971, 0.01330027636140585, 0.0072756577283144, 0.02385481633245945, 0.022026140242815018, 0.022133857011795044, 0.00943839829415083, 0.006309712305665016, 0.0204320028424263, 0.0023018168285489082, 0.006452456582337618, 0.011155357584357262, 0.03688805550336838, 0.001014921348541975, 0.003356327535584569, 0.4645434617996216], [0.08539155125617981, 0.11954954266548157, 0.11159367114305496, 0.09473257511854172, 0.05980285629630089, 0.02099735103547573, 0.020104436203837395, 0.021631378680467606, 0.0542425699532032, 0.017492037266492844, 0.06310062110424042, 0.049980200827121735, 0.016996029764413834, 0.017485206946730614, 0.01341001782566309, 0.0027033183723688126, 0.014452257193624973, 0.023478014394640923, 0.0059801009483635426, 0.0115377027541399, 0.17533858120441437], [0.03863263502717018, 0.08200673013925552, 0.30015987157821655, 0.018826058134436607, 0.05334843322634697, 0.010126039385795593, 0.012597013264894485, 0.02139228768646717, 0.04432642459869385, 0.03223990276455879, 0.04240923747420311, 0.09990016371011734, 0.023981813341379166, 0.015336726792156696, 0.007241707760840654, 0.0008005586569197476, 0.0042529902420938015, 0.021507184952497482, 0.0032780016772449017, 0.0026929012965410948, 0.16494323313236237], [0.05601691082119942, 0.09041423350572586, 0.15643617510795593, 0.014633680693805218, 0.07044947147369385, 0.023396523669362068, 0.030073650181293488, 0.033110156655311584, 0.08798594772815704, 0.06887771934270859, 0.06121255084872246, 0.06411497294902802, 0.024215083569288254, 0.028199702501296997, 0.007763642352074385, 0.002475602086633444, 0.008968872018158436, 0.0363074466586113, 0.008251369930803776, 0.0070868791081011295, 0.12000934034585953], [0.1243412122130394, 0.05819384381175041, 0.059626415371894836, 0.047827377915382385, 0.025386083871126175, 0.021197358146309853, 0.02366793528199196, 0.04574080556631088, 0.07337470352649689, 0.044983234256505966, 0.07414455711841583, 0.052382078021764755, 0.01711871847510338, 0.031314339488744736, 0.020854977890849113, 0.012079848907887936, 0.030393077060580254, 0.04154789447784424, 0.01609487272799015, 0.028461411595344543, 0.15126924216747284], [0.08724919706583023, 0.05122268199920654, 0.08976996690034866, 0.06891445815563202, 0.020576532930135727, 0.017880186438560486, 0.03260563313961029, 0.052833735942840576, 0.06778345257043839, 0.059703562408685684, 0.05854780972003937, 0.05060839653015137, 0.012564023956656456, 0.03043796308338642, 0.020263204351067543, 0.010441688820719719, 0.025395551696419716, 0.040656931698322296, 0.01720147207379341, 0.01651362143456936, 0.16882993280887604], [0.10831029713153839, 0.058709628880023956, 0.02720753848552704, 0.04608379304409027, 0.01748698204755783, 0.041214536875486374, 0.012084655463695526, 0.07427620142698288, 0.11024963110685349, 0.04590250179171562, 0.09356267005205154, 0.025197479873895645, 0.011371885426342487, 0.052086666226387024, 0.02228473126888275, 0.03214903175830841, 0.03385500609874725, 0.07246401906013489, 0.007349023595452309, 0.007372761145234108, 0.10078096389770508], [0.14622725546360016, 0.06836016476154327, 0.034437909722328186, 0.038650210946798325, 0.010905351489782333, 0.016639599576592445, 0.004153123591095209, 0.05353643000125885, 0.102754145860672, 0.010220402851700783, 0.09919093549251556, 0.025597289204597473, 0.005243885330855846, 0.03781279921531677, 0.0046178968623280525, 0.005038147326558828, 0.021143054589629173, 0.052806902676820755, 0.002905764151364565, 0.0029153916984796524, 0.25684335827827454], [0.20317162573337555, 0.03848840668797493, 0.031504180282354355, 0.021559447050094604, 0.014863546006381512, 0.016571583226323128, 0.01263497956097126, 0.048472482711076736, 0.06511221081018448, 0.02362251840531826, 0.08575743436813354, 0.04301825165748596, 0.016450177878141403, 0.051932547241449356, 0.022005969658493996, 0.028828786686062813, 0.046345990151166916, 0.05300363525748253, 0.00950593501329422, 0.031268876045942307, 0.13588152825832367], [0.07523471117019653, 0.045624956488609314, 0.01760071888566017, 0.005099980626255274, 0.017345866188406944, 0.014007039368152618, 0.008592997677624226, 0.028699055314064026, 0.0771261602640152, 0.052967797964811325, 0.08229371905326843, 0.0434209480881691, 0.022655190899968147, 0.05723942071199417, 0.011814636178314686, 0.01541436742991209, 0.02639327570796013, 0.04693015664815903, 0.050273045897483826, 0.09713474661111832, 0.2041311264038086], [0.04574524611234665, 0.07210678607225418, 0.029096907004714012, 0.021154077723622322, 0.02087336778640747, 0.016541002318263054, 0.015985989943146706, 0.02953113242983818, 0.0954945832490921, 0.06287781149148941, 0.09554970264434814, 0.07480812817811966, 0.02927088551223278, 0.0515153668820858, 0.016824619844555855, 0.005379160400480032, 0.015097471885383129, 0.041099924594163895, 0.038192883133888245, 0.041172634810209274, 0.181682288646698], [0.0698169693350792, 0.05705729126930237, 0.0327829085290432, 0.02498546615242958, 0.018071865662932396, 0.006708902306854725, 0.007791918236762285, 0.026057595387101173, 0.09382150322198868, 0.059255097061395645, 0.1252461075782776, 0.190397709608078, 0.027879077941179276, 0.027458555996418, 0.02803357131779194, 0.005721387453377247, 0.015659794211387634, 0.0251107569783926, 0.017874859273433685, 0.016704915091395378, 0.12356385588645935]], [[0.1011921614408493, 0.008334267884492874, 0.015359845943748951, 0.016953105106949806, 0.009971274062991142, 0.008750712499022484, 0.02634437568485737, 0.004380788188427687, 0.02312086895108223, 0.023215264081954956, 0.02592252939939499, 0.11226455122232437, 0.0996277928352356, 0.0959998220205307, 0.11459077894687653, 0.007806058507412672, 0.05799851939082146, 0.09657039493322372, 0.13745340704917908, 0.004818470682948828, 0.009325078688561916], [0.0061677913181483746, 0.03396803140640259, 0.1390656679868698, 0.18490198254585266, 0.32047128677368164, 0.027811214327812195, 0.04619547352194786, 0.020546693354845047, 0.03825932741165161, 0.036562807857990265, 0.020059294998645782, 0.01250426098704338, 0.019439002498984337, 0.01216921117156744, 0.009359193034470081, 0.0008647085633128881, 0.0035894603934139013, 0.011436248198151588, 0.014807084575295448, 0.009559913538396358, 0.03226146474480629], [0.005505561828613281, 0.011371155269443989, 0.002363713691011071, 0.1048574149608612, 0.5118102431297302, 0.11002127826213837, 0.14368946850299835, 0.019052723422646523, 0.025386933237314224, 0.014063035137951374, 0.008136281743645668, 0.00031958226463757455, 0.007246993947774172, 0.010492383502423763, 0.004463708959519863, 0.0006738800439052284, 0.0008522035204805434, 0.007806980051100254, 0.0011192429810762405, 0.0009445383329875767, 0.00982262846082449], [0.007372818887233734, 0.022479014471173286, 0.04046575725078583, 0.03345152363181114, 0.13391782343387604, 0.06645015627145767, 0.12165717780590057, 0.099899061024189, 0.13239000737667084, 0.082842618227005, 0.08380191028118134, 0.0748814046382904, 0.013490577228367329, 0.025110818445682526, 0.009160102345049381, 0.0012895225081592798, 0.002420022152364254, 0.023363206535577774, 0.0020043975673615932, 0.001498047262430191, 0.022054020315408707], [0.0007145812269300222, 0.0020512377377599478, 0.006565937772393227, 0.012678283266723156, 0.05707378312945366, 0.08091654628515244, 0.17398397624492645, 0.12751029431819916, 0.08089174330234528, 0.22563348710536957, 0.03789421543478966, 0.11491471529006958, 0.04147257283329964, 0.007029932923614979, 0.013825117610394955, 0.0003315657959319651, 0.003538751509040594, 0.006500546354800463, 0.0022869640961289406, 0.0006317684310488403, 0.003554028458893299], [0.005881433840841055, 0.006239200476557016, 0.003127995179966092, 0.00736144557595253, 0.005524892359972, 0.007665030658245087, 0.08096077293157578, 0.14124348759651184, 0.20026741921901703, 0.31753912568092346, 0.05235202610492706, 0.034983668476343155, 0.04404165595769882, 0.024114053696393967, 0.015058587305247784, 0.0017945640720427036, 0.009176990948617458, 0.025165364146232605, 0.006613001227378845, 0.002399768913164735, 0.008489581756293774], [0.03204280510544777, 0.014569796621799469, 0.00732543645426631, 0.005369884427636862, 0.003603356657549739, 0.004586115013808012, 0.010689560323953629, 0.07776598632335663, 0.4498834013938904, 0.035781316459178925, 0.11994413286447525, 0.1156064122915268, 0.014897089451551437, 0.03367530554533005, 0.013475402258336544, 0.003216417971998453, 0.0029977683443576097, 0.04909845441579819, 0.0015791592886671424, 0.0012567644007503986, 0.00263538327999413], [0.008770276792347431, 0.0033475435338914394, 0.0022132054436951876, 0.0033925671596080065, 0.000989103689789772, 0.0012195090530440211, 0.005686300806701183, 0.006047877483069897, 0.1608373373746872, 0.2456640750169754, 0.260424941778183, 0.16406072676181793, 0.02591603808104992, 0.024914512410759926, 0.011016984470188618, 0.002211573300883174, 0.008068648166954517, 0.038686588406562805, 0.0070191118866205215, 0.004672036971896887, 0.014840971678495407], [0.015155582688748837, 0.005488819442689419, 0.002595648868009448, 0.008840768598020077, 0.004112394526600838, 0.003162336302921176, 0.007621862459927797, 0.005899600684642792, 0.05239646136760712, 0.10142732411623001, 0.2788045406341553, 0.2814454138278961, 0.11093267798423767, 0.029646359384059906, 0.011243685148656368, 0.0030250081326812506, 0.016827145591378212, 0.03034067153930664, 0.005494175478816032, 0.007987960241734982, 0.017551563680171967], [0.010163769125938416, 0.0018053610110655427, 0.0015560727333649993, 0.0009363700519315898, 0.0016723234439268708, 0.00028849157388322055, 0.003061899682506919, 0.0009583144565112889, 0.02126561850309372, 0.008969200775027275, 0.06949542462825775, 0.5480253100395203, 0.22510911524295807, 0.030847907066345215, 0.0280635766685009, 0.0018990051466971636, 0.004206815268844366, 0.028093982487916946, 0.00637474050745368, 0.0032339259050786495, 0.0039727771654725075], [0.0032149236649274826, 0.0023714664857834578, 0.0014776403550058603, 0.003669431433081627, 0.0012081364402547479, 0.001559944823384285, 0.005219271406531334, 0.0019702932331711054, 0.005153017584234476, 0.009344919584691525, 0.03879793360829353, 0.26400426030158997, 0.4184422492980957, 0.041996922343969345, 0.0571201927959919, 0.005680154077708721, 0.06272977590560913, 0.010441385209560394, 0.017901767045259476, 0.018764086067676544, 0.02893218956887722], [0.0032239218708127737, 0.000970585155300796, 4.18890303990338e-05, 0.0012878812849521637, 0.0008047212613746524, 0.0006022455636411905, 0.005439943168312311, 0.0004544399562291801, 0.0018333658808842301, 0.0015046005137264729, 0.004875514656305313, 0.003079012967646122, 0.5419045090675354, 0.08043407648801804, 0.17912693321704865, 0.014387999661266804, 0.06788952648639679, 0.015631526708602905, 0.015061755664646626, 0.021410152316093445, 0.040035344660282135], [0.0008833759929984808, 0.00025588818243704736, 0.00038604848668910563, 0.000667899614199996, 0.00020010091247968376, 0.00019506242824718356, 0.0010773201938718557, 0.0002602212771307677, 0.0015525267226621509, 0.003356881206855178, 0.0021122314501553774, 0.013189826160669327, 0.049124911427497864, 0.019521251320838928, 0.3654317855834961, 0.013063540682196617, 0.15567202866077423, 0.013393652625381947, 0.18550167977809906, 0.12260404229164124, 0.051549673080444336], [0.019708815962076187, 0.007834536954760551, 0.004898944869637489, 0.01054946705698967, 0.00362976361066103, 0.002266267780214548, 0.006892105098813772, 0.004103284794837236, 0.028244784101843834, 0.017767762765288353, 0.031175270676612854, 0.031119387596845627, 0.052280448377132416, 0.05514136329293251, 0.08665073662996292, 0.02423357218503952, 0.18489500880241394, 0.08145688474178314, 0.10972412675619125, 0.11770235002040863, 0.11972516030073166], [0.00661893468350172, 0.0037181300576776266, 0.005119342356920242, 0.0008010446326807141, 0.00019178053480572999, 0.00034129616688005626, 0.0013963280944153666, 0.00019360310398042202, 0.00411782693117857, 0.008759168907999992, 0.002258825581520796, 0.006532345898449421, 0.001614320557564497, 0.009801953099668026, 0.015698913484811783, 0.006939819548279047, 0.04899497702717781, 0.06884733587503433, 0.6490777134895325, 0.09349361807107925, 0.06548269838094711], [0.01436922512948513, 0.004493890330195427, 0.0022912416607141495, 0.001716152997687459, 0.00023403011437039822, 0.00032477828790433705, 0.0019191172905266285, 0.00037678860826417804, 0.006760432850569487, 0.002767512807622552, 0.009156947955489159, 0.012564340606331825, 0.003611467545852065, 0.014640473760664463, 0.022324448451399803, 0.008110510185360909, 0.04770425707101822, 0.11919134110212326, 0.42839762568473816, 0.20199571549892426, 0.09704970568418503], [0.012648561038076878, 0.003619423136115074, 0.005892876535654068, 0.0025477642193436623, 0.000602042069658637, 9.83735008048825e-05, 0.001559451688081026, 0.0001872650464065373, 0.0036789756268262863, 0.0008537278044968843, 0.0030271289870142937, 0.004069401882588863, 0.002900022314861417, 0.0101074343547225, 0.004807401914149523, 0.0016095079481601715, 0.012043368071317673, 0.09818067401647568, 0.3852148950099945, 0.2954145073890686, 0.15093715488910675], [0.18116316199302673, 0.03618670254945755, 0.020769696682691574, 0.030189145356416702, 0.010267334058880806, 0.005785062443464994, 0.012298041023314, 0.005528891924768686, 0.05008850246667862, 0.01027949433773756, 0.03732576221227646, 0.02413460612297058, 0.022794608026742935, 0.08399850875139236, 0.012953334487974644, 0.005639251321554184, 0.014256184920668602, 0.20739156007766724, 0.04337212070822716, 0.04958254471421242, 0.13599544763565063], [0.14698025584220886, 0.006578844506293535, 0.009465917944908142, 0.011780373752117157, 0.035614971071481705, 0.011740592308342457, 0.027721693739295006, 0.0020298415329307318, 0.013783312402665615, 0.00552318524569273, 0.0036359766963869333, 0.0029880062211304903, 0.014654980972409248, 0.06786271929740906, 0.023266423493623734, 0.008364363573491573, 0.004629753064364195, 0.1576692759990692, 0.01020872127264738, 0.06843268871307373, 0.36706817150115967], [0.056797049939632416, 0.0009393225191161036, 0.0009914227994158864, 0.006552108563482761, 0.005821211729198694, 0.0038582910783588886, 0.01459256000816822, 0.003693722654134035, 0.009911496192216873, 0.0025552494917064905, 0.00425568176433444, 0.0038700727745890617, 0.008251860737800598, 0.04698193818330765, 0.010087084956467152, 0.003965012263506651, 0.009972170926630497, 0.09717497229576111, 0.016560684889554977, 0.10006186366081238, 0.593106210231781], [0.16519580781459808, 0.02597242034971714, 0.05951512232422829, 0.014024411328136921, 0.030574694275856018, 0.011489405296742916, 0.06624899804592133, 0.008674141019582748, 0.0479302853345871, 0.01155855692923069, 0.010889681056141853, 0.01153944805264473, 0.009539462625980377, 0.052565205842256546, 0.01935185119509697, 0.0049395267851650715, 0.009869711473584175, 0.22478704154491425, 0.043219078332185745, 0.02031324990093708, 0.1518019586801529]], [[0.025451503694057465, 0.0429069958627224, 0.09703932702541351, 0.03190627321600914, 0.056821927428245544, 0.025696611031889915, 0.02991005778312683, 0.0729176327586174, 0.05201532691717148, 0.04520801082253456, 0.03325851634144783, 0.09284211695194244, 0.05019198730587959, 0.054286643862724304, 0.02732442319393158, 0.007080080918967724, 0.10239671915769577, 0.06363223493099213, 0.04835817962884903, 0.017806250602006912, 0.022949105128645897], [0.04368765652179718, 0.02419646643102169, 0.039089400321245193, 0.029416726902127266, 0.02723577618598938, 0.008786889724433422, 0.03817680478096008, 0.04465010017156601, 0.046735599637031555, 0.07767912745475769, 0.05356650799512863, 0.1402214765548706, 0.05785902217030525, 0.02866925299167633, 0.01834813877940178, 0.004922700114548206, 0.04586024209856987, 0.025718064978718758, 0.052212025970220566, 0.04540804401040077, 0.1475599706172943], [0.04364969581365585, 0.055170778185129166, 0.010303434915840626, 0.009137740358710289, 0.017139596864581108, 0.016616424545645714, 0.013891562819480896, 0.05540689453482628, 0.128432035446167, 0.05752933770418167, 0.10182112455368042, 0.030697017908096313, 0.04885753616690636, 0.11625199764966965, 0.02250346913933754, 0.0076066795736551285, 0.0653398409485817, 0.10369578003883362, 0.013069157488644123, 0.037213005125522614, 0.04566694051027298], [0.04094763100147247, 0.03059781715273857, 0.00667788228020072, 0.00969990435987711, 0.012193429283797741, 0.01214128453284502, 0.014429522678256035, 0.015619168989360332, 0.08861259371042252, 0.07978977262973785, 0.08980787545442581, 0.036459457129240036, 0.05775060877203941, 0.09504814445972443, 0.01697954162955284, 0.009117788635194302, 0.02320813201367855, 0.10213952511548996, 0.03195253014564514, 0.04568299278616905, 0.18114425241947174], [0.022133830934762955, 0.021321790292859077, 0.01161692664027214, 0.006656761281192303, 0.02374410070478916, 0.007623766548931599, 0.004892565775662661, 0.027528420090675354, 0.06547866761684418, 0.03516969457268715, 0.10406354814767838, 0.11549847573041916, 0.1516372412443161, 0.06914787739515305, 0.015348643995821476, 0.002942323451861739, 0.03455503284931183, 0.045186083763837814, 0.04908062517642975, 0.07147705554962158, 0.11489655077457428], [0.018219279125332832, 0.03556934744119644, 0.02657300978899002, 0.010426645167171955, 0.01983349770307541, 0.010412817820906639, 0.006093028001487255, 0.028874481096863747, 0.09900404512882233, 0.053875017911195755, 0.06913843750953674, 0.07481466233730316, 0.08794249594211578, 0.13436678051948547, 0.016710614785552025, 0.006925372406840324, 0.030206717550754547, 0.1312052458524704, 0.028994714841246605, 0.04727843776345253, 0.06353535503149033], [0.02974916622042656, 0.056200139224529266, 0.011512449011206627, 0.02428651601076126, 0.010038753040134907, 0.017265383154153824, 0.005026595667004585, 0.03767598047852516, 0.1118752583861351, 0.022466415539383888, 0.09830661118030548, 0.023060087114572525, 0.024140864610671997, 0.14984701573848724, 0.031061381101608276, 0.015176413580775261, 0.04270663112401962, 0.15294940769672394, 0.00902622938156128, 0.03177250921726227, 0.09585627168416977], [0.051834896206855774, 0.02074446529150009, 0.0061067258939146996, 0.008088141679763794, 0.008890826255083084, 0.004875734448432922, 0.011732259765267372, 0.01401520986109972, 0.05145450308918953, 0.03193334490060806, 0.062035974115133286, 0.034716684371232986, 0.047203682363033295, 0.06184851750731468, 0.009417944587767124, 0.006049232091754675, 0.042208582162857056, 0.07433492690324783, 0.024850478395819664, 0.07106416672468185, 0.3565935790538788], [0.05623374879360199, 0.046955566853284836, 0.013533047400414944, 0.021497676149010658, 0.01071043498814106, 0.006759298034012318, 0.00917169451713562, 0.021102391183376312, 0.07111576199531555, 0.021574141457676888, 0.08552936464548111, 0.052472107112407684, 0.02940361760556698, 0.07637438923120499, 0.01362585835158825, 0.009190084412693977, 0.03620230033993721, 0.09090162068605423, 0.010706499218940735, 0.026034142822027206, 0.29090628027915955], [0.013361340388655663, 0.03663591668009758, 0.02442571520805359, 0.013688850216567516, 0.012663151137530804, 0.0073272427543997765, 0.002795100212097168, 0.018452536314725876, 0.07422947883605957, 0.01322608720511198, 0.04747755825519562, 0.048389919102191925, 0.049439605325460434, 0.1255725622177124, 0.013490106910467148, 0.005204021465033293, 0.03493957221508026, 0.17210453748703003, 0.019053200259804726, 0.03305870667099953, 0.2344648391008377], [0.0716470256447792, 0.022726640105247498, 0.008202187716960907, 0.014842868782579899, 0.006842376198619604, 0.0047360556200146675, 0.008040310814976692, 0.01515529491007328, 0.033002451062202454, 0.018384087830781937, 0.04649287089705467, 0.03494343161582947, 0.022961445152759552, 0.03645435720682144, 0.019968435168266296, 0.008036400191485882, 0.03448713943362236, 0.042364004999399185, 0.032572273164987564, 0.061310309916734695, 0.4568301737308502], [0.07486339658498764, 0.028232241049408913, 0.00508628087118268, 0.007346970494836569, 0.005506222136318684, 0.005298707168549299, 0.003887410741299391, 0.01020472589880228, 0.05518687143921852, 0.01753978058695793, 0.04759587347507477, 0.01709013804793358, 0.019792087376117706, 0.08352843672037125, 0.016382671892642975, 0.004004885908216238, 0.031285859644412994, 0.12391579896211624, 0.01977423019707203, 0.05574820563197136, 0.36772918701171875], [0.04345963895320892, 0.0310746468603611, 0.01149489264935255, 0.009572426788508892, 0.012527587823569775, 0.006424311548471451, 0.0038162432610988617, 0.01413705199956894, 0.0706038698554039, 0.020290976390242577, 0.06033723056316376, 0.040733546018600464, 0.043734483420848846, 0.09397777915000916, 0.012637702748179436, 0.0035477892961353064, 0.02286640740931034, 0.1230887919664383, 0.04295583814382553, 0.07562793046236038, 0.25709086656570435], [0.02694866433739662, 0.06678207218647003, 0.019394032657146454, 0.02300160937011242, 0.014965776354074478, 0.011512493714690208, 0.009692971594631672, 0.021361028775572777, 0.11819542199373245, 0.021635061129927635, 0.08423829823732376, 0.03655417263507843, 0.026631934568285942, 0.13771672546863556, 0.00835609994828701, 0.011298048309981823, 0.02031249739229679, 0.20804880559444427, 0.007596154697239399, 0.021895045414566994, 0.10386309772729874], [0.010955624282360077, 0.04885274916887283, 0.041311874985694885, 0.013115332461893559, 0.013329681009054184, 0.014139323495328426, 0.006484726443886757, 0.02339465357363224, 0.09895507991313934, 0.03854752704501152, 0.04241624101996422, 0.031158871948719025, 0.032694872468709946, 0.13367386162281036, 0.011426900513470173, 0.010483196936547756, 0.023871731013059616, 0.2309621423482895, 0.029933234676718712, 0.053806331008672714, 0.09048599749803543], [0.015315855853259563, 0.05764976143836975, 0.011877750046551228, 0.011023139581084251, 0.008067401126027107, 0.006482934113591909, 0.006546019110828638, 0.0230211541056633, 0.13059136271476746, 0.017168128862977028, 0.06438670307397842, 0.01683397963643074, 0.01981465332210064, 0.15514002740383148, 0.015448144637048244, 0.006771489512175322, 0.04351810738444328, 0.23917241394519806, 0.022575130686163902, 0.03684629872441292, 0.09174947440624237], [0.028201989829540253, 0.04802181199193001, 0.009617351926863194, 0.015981458127498627, 0.013286810368299484, 0.0072968085296452045, 0.009202023036777973, 0.026695752516388893, 0.12420541048049927, 0.027684906497597694, 0.07656528055667877, 0.019789978861808777, 0.03108418546617031, 0.1178940013051033, 0.010338567197322845, 0.007102515548467636, 0.04075271636247635, 0.18426579236984253, 0.02508467622101307, 0.044277362525463104, 0.132650688290596], [0.02082018554210663, 0.0939430370926857, 0.014780029654502869, 0.022331900894641876, 0.010701498948037624, 0.0116014014929533, 0.0064846305176615715, 0.019697142764925957, 0.15018190443515778, 0.013703911565244198, 0.08187991380691528, 0.017920920625329018, 0.012877694331109524, 0.1702079027891159, 0.004300675820559263, 0.012353446334600449, 0.012365174479782581, 0.2813417911529541, 0.0013537672348320484, 0.00524052232503891, 0.03591251000761986], [0.05275009572505951, 0.10022037476301193, 0.019834859296679497, 0.018712881952524185, 0.014480646699666977, 0.011378313414752483, 0.005019201431423426, 0.09243276715278625, 0.09155876934528351, 0.06700637191534042, 0.044690851122140884, 0.011902359314262867, 0.024757754057645798, 0.12862400710582733, 0.029452884569764137, 0.01161383930593729, 0.0446375235915184, 0.13097457587718964, 0.007611732929944992, 0.03597864881157875, 0.05636148899793625], [0.06829024106264114, 0.04849593713879585, 0.018387047573924065, 0.015896594151854515, 0.011464300565421581, 0.007196582853794098, 0.007746138609945774, 0.02588941529393196, 0.08117341995239258, 0.04541778191924095, 0.05560307949781418, 0.03095730021595955, 0.033089835196733475, 0.09565439820289612, 0.019776010885834694, 0.014195161871612072, 0.038101669400930405, 0.13231916725635529, 0.019372057169675827, 0.037817392498254776, 0.19315654039382935], [0.013179917819797993, 0.02490759640932083, 0.14532746374607086, 0.06603598594665527, 0.038450438529253006, 0.00795187707990408, 0.07241781055927277, 0.08945398032665253, 0.021123282611370087, 0.08269109576940536, 0.020206011831760406, 0.16010844707489014, 0.036379944533109665, 0.007927187718451023, 0.019694853574037552, 0.004426524043083191, 0.08645963668823242, 0.005207763519138098, 0.05112585797905922, 0.028587911278009415, 0.01833643764257431]], [[0.4594366252422333, 0.006344419438391924, 0.012517308816313744, 0.05330480635166168, 0.0056455968879163265, 0.0049734581261873245, 0.02472880855202675, 0.0055701714009046555, 0.016514431685209274, 0.05749695748090744, 0.005451396107673645, 0.011070223525166512, 0.00893400702625513, 0.021734435111284256, 0.04481500759720802, 0.006376355420798063, 0.031059741973876953, 0.09782455116510391, 0.09760656207799911, 0.004427610896527767, 0.024167533963918686], [0.10262897610664368, 0.040595490485429764, 0.039243604987859726, 0.06619817018508911, 0.019872738048434258, 0.030222676694393158, 0.04031704366207123, 0.017226416617631912, 0.02807869017124176, 0.13347628712654114, 0.018726404756307602, 0.032327041029930115, 0.030178328976035118, 0.03547626733779907, 0.05979857221245766, 0.0320608951151371, 0.03176691383123398, 0.05899389833211899, 0.06584866344928741, 0.012064972892403603, 0.10489793121814728], [0.14073710143566132, 0.05717603862285614, 0.01535730343312025, 0.02635994181036949, 0.010880048386752605, 0.018127625808119774, 0.013190841302275658, 0.0076285675168037415, 0.05363069847226143, 0.07167360931634903, 0.025853939354419708, 0.014675200916826725, 0.0325319729745388, 0.08608922362327576, 0.02906140312552452, 0.008158707059919834, 0.017010118812322617, 0.18449769914150238, 0.03408866375684738, 0.013372529298067093, 0.13989880681037903], [0.08492417633533478, 0.037020325660705566, 0.030140671879053116, 0.046713121235370636, 0.02937140315771103, 0.038472775369882584, 0.015525726601481438, 0.018218427896499634, 0.036633919924497604, 0.10773806273937225, 0.024147648364305496, 0.024160083383321762, 0.04203594848513603, 0.05780907720327377, 0.11108549684286118, 0.011243931949138641, 0.020787721499800682, 0.09922467917203903, 0.04280656576156616, 0.013929582200944424, 0.1080106571316719], [0.10862990468740463, 0.044151950627565384, 0.017457010224461555, 0.03008158877491951, 0.005111246835440397, 0.01839425601065159, 0.017693540081381798, 0.028989778831601143, 0.05807091295719147, 0.07848913967609406, 0.027529217302799225, 0.01550314947962761, 0.012273389846086502, 0.0947084128856659, 0.07757329940795898, 0.016060173511505127, 0.04475801810622215, 0.18515846133232117, 0.03177490830421448, 0.014460784383118153, 0.0731307789683342], [0.10758791118860245, 0.058369625359773636, 0.048070263117551804, 0.06728250533342361, 0.018912851810455322, 0.0201572198420763, 0.010548025369644165, 0.030468333512544632, 0.044788770377635956, 0.055202726274728775, 0.02235942706465721, 0.023597801104187965, 0.020038455724716187, 0.05858722701668739, 0.07157380133867264, 0.008166173473000526, 0.03914085030555725, 0.13037165999412537, 0.039685096591711044, 0.011498096399009228, 0.11359308660030365], [0.04681479558348656, 0.07166797667741776, 0.015395788475871086, 0.056243542581796646, 0.031668152660131454, 0.01677384413778782, 0.004464613739401102, 0.040219902992248535, 0.053699396550655365, 0.11084454506635666, 0.03174484893679619, 0.016580943018198013, 0.08058726787567139, 0.07421183586120605, 0.06964991241693497, 0.009822206571698189, 0.040100980550050735, 0.09504909813404083, 0.04804260656237602, 0.019375232979655266, 0.06704257428646088], [0.10709423571825027, 0.036865029484033585, 0.017049947753548622, 0.058672573417425156, 0.006643781438469887, 0.017618905752897263, 0.016235515475273132, 0.016611766070127487, 0.029059998691082, 0.13129465281963348, 0.013879306614398956, 0.011340645141899586, 0.009494859725236893, 0.04726587235927582, 0.1134670078754425, 0.012198896147310734, 0.039484553039073944, 0.09689313173294067, 0.09344382584095001, 0.01624496839940548, 0.10914044827222824], [0.03326418623328209, 0.09051062166690826, 0.03448064625263214, 0.02552550658583641, 0.04543457180261612, 0.04832339659333229, 0.024030208587646484, 0.02269812300801277, 0.08017844706773758, 0.05421126261353493, 0.08943630754947662, 0.043188635259866714, 0.05617952346801758, 0.08076559752225876, 0.011533867567777634, 0.05732253938913345, 0.02312920056283474, 0.09016407281160355, 0.011515636928379536, 0.016207126900553703, 0.06190040335059166], [0.07877719402313232, 0.053067080676555634, 0.033546142280101776, 0.04098175838589668, 0.03226815536618233, 0.019808568060398102, 0.024621687829494476, 0.010828409343957901, 0.015185658819973469, 0.06408920884132385, 0.012802875600755215, 0.02142026275396347, 0.045493509620428085, 0.02031777612864971, 0.050302062183618546, 0.00918749999254942, 0.024704748764634132, 0.025737497955560684, 0.149521142244339, 0.017519908025860786, 0.24981890618801117], [0.06978415697813034, 0.06907787173986435, 0.030949624255299568, 0.020944934338331223, 0.01767849549651146, 0.02963068149983883, 0.03380288556218147, 0.024292152374982834, 0.07493393868207932, 0.07752477377653122, 0.05303465202450752, 0.03189542144536972, 0.027056803926825523, 0.08563890308141708, 0.02846883237361908, 0.03728500381112099, 0.036261316388845444, 0.1308046579360962, 0.029474463313817978, 0.015861045569181442, 0.07559938728809357], [0.06885656714439392, 0.07528193295001984, 0.015278329141438007, 0.01651059463620186, 0.01518044900149107, 0.02339702472090721, 0.01689622551202774, 0.01078725140541792, 0.08176553249359131, 0.05884017050266266, 0.040786031633615494, 0.01488538458943367, 0.04325522109866142, 0.11981844156980515, 0.020891182124614716, 0.0105905057862401, 0.019282357767224312, 0.22255180776119232, 0.035313259810209274, 0.019950298592448235, 0.06988143175840378], [0.05826897546648979, 0.04890211671590805, 0.012901229783892632, 0.01030237041413784, 0.0031686327420175076, 0.014677303843200207, 0.022204387933015823, 0.019289620220661163, 0.08143419027328491, 0.0848136693239212, 0.033167313784360886, 0.01269611343741417, 0.010349771939218044, 0.13927286863327026, 0.03997337818145752, 0.010242259129881859, 0.028061088174581528, 0.26680058240890503, 0.04843766987323761, 0.01636418141424656, 0.03867240250110626], [0.032064829021692276, 0.09298209100961685, 0.038030125200748444, 0.026216957718133926, 0.06223466619849205, 0.0534295029938221, 0.022464636713266373, 0.01805419661104679, 0.07637440413236618, 0.04970189929008484, 0.092753104865551, 0.04487759247422218, 0.07336704432964325, 0.07388152927160263, 0.007377964910119772, 0.0604916512966156, 0.016673322767019272, 0.07700823992490768, 0.008043232373893261, 0.018120067194104195, 0.055852945894002914], [0.056603457778692245, 0.04154141619801521, 0.04670903831720352, 0.15875136852264404, 0.06715992093086243, 0.029789244756102562, 0.011621350422501564, 0.01776248961687088, 0.013033964671194553, 0.11869839578866959, 0.007606096565723419, 0.021270673722028732, 0.06003003939986229, 0.017612069845199585, 0.04468613117933273, 0.00639322167262435, 0.030319927260279655, 0.026461511850357056, 0.05205734446644783, 0.014313725754618645, 0.15757860243320465], [0.2025662511587143, 0.04282340779900551, 0.0166692566126585, 0.03513859957456589, 0.010919750668108463, 0.01884520798921585, 0.013608690351247787, 0.021909162402153015, 0.023848704993724823, 0.06292146444320679, 0.009819705039262772, 0.00948421936482191, 0.013244072906672955, 0.03706099092960358, 0.07860837131738663, 0.00948489923030138, 0.04609474167227745, 0.08082360774278641, 0.07828407734632492, 0.009850523434579372, 0.17799431085586548], [0.05548379570245743, 0.039117876440286636, 0.027280038222670555, 0.07231299579143524, 0.014598165638744831, 0.024545343592762947, 0.02765520289540291, 0.029977016150951385, 0.025164633989334106, 0.12991352379322052, 0.014677084982395172, 0.018389780074357986, 0.019807958975434303, 0.035079509019851685, 0.11754392832517624, 0.017808731645345688, 0.060194261372089386, 0.053281139582395554, 0.1282433718442917, 0.0224542748183012, 0.06647126376628876], [0.014406590722501278, 0.09310963749885559, 0.024905269965529442, 0.02670103684067726, 0.10019586980342865, 0.073036327958107, 0.013295095413923264, 0.019506137818098068, 0.07741257548332214, 0.02037157490849495, 0.13312026858329773, 0.0373150110244751, 0.08098992705345154, 0.06671320647001266, 0.003835426876321435, 0.10060493648052216, 0.014503766782581806, 0.05180759355425835, 0.0027267264667898417, 0.012836110778152943, 0.032606951892375946], [0.054721273481845856, 0.023638296872377396, 0.07149016857147217, 0.11586745083332062, 0.04372469335794449, 0.024692628532648087, 0.030718324705958366, 0.02419593371450901, 0.0071312543004751205, 0.08054984360933304, 0.004661798942834139, 0.038258422166109085, 0.052546367049217224, 0.01046422403305769, 0.14545580744743347, 0.005325320176780224, 0.03682611137628555, 0.01392633281648159, 0.11121895164251328, 0.00898786447942257, 0.09559893608093262], [0.12730292975902557, 0.023361025378108025, 0.015487250871956348, 0.06629496067762375, 0.01793026179075241, 0.016947871074080467, 0.026234034448862076, 0.018572289496660233, 0.015044310130178928, 0.15421311557292938, 0.009107752703130245, 0.014482207596302032, 0.026080144569277763, 0.022124875336885452, 0.10727623850107193, 0.0075576044619083405, 0.061966005712747574, 0.034208331257104874, 0.08815190941095352, 0.008293907158076763, 0.13936299085617065], [0.03728703409433365, 0.005413650535047054, 0.01810476928949356, 0.07067444175481796, 0.014822877012193203, 0.0066230446100234985, 0.04332808032631874, 0.008465797640383244, 0.0024677005130797625, 0.16300979256629944, 0.0016010901890695095, 0.01159078162163496, 0.01832975260913372, 0.0028348907362669706, 0.20189224183559418, 0.004801168572157621, 0.03244677931070328, 0.004682019352912903, 0.3236423432826996, 0.007873890921473503, 0.020107870921492577]], [[0.03053116425871849, 0.029189934954047203, 0.11477944999933243, 0.08721428364515305, 0.06647765636444092, 0.01634463295340538, 0.05087297409772873, 0.0332648940384388, 0.0381755456328392, 0.1533897966146469, 0.033411938697099686, 0.08724403381347656, 0.061283085495233536, 0.02045917697250843, 0.015764320269227028, 0.021929677575826645, 0.02371949329972267, 0.0197005532681942, 0.033626001328229904, 0.01886221580207348, 0.04375917837023735], [0.003711447585374117, 0.009373744949698448, 0.1430014669895172, 0.12522439658641815, 0.11800479888916016, 0.01836353726685047, 0.05221117287874222, 0.029415849596261978, 0.04286307096481323, 0.10621526092290878, 0.039290476590394974, 0.18517310917377472, 0.033596087247133255, 0.011959893628954887, 0.02561158873140812, 0.0008154573733918369, 0.0060662878677248955, 0.00900944508612156, 0.00549688283354044, 0.004230661317706108, 0.03036537952721119], [0.019875435158610344, 0.007939295843243599, 0.02321716770529747, 0.014625439420342445, 0.05262091010808945, 0.031807444989681244, 0.01191315520554781, 0.04782918095588684, 0.09714096039533615, 0.18535424768924713, 0.07092748582363129, 0.13162757456302643, 0.0446106418967247, 0.06326524913311005, 0.05498633161187172, 0.00405591307207942, 0.013160553760826588, 0.04896601289510727, 0.04291125014424324, 0.021871989592909813, 0.011293808929622173], [0.0038579152897000313, 0.030081305652856827, 0.027217786759138107, 0.06518048048019409, 0.014819709584116936, 0.07231178134679794, 0.03824826702475548, 0.08152487874031067, 0.18688425421714783, 0.016138657927513123, 0.13490132987499237, 0.12149783968925476, 0.012315095402300358, 0.05765458568930626, 0.014369044452905655, 0.007319331634789705, 0.016650037840008736, 0.08026400953531265, 0.000968162203207612, 0.0026078070513904095, 0.015187685377895832], [0.005257055629044771, 0.0019001744221895933, 0.0005667355144396424, 0.004826611839234829, 0.050499893724918365, 0.008604384958744049, 0.022493552416563034, 0.024607529863715172, 0.10363813489675522, 0.10028392821550369, 0.10019984096288681, 0.05960167199373245, 0.3584973216056824, 0.031988661736249924, 0.021426623687148094, 0.002101287478581071, 0.02783798798918724, 0.035749953240156174, 0.01861737109720707, 0.006504443474113941, 0.014796789735555649], [0.016915129497647285, 0.0049681211821734905, 0.03529635816812515, 0.0014536974485963583, 0.00179832533467561, 0.018964219838380814, 0.02868819795548916, 0.01877078227698803, 0.09155017882585526, 0.014191490598022938, 0.07735766470432281, 0.5642411112785339, 0.012000258080661297, 0.020414313301444054, 0.011598245240747929, 0.0012782799312844872, 0.0062073213048279285, 0.030576050281524658, 0.01956997811794281, 0.007270379923284054, 0.01688992604613304], [0.0062427702359855175, 0.0023085621651262045, 0.004725162871181965, 0.0023310582619160414, 0.0010970811126753688, 0.0001547273132018745, 0.0029726121574640274, 0.0015692136948928237, 0.007610772270709276, 0.9362392425537109, 0.005759831052273512, 0.004392377100884914, 0.007058058399707079, 0.0021965017076581717, 0.002455542329698801, 0.0011808692943304777, 0.0005815437179990113, 0.003746479982510209, 0.00327435159124434, 0.0006606547976844013, 0.0034426290076225996], [0.009658829309046268, 0.006880264729261398, 0.006756655406206846, 0.011954471468925476, 0.008050667122006416, 0.006203124299645424, 0.004738856106996536, 0.014957329258322716, 0.03476453199982643, 0.1314644068479538, 0.1041417047381401, 0.24363410472869873, 0.15931902825832367, 0.035190731287002563, 0.07974433153867722, 0.008021962828934193, 0.05334526672959328, 0.02721789851784706, 0.015276298858225346, 0.01798064075410366, 0.02069886587560177], [0.026490313932299614, 0.009068287909030914, 0.007648431695997715, 0.021569309756159782, 0.010464983992278576, 0.003811229020357132, 0.011548283509910107, 0.009647983126342297, 0.029380973428487778, 0.061382051557302475, 0.10315974056720734, 0.264688640832901, 0.15698327124118805, 0.03887372836470604, 0.06232837587594986, 0.0054985517635941505, 0.050734054297208786, 0.027247147634625435, 0.023299098014831543, 0.020662222057580948, 0.05551324412226677], [0.08817892521619797, 0.01572132669389248, 0.001295107533223927, 0.002170503605157137, 0.0010229517938569188, 0.002647890243679285, 0.018342699855566025, 0.0025450843386352062, 0.024107592180371284, 0.044918034225702286, 0.03978341072797775, 0.02326732687652111, 0.16167192161083221, 0.13173902034759521, 0.14175786077976227, 0.013957430608570576, 0.049437884241342545, 0.0655725821852684, 0.11056317389011383, 0.015281373634934425, 0.0460178442299366], [0.005620494484901428, 0.004007022827863693, 0.003725138958543539, 0.009779324755072594, 0.003914601635187864, 0.001708515570499003, 0.0090056536719203, 0.00487832585349679, 0.014696086756885052, 0.020725302398204803, 0.030267173424363136, 0.1324225217103958, 0.20052587985992432, 0.04581201821565628, 0.19494721293449402, 0.0053160120733082294, 0.08908937871456146, 0.021244993433356285, 0.04950638860464096, 0.050371162593364716, 0.10243681818246841], [0.005524158012121916, 0.0011523956200107932, 0.0011720802867785096, 0.0008738424512557685, 0.00047330246889032423, 0.0005157846608199179, 0.000579685322009027, 0.0010523245437070727, 0.007647443562746048, 0.005734152626246214, 0.0091857286170125, 0.03464497625827789, 0.03655370697379112, 0.05381203442811966, 0.11678270995616913, 0.009289177134633064, 0.05475526303052902, 0.038039304316043854, 0.40184566378593445, 0.19125604629516602, 0.029110252857208252], [0.006103983614593744, 0.0008619254222139716, 0.0002681366167962551, 0.002010997850447893, 0.010860532522201538, 0.0010542564559727907, 0.0006314727943390608, 0.0005045782891102135, 0.005152840167284012, 0.00177575065754354, 0.00554656283929944, 0.003806549124419689, 0.13367782533168793, 0.0210819523781538, 0.04173460602760315, 0.010210450738668442, 0.06999637186527252, 0.03621647134423256, 0.4589679539203644, 0.11581182479858398, 0.0737248882651329], [0.05459139496088028, 0.012420344166457653, 0.01089735422283411, 0.02581663616001606, 0.011751593090593815, 0.004027377348393202, 0.011462408117949963, 0.010354231111705303, 0.025054030120372772, 0.031164895743131638, 0.03295891731977463, 0.0360436737537384, 0.044880710542201996, 0.025199005380272865, 0.058781832456588745, 0.017865555360913277, 0.0952383279800415, 0.0437159538269043, 0.18110261857509613, 0.1021820455789566, 0.16449105739593506], [0.013527320697903633, 0.007857447490096092, 0.0014904201962053776, 0.005578987300395966, 0.000717245158739388, 0.0018031507497653365, 0.003392743645235896, 0.0005780483479611576, 0.0033312973100692034, 0.002357682678848505, 0.00212582154199481, 0.00045528507325798273, 0.002755013294517994, 0.008161547593772411, 0.01290164329111576, 0.013702794909477234, 0.01392006129026413, 0.01638909801840782, 0.7337225675582886, 0.12351276725530624, 0.03171905502676964], [0.10084221512079239, 0.010375563986599445, 0.008506091311573982, 0.006881211884319782, 0.005677179899066687, 0.0030488090123981237, 0.0013190496247261763, 0.004062468186020851, 0.014460384845733643, 0.009400594048202038, 0.015082997269928455, 0.01325568649917841, 0.0193866565823555, 0.027502892538905144, 0.03298845887184143, 0.015365056693553925, 0.0330476276576519, 0.07353714853525162, 0.30588480830192566, 0.19051013886928558, 0.10886498540639877], [0.03399641439318657, 0.014488310553133488, 0.023759501054883003, 0.013153936713933945, 0.009965580888092518, 0.01168294157832861, 0.006332613527774811, 0.012891501188278198, 0.01931004412472248, 0.00930431205779314, 0.016464577987790108, 0.01734733395278454, 0.01670249179005623, 0.03447137773036957, 0.0367639884352684, 0.01310761645436287, 0.03113671950995922, 0.08441262692213058, 0.14518621563911438, 0.16938115656375885, 0.2801406979560852], [0.26202699542045593, 0.046298857778310776, 0.03127136081457138, 0.0440199077129364, 0.019894972443580627, 0.010128404013812542, 0.030318550765514374, 0.027863215655088425, 0.048067495226860046, 0.02845955453813076, 0.04147880896925926, 0.023232476785779, 0.022765137255191803, 0.05077908933162689, 0.022968687117099762, 0.02236454002559185, 0.02703174203634262, 0.06300293654203415, 0.03985600918531418, 0.028305567800998688, 0.10986575484275818], [0.20323102176189423, 0.015400693751871586, 0.0004057880723848939, 0.0075147803872823715, 0.001985973911359906, 0.007364098913967609, 0.06468977779150009, 0.004957946483045816, 0.04754139110445976, 0.004286582116037607, 0.015804389491677284, 0.0005065916338935494, 0.0017395283794030547, 0.07498279213905334, 0.020044278353452682, 0.004812100902199745, 0.018741516396403313, 0.13827255368232727, 0.2334568053483963, 0.020439811050891876, 0.11382149159908295], [0.15749874711036682, 0.0016955452738329768, 0.0009421375580132008, 0.00217200699262321, 0.0020892072934657335, 0.005677012726664543, 0.02013024315237999, 0.0009456955594941974, 0.01375172846019268, 0.004677339922636747, 0.00649357121437788, 0.0030959646683186293, 0.0032555570360273123, 0.038553886115550995, 0.02110358513891697, 0.004861174151301384, 0.002572473371401429, 0.04357123002409935, 0.5128636360168457, 0.09832290560007095, 0.05572635680437088], [0.0195845365524292, 0.04180112108588219, 0.1572081595659256, 0.17579759657382965, 0.035248883068561554, 0.01544355507940054, 0.04564926400780678, 0.04612814635038376, 0.0857304036617279, 0.06893143057823181, 0.0489763580262661, 0.048120029270648956, 0.008948037400841713, 0.021582474932074547, 0.03565531224012375, 0.004932035692036152, 0.011949582025408745, 0.03263109177350998, 0.020662035793066025, 0.005551643669605255, 0.0694681853055954]], [[0.05014718323945999, 0.04011526703834534, 0.20312099158763885, 0.0852128341794014, 0.04199018329381943, 0.02493191882967949, 0.12107676267623901, 0.010275990702211857, 0.03638192638754845, 0.0288784708827734, 0.006665087305009365, 0.01791236735880375, 0.01867174729704857, 0.05790623649954796, 0.0014369161799550056, 0.004510651808232069, 0.01817476376891136, 0.15926414728164673, 0.03438233956694603, 0.024710724130272865, 0.014233423396945], [0.001603995100595057, 0.020746761932969093, 0.7692571878433228, 0.06970328837633133, 0.04860489442944527, 0.0022785936016589403, 0.018899699673056602, 0.002222682349383831, 0.006688287016004324, 0.018469814211130142, 0.0019051366252824664, 0.006215036381036043, 0.0026949362363666296, 0.0026551017072051764, 0.004652428440749645, 0.00032191225909627974, 0.0011046292493119836, 0.006439735181629658, 0.007108713965862989, 0.0064240810461342335, 0.0020031132735311985], [0.007585269398987293, 0.018158741295337677, 0.08547718822956085, 0.05634797737002373, 0.05046045407652855, 0.0006951317191123962, 0.42996639013290405, 0.010022653266787529, 0.18768279254436493, 0.007756844162940979, 0.06351925432682037, 0.004542060196399689, 0.004316162783652544, 0.018259016796946526, 0.0029053371399641037, 0.0002187798236263916, 0.00013509075506590307, 0.029499191790819168, 0.0041901362128555775, 0.014337873086333275, 0.003923638258129358], [0.00964199099689722, 0.029887262731790543, 0.03494333103299141, 0.006474128924310207, 0.09439397603273392, 0.29115015268325806, 0.2725459337234497, 0.01721743494272232, 0.06956880539655685, 0.028475577011704445, 0.043807048350572586, 0.01756361499428749, 0.0013941825600340962, 0.02550644800066948, 0.001856725662946701, 0.0017045674612745643, 0.0010375111596658826, 0.0374494343996048, 0.001967440592125058, 0.002945892745628953, 0.010468553751707077], [0.02205636538565159, 0.005992674734443426, 0.0019511062419041991, 0.00114335713442415, 0.0009069640655070543, 0.013164454139769077, 0.5225264430046082, 0.062087565660476685, 0.07350089401006699, 0.23787209391593933, 0.01646028645336628, 0.001051293802447617, 4.329446528572589e-05, 0.01585395820438862, 0.006804670672863722, 0.0006124565843492746, 0.0032256038393825293, 0.012565127573907375, 0.00022574140166398138, 0.0008413527393713593, 0.0011143386363983154], [0.0009960372699424624, 0.0008953165379352868, 0.0013703699223697186, 4.9892900278791785e-05, 0.0004075590113643557, 0.00035592433414421976, 0.8955800533294678, 0.03817354887723923, 0.032777924090623856, 0.0035315873101353645, 0.0029493169859051704, 0.010004031471908092, 0.0012635027524083853, 0.004334096796810627, 0.001913969055749476, 7.795989222358912e-05, 0.00023666422930546105, 0.00441485270857811, 0.0001844794169301167, 7.698493573116139e-05, 0.00040591065771877766], [0.0019423841731622815, 0.0011821098159998655, 3.106968506472185e-05, 0.0005027162842452526, 3.311971522634849e-05, 0.00016668647003825754, 0.0001466371031710878, 0.0020639661233872175, 0.07222923636436462, 0.8704540133476257, 0.0023122699931263924, 0.00010100455983774737, 0.00014376878971233964, 0.0049551911652088165, 0.0008825824479572475, 3.0008613975951448e-05, 0.00019743925076909363, 0.0409366674721241, 8.920671098167077e-05, 0.00011780003842432052, 0.0014820094220340252], [0.002993797417730093, 0.003658403642475605, 0.00987663958221674, 0.004137074574828148, 0.008737892843782902, 0.0007922767545096576, 0.008204218000173569, 0.012387732975184917, 0.10290826112031937, 0.7069231271743774, 0.027777867391705513, 0.038702163845300674, 0.026103127747774124, 0.007226737681776285, 0.015531638637185097, 0.0009999440517276525, 0.001017182134091854, 0.019359396770596504, 0.0003895600384566933, 0.0011189767392352223, 0.0011538704857230186], [0.01589473895728588, 0.007482495624572039, 0.014708857983350754, 0.0045817093923687935, 0.007233940530568361, 0.003104894421994686, 0.01282229833304882, 0.008609047159552574, 0.07212939858436584, 0.3985353112220764, 0.11635445803403854, 0.19899657368659973, 0.03846726939082146, 0.01563429832458496, 0.014917463064193726, 0.004769003484398127, 0.009942199103534222, 0.038962118327617645, 0.005553004331886768, 0.00639409339055419, 0.004906761460006237], [0.06310120970010757, 0.00784450862556696, 0.0008126638131216168, 0.0006221444928087294, 0.0001662771828705445, 0.0005210535600781441, 0.013418087735772133, 0.0021182980854064226, 0.13115912675857544, 0.03227711468935013, 0.34776633977890015, 0.11582039296627045, 0.020214591175317764, 0.05575793609023094, 0.005226939916610718, 0.0007306006154976785, 0.007973473519086838, 0.16671615839004517, 0.009153775870800018, 0.013922451995313168, 0.00467689661309123], [0.00986690167337656, 0.0014678275911137462, 0.0027461780700832605, 0.0011257112491875887, 0.002230529673397541, 0.001301205949857831, 0.005480771418660879, 0.0006382489227689803, 0.003296350594609976, 0.02637740597128868, 0.025437520816922188, 0.4255490303039551, 0.36758702993392944, 0.018643351271748543, 0.061429463326931, 0.0038176863454282284, 0.01130477711558342, 0.009750486351549625, 0.01063454058021307, 0.0062437462620437145, 0.005071129184216261], [0.010949458926916122, 0.0012891676742583513, 0.00016517358017154038, 0.00023181605502031744, 4.58172507933341e-05, 2.9306514989002608e-05, 0.027589473873376846, 0.0004463654477149248, 0.022466562688350677, 0.0015075347619131207, 0.08511539548635483, 0.08257348835468292, 0.3927379548549652, 0.16087035834789276, 0.09117477387189865, 0.0031816947739571333, 0.007292736321687698, 0.05071113631129265, 0.018587462604045868, 0.033863507211208344, 0.009170754812657833], [0.018382184207439423, 0.000946104119066149, 0.00016075963503681123, 2.9868628189433366e-05, 3.856235707644373e-06, 3.935318818548694e-05, 0.0015399918192997575, 0.00017117997049354017, 0.0037871082313358784, 0.009502967819571495, 0.002937102923169732, 0.0017899133963510394, 0.002550569362938404, 0.09631846100091934, 0.5633408427238464, 0.01453432161360979, 0.14395780861377716, 0.0234117042273283, 0.03463558107614517, 0.07449886947870255, 0.007461394648998976], [0.016130147501826286, 0.008692787028849125, 0.010652925819158554, 0.002616775454953313, 0.0034489198587834835, 0.003008501138538122, 0.019356949254870415, 0.004744336940348148, 0.02458871528506279, 0.03230536729097366, 0.00800266396254301, 0.01870546117424965, 0.04960091412067413, 0.07231676578521729, 0.29170116782188416, 0.04815855994820595, 0.15453273057937622, 0.09220972657203674, 0.059332411736249924, 0.046976979821920395, 0.03291717544198036], [0.007026201579719782, 0.002786804223433137, 3.390214260434732e-05, 0.0012990463292226195, 0.0004942581872455776, 7.934244786156341e-05, 0.00033966090995818377, 0.00013935183233115822, 0.012360037304461002, 0.0008564393501728773, 0.002414318500086665, 0.00015759895904920995, 0.02036135643720627, 0.03603279963135719, 0.09619193524122238, 0.010045568458735943, 0.05124619975686073, 0.20691776275634766, 0.4056638777256012, 0.12249363213777542, 0.02305985614657402], [0.009454402141273022, 0.007288617081940174, 0.0043365564197301865, 0.00046408423804678023, 0.0002740572381298989, 0.00024390990438405424, 0.0004719696589745581, 0.00029582646675407887, 0.0066578383557498455, 0.007191004231572151, 0.0026703134644776583, 0.009788516908884048, 0.004508060868829489, 0.018815401941537857, 0.09632924199104309, 0.0036154226399958134, 0.14316992461681366, 0.21137452125549316, 0.39083653688430786, 0.04071711003780365, 0.041496727615594864], [0.0029030158184468746, 0.009521926753222942, 0.005894086789339781, 0.0007237623212859035, 0.00017662170284893364, 0.0003438049170654267, 0.0002647297515068203, 5.285589213599451e-05, 0.0053144460543990135, 0.0032147555612027645, 0.0012238224735483527, 0.0025165220722556114, 0.003582934383302927, 0.01351186353713274, 0.026646889746189117, 0.0019554614555090666, 0.010379926301538944, 0.3645254075527191, 0.40837448835372925, 0.08683914691209793, 0.05203353986144066], [0.025921547785401344, 0.07122435420751572, 0.06032969802618027, 0.014424270950257778, 0.012097897939383984, 0.010721711441874504, 0.017381079494953156, 0.008117256686091423, 0.056009791791439056, 0.013517048209905624, 0.026385050266981125, 0.029625462368130684, 0.025579087436199188, 0.07893089205026627, 0.01034053135663271, 0.011235665529966354, 0.020864054560661316, 0.3367762267589569, 0.05167864263057709, 0.06523743271827698, 0.053602248430252075], [0.05395304784178734, 0.007252771407365799, 0.006319515872746706, 0.00508897053077817, 0.0009522325708530843, 0.0005105222808197141, 0.0061227367259562016, 0.00017362872313242406, 0.018532225862145424, 9.083645272767171e-05, 0.003470746800303459, 0.005129143130034208, 0.0010527002159506083, 0.054178811609745026, 0.0046278852969408035, 0.0005748584517277777, 0.0035085761919617653, 0.4215667247772217, 0.09269578009843826, 0.08340619504451752, 0.2307920902967453], [0.025880083441734314, 0.0017266127979382873, 0.0031242358963936567, 0.0035840568598359823, 0.014398138038814068, 0.000693401787430048, 0.0018247843254357576, 9.920977026922628e-05, 0.005711184348911047, 0.00016331191000062972, 0.0013474338920786977, 0.0014668519143015146, 0.011982440017163754, 0.0297138262540102, 0.0015196591848507524, 0.00031578270136378706, 0.002353312447667122, 0.17707328498363495, 0.5486785173416138, 0.014798857271671295, 0.1535450667142868], [0.021518545225262642, 0.08478167653083801, 0.044107481837272644, 0.0627046450972557, 0.022363800555467606, 0.019227929413318634, 0.0422380231320858, 0.01215212419629097, 0.0727432444691658, 0.013404756784439087, 0.018416138365864754, 0.005338489077985287, 0.005504684988409281, 0.07576362788677216, 0.006423952057957649, 0.003126777708530426, 0.01062228437513113, 0.30866649746894836, 0.028854191303253174, 0.05093354359269142, 0.09110747277736664]], [[0.011205130256712437, 0.01763704977929592, 0.011098995804786682, 0.019693590700626373, 0.022339168936014175, 0.015138678252696991, 2.2741820430383086e-05, 0.007292214781045914, 0.0685957744717598, 0.05804665759205818, 0.07976486533880234, 0.0468730702996254, 0.1969902068376541, 0.05033903568983078, 0.003494806122034788, 0.009565815329551697, 0.011637353338301182, 0.07385660707950592, 0.005111900623887777, 0.003590858541429043, 0.2877054512500763], [0.024337075650691986, 0.24270035326480865, 0.02329310216009617, 0.028526023030281067, 0.005902274511754513, 0.002654376206919551, 0.0043147834949195385, 0.014556501060724258, 0.0822896659374237, 0.004316164646297693, 0.024810610339045525, 0.0024751408491283655, 0.004188781138509512, 0.04806601628661156, 0.004236292559653521, 0.002061964478343725, 0.0141557352617383, 0.45082223415374756, 0.003972149454057217, 0.003185856156051159, 0.009134906344115734], [0.009200580418109894, 0.3242033123970032, 0.13162925839424133, 0.14056430757045746, 0.10943412035703659, 0.04983401671051979, 0.004358311649411917, 0.015707699581980705, 0.04075343906879425, 0.0008866974385455251, 0.015035264194011688, 0.0002621621242724359, 0.005189414601773024, 0.02497440204024315, 0.00017890107119455934, 0.0006829366320744157, 0.004889887757599354, 0.1153726875782013, 0.00035311360261403024, 0.005751292686909437, 0.0007382718031294644], [0.029267024248838425, 0.08061829209327698, 0.030803034082055092, 0.00842292420566082, 0.06495065242052078, 0.03128470852971077, 0.00035664919414557517, 0.07376153767108917, 0.12361124157905579, 0.007530308794230223, 0.05406441166996956, 0.0017773385625332594, 0.0026433365419507027, 0.09432314336299896, 0.001868493389338255, 0.0022769521456211805, 0.02188415639102459, 0.288135290145874, 0.0073890057392418385, 0.004987962543964386, 0.07004345953464508], [0.0006149753462523222, 0.03617490828037262, 0.5059306025505066, 0.35677993297576904, 0.011170909740030766, 0.02262401394546032, 0.0002926140441559255, 0.004966096021234989, 0.019507937133312225, 0.0025127774570137262, 0.013029742054641247, 0.005621753633022308, 6.949807720957324e-05, 0.00901883002370596, 0.00020741172193083912, 1.5135981811909005e-05, 0.00015166218508966267, 0.008713525719940662, 2.032839438470546e-05, 0.0007794855628162622, 0.001797778531908989], [0.004800883121788502, 0.006262967828661203, 0.0026015229523181915, 0.005720831919461489, 0.04396440461277962, 0.004930539056658745, 0.7961316704750061, 0.028362270444631577, 0.028484966605901718, 0.00029111202456988394, 0.013233759440481663, 0.0029578679241240025, 0.0004761457385029644, 0.025413857772946358, 0.00018901930889114738, 0.0007464709342457354, 0.0005990058998577297, 0.033292870968580246, 1.753734250087291e-05, 5.475265788845718e-05, 0.001467512222006917], [0.0037446615751832724, 0.022551026195287704, 0.002917642006650567, 0.0009372374042868614, 0.010020718909800053, 0.1977657824754715, 0.0015481276204809546, 0.38013437390327454, 0.10816381871700287, 0.012639760039746761, 0.0084807388484478, 0.0006087267538532615, 0.0003239523502998054, 0.09195664525032043, 0.0005261049373075366, 0.000785605690907687, 0.006534070707857609, 0.14698204398155212, 0.00012960057938471437, 5.352987864171155e-05, 0.0031958117615431547], [0.00047983083641156554, 0.0011797304032370448, 0.00024201800988521427, 0.001770149334333837, 0.0009987328667193651, 0.0289219431579113, 0.9394986629486084, 0.007897403091192245, 0.010750680230557919, 0.000786414195317775, 0.0013960878131911159, 0.00010458986798767, 9.84001235337928e-05, 0.002519261557608843, 0.0007074273307807744, 0.00036339505459181964, 1.1303194696665742e-05, 0.0018633737927302718, 0.00015841018466744572, 9.976803994504735e-06, 0.00024224244407378137], [0.03824799507856369, 0.025178339332342148, 0.00465000793337822, 0.013793802820146084, 0.014466461725533009, 0.004991357680410147, 0.006881103850901127, 0.08635185658931732, 0.45354780554771423, 0.06669951230287552, 0.07460366189479828, 0.004907604772597551, 0.008448180742561817, 0.05609208345413208, 0.0035187681205570698, 0.001170434756204486, 0.002947479020804167, 0.11454581469297409, 0.0007893603760749102, 0.0010417973389849067, 0.01712648756802082], [0.015189195983111858, 0.01318295393139124, 0.0005900253308936954, 0.0008210297091864049, 0.00022360433649737388, 0.0008617801358923316, 0.000872937438543886, 0.030237501487135887, 0.5698736310005188, 0.062477659434080124, 0.1657315343618393, 0.0027057225815951824, 0.0004980452358722687, 0.03698255866765976, 0.0002791893493849784, 0.0005474327481351793, 0.0012905399780720472, 0.09592317789793015, 0.00011632118548732251, 0.00012614989827852696, 0.0014689791714772582], [0.021332893520593643, 0.010010777041316032, 0.0024774817284196615, 0.01144301239401102, 0.004980815574526787, 0.00243150326423347, 0.000601719249971211, 0.01528441533446312, 0.19497844576835632, 0.06128587946295738, 0.42331016063690186, 0.08851772546768188, 0.015924744307994843, 0.032559752464294434, 0.0020054709166288376, 0.0014261839678511024, 0.003912393935024738, 0.09297484904527664, 0.0006769206956960261, 0.0013515102909877896, 0.012513316236436367], [0.007746150717139244, 0.0031972993165254593, 0.00011953878129133955, 0.004207615274935961, 0.0030970110092312098, 0.024604544043540955, 0.00022238782548811287, 0.003186817979440093, 0.04896847903728485, 0.00524236261844635, 0.7300316095352173, 0.013477767817676067, 0.07751668244600296, 0.03992561250925064, 0.00019603397231549025, 0.0005426069837994874, 0.0014312898274511099, 0.034605007618665695, 2.5811898012761958e-05, 0.0009980046888813376, 0.0006572903948836029], [0.001982195070013404, 0.004891205579042435, 0.006380625534802675, 0.003409529337659478, 3.1407613278133795e-05, 0.0017185137839987874, 1.156943108071573e-05, 0.002018918748944998, 0.018421819433569908, 0.01333142351359129, 0.26371777057647705, 0.5544897317886353, 0.01266805361956358, 0.09366487711668015, 0.004297888837754726, 0.00016434078861493617, 0.001161411521025002, 0.013708577491343021, 4.035102028865367e-05, 0.0011094172950834036, 0.0027803746052086353], [0.03878192976117134, 0.014496122486889362, 0.0026030386798083782, 0.012963552959263325, 0.006863028276711702, 0.006515351124107838, 0.0066987317986786366, 0.016986047849059105, 0.057886555790901184, 0.010852298699319363, 0.07263097167015076, 0.03036605566740036, 0.15804189443588257, 0.30914798378944397, 0.042979396879673004, 0.006665072403848171, 0.02092764526605606, 0.14031264185905457, 0.0029833028092980385, 0.00803122017532587, 0.03326717019081116], [0.001125332317315042, 0.0003890047955792397, 0.00020179260172881186, 0.0002049795730272308, 3.2633306545903906e-05, 0.0008860186208039522, 1.5599980542901903e-05, 0.0050229099579155445, 0.005115651525557041, 0.009068682789802551, 0.004272632300853729, 0.004142555873841047, 0.005537830758839846, 0.05842862278223038, 0.013139753602445126, 0.10657201707363129, 0.7669315338134766, 0.015971090644598007, 0.0006238695350475609, 0.001955215586349368, 0.00036222595372237265], [0.00026909710140898824, 0.00033242942299693823, 0.00030744666582904756, 0.0003556123992893845, 5.80628402531147e-05, 0.0012281873496249318, 0.002519432920962572, 0.0013736450346186757, 0.0005318553885444999, 0.004144531674683094, 0.0008001809474080801, 0.0019227908924221992, 0.0006167173851281404, 0.007172068115323782, 0.926291823387146, 0.010079870000481606, 0.03217286244034767, 0.0023459172807633877, 0.005882101599127054, 0.0012247427366673946, 0.0003707123105414212], [0.0005853095790371299, 0.0002547056647017598, 3.6974823160562664e-05, 0.0001577286166138947, 6.090872375352774e-06, 0.00027402787236496806, 0.00016836720169521868, 6.092019975767471e-05, 0.0006882427260279655, 0.0005916377413086593, 0.0028299055993556976, 0.0009423702140338719, 0.00024519325233995914, 0.006982801016420126, 0.950127899646759, 0.02712753228843212, 0.0009455115650780499, 0.004632916301488876, 0.0025240296963602304, 0.0004158499650657177, 0.00040186059777624905], [0.0854082703590393, 0.033933866769075394, 0.0031993344891816378, 0.009698073379695415, 0.003998695407062769, 0.00301374401897192, 0.001113801496103406, 0.009618152864277363, 0.08511749655008316, 0.0195976123213768, 0.0627276599407196, 0.006702668499201536, 0.014081807807087898, 0.1047372967004776, 0.025077037513256073, 0.006158089265227318, 0.04447779059410095, 0.38932520151138306, 0.009675143286585808, 0.016075624153017998, 0.06626249104738235], [0.015943363308906555, 0.028308290988206863, 0.001177869737148285, 0.0017778384499251842, 1.4588953490601853e-05, 8.867575525073335e-05, 1.7026781279128045e-05, 0.0005657423171214759, 0.02802976593375206, 0.001519759651273489, 0.03434259071946144, 0.0024259486235678196, 0.0007926765247248113, 0.09444748610258102, 0.016799593344330788, 0.013511113822460175, 0.0989484041929245, 0.44432592391967773, 0.005442021880298853, 0.18445739150047302, 0.027063891291618347], [0.003480912884697318, 0.0009175681625492871, 0.0008851930615492165, 0.0006175498710945249, 2.1067588022560813e-05, 6.730714085279033e-05, 2.056237281067297e-05, 1.2718516700260807e-05, 0.0005182241438888013, 0.000157308837515302, 0.0017213667742908, 0.0018130274256691337, 0.0007163475384004414, 0.002760159783065319, 0.015521117486059666, 0.0004561668320093304, 0.011579575017094612, 0.009300928562879562, 0.9449478387832642, 0.0008613201789557934, 0.0036238597240298986], [0.1978631466627121, 0.023988774046301842, 0.0005673200357705355, 0.011792789213359356, 0.000862570246681571, 0.007988735102117062, 0.0002661615435499698, 0.0027806374710053205, 0.03940275311470032, 0.0011320305056869984, 0.043659649789333344, 0.0007535912445746362, 0.003946350421756506, 0.10367099940776825, 0.03136739134788513, 0.002136741764843464, 0.015506836585700512, 0.3105059266090393, 0.03177885711193085, 0.01982642523944378, 0.15020227432250977]], [[0.022588470950722694, 0.03179599344730377, 0.10008402913808823, 0.09291867166757584, 0.06230120733380318, 0.024732092395424843, 0.0697041004896164, 0.018593918532133102, 0.009660794399678707, 0.23207558691501617, 0.012977543286979198, 0.050199322402477264, 0.06637642532587051, 0.011907616630196571, 0.0576949343085289, 0.02030692994594574, 0.01911112852394581, 0.0060837832279503345, 0.041831664741039276, 0.021974407136440277, 0.027081361040472984], [0.02333633415400982, 0.10681192576885223, 0.03588319569826126, 0.04348914697766304, 0.021632982417941093, 0.018459448590874672, 0.014144985005259514, 0.025745723396539688, 0.1365996152162552, 0.01926901564002037, 0.09831371903419495, 0.047905609011650085, 0.02015027217566967, 0.1274576634168625, 0.024345675483345985, 0.0057853031903505325, 0.019827760756015778, 0.11677771061658859, 0.0074638864025473595, 0.010477231815457344, 0.07612279802560806], [0.03591519966721535, 0.08177950978279114, 0.01509925164282322, 0.07728556543588638, 0.028059933334589005, 0.0037663858383893967, 0.03924816474318504, 0.02027113363146782, 0.10349354147911072, 0.05759575590491295, 0.12194164097309113, 0.02207024395465851, 0.04156723618507385, 0.05714743584394455, 0.04376425966620445, 0.008485939353704453, 0.014466503635048866, 0.05286121740937233, 0.01510332990437746, 0.013233491219580173, 0.146844282746315], [0.011862783692777157, 0.05963098257780075, 0.0626739040017128, 0.0032066742423921824, 0.020668907091021538, 0.012553106993436813, 0.006774215493351221, 0.0066973003558814526, 0.16275756061077118, 0.01152829173952341, 0.17071354389190674, 0.13101546466350555, 0.032914526760578156, 0.116872638463974, 0.003052689600735903, 0.0031688178423792124, 0.005069012753665447, 0.11844100803136826, 0.0011049299500882626, 0.0021277039777487516, 0.05716588348150253], [0.02941448614001274, 0.05558100342750549, 0.06443000584840775, 0.02452932298183441, 0.1283804029226303, 0.017773205414414406, 0.01810833066701889, 0.010072273202240467, 0.06004979461431503, 0.06136824190616608, 0.07813509553670883, 0.13041403889656067, 0.11250581592321396, 0.042670976370573044, 0.01253998652100563, 0.004969516769051552, 0.011038193479180336, 0.031611159443855286, 0.009068619459867477, 0.007646078709512949, 0.08969336003065109], [0.054843466728925705, 0.10526398569345474, 0.02509050816297531, 0.029299117624759674, 0.04958514869213104, 0.03832058981060982, 0.018697578459978104, 0.025309881195425987, 0.1206708773970604, 0.01972416415810585, 0.10325492173433304, 0.02688504010438919, 0.049443136900663376, 0.12008760124444962, 0.008074703626334667, 0.015054154209792614, 0.019160982221364975, 0.11840125918388367, 0.0035575067158788443, 0.010523648001253605, 0.03875172883272171], [0.04460138827562332, 0.06744426488876343, 0.053337253630161285, 0.010866985656321049, 0.04379625990986824, 0.020725533366203308, 0.005472807213664055, 0.04251289367675781, 0.09697089344263077, 0.024901093915104866, 0.07998828589916229, 0.07671628892421722, 0.03634190186858177, 0.1003347858786583, 0.018773362040519714, 0.010820302180945873, 0.05701411888003349, 0.09791845083236694, 0.02130485698580742, 0.03531571850180626, 0.05484255030751228], [0.017042137682437897, 0.06966930627822876, 0.016310203820466995, 0.007095465436577797, 0.010337271727621555, 0.006920782383531332, 0.009179196320474148, 0.010880314745008945, 0.17175908386707306, 0.013040748424828053, 0.15678127110004425, 0.023533130064606667, 0.014698434621095657, 0.1502520591020584, 0.009552063420414925, 0.008132253773510456, 0.008425346575677395, 0.13885660469532013, 0.0017819065833464265, 0.017627010121941566, 0.13812534511089325], [0.020019149407744408, 0.05985347554087639, 0.047027748078107834, 0.04485464096069336, 0.02508814074099064, 0.026128701865673065, 0.008541278541088104, 0.038910772651433945, 0.10492164641618729, 0.021750489249825478, 0.06990504264831543, 0.06135014444589615, 0.02836688980460167, 0.12542210519313812, 0.04198666661977768, 0.006820647045969963, 0.04769560322165489, 0.13970457017421722, 0.011829251423478127, 0.01642647758126259, 0.05339649319648743], [0.11733757704496384, 0.04758046194911003, 0.01729927770793438, 0.013440322130918503, 0.03303518891334534, 0.016478488221764565, 0.01899038627743721, 0.021737009286880493, 0.0866946280002594, 0.017548009753227234, 0.09633474051952362, 0.0568607896566391, 0.0655527114868164, 0.09471297264099121, 0.023952756077051163, 0.00477633997797966, 0.04042157903313637, 0.08119644969701767, 0.027724983170628548, 0.018975578248500824, 0.09934977442026138], [0.024175193160772324, 0.06294909119606018, 0.06953554600477219, 0.06405577808618546, 0.03439972177147865, 0.01688769832253456, 0.0062693702057003975, 0.022013485431671143, 0.10217475891113281, 0.014500402845442295, 0.10658437013626099, 0.1116621345281601, 0.03533819690346718, 0.0914064422249794, 0.023159494623541832, 0.005542431026697159, 0.020494740456342697, 0.08012516796588898, 0.00478702737018466, 0.01056651957333088, 0.09337244182825089], [0.057473912835121155, 0.05859733000397682, 0.017916658893227577, 0.06141209602355957, 0.03784260153770447, 0.003732905723154545, 0.03787964954972267, 0.01662253402173519, 0.08219835162162781, 0.06349852681159973, 0.10936541110277176, 0.022513672709465027, 0.05190799757838249, 0.05033884942531586, 0.05489594116806984, 0.007576275616884232, 0.013580754399299622, 0.042473550885915756, 0.010779003612697124, 0.02021101675927639, 0.17918294668197632], [0.04863956198096275, 0.03263627365231514, 0.07495246827602386, 0.014537014998495579, 0.08068820834159851, 0.011591759510338306, 0.012407402507960796, 0.008830174803733826, 0.04867379739880562, 0.07170671224594116, 0.06352481991052628, 0.1287442445755005, 0.13213230669498444, 0.047084465622901917, 0.02585623972117901, 0.005418768618255854, 0.013847630470991135, 0.0336003340780735, 0.020613020285964012, 0.01340027991682291, 0.11111444234848022], [0.025700081139802933, 0.04411851614713669, 0.030372843146324158, 0.03507260978221893, 0.01929696649312973, 0.024799559265375137, 0.008040615357458591, 0.045521318912506104, 0.090814970433712, 0.0213154386729002, 0.054539818316698074, 0.044319793581962585, 0.027107886970043182, 0.13987454771995544, 0.049167051911354065, 0.008342373184859753, 0.07429566234350204, 0.17229647934436798, 0.022100340574979782, 0.02365620620548725, 0.03924693167209625], [0.07378154247999191, 0.05264339596033096, 0.01971506141126156, 0.007299673743546009, 0.008588445372879505, 0.021782001480460167, 0.01667213998734951, 0.01693849079310894, 0.12271703779697418, 0.04819842427968979, 0.10901989787817001, 0.03329828754067421, 0.029427655041217804, 0.14195029437541962, 0.002887836191803217, 0.014611680991947651, 0.02087162807583809, 0.13914825022220612, 0.01272987388074398, 0.01493450440466404, 0.09278387576341629], [0.03871861845254898, 0.03753916546702385, 0.022122327238321304, 0.007062518037855625, 0.025795696303248405, 0.03925808146595955, 0.025256721302866936, 0.07239443063735962, 0.10061921924352646, 0.01403978280723095, 0.09690343588590622, 0.021300112828612328, 0.056302282959222794, 0.1413910686969757, 0.012939698062837124, 0.014446238987147808, 0.04033343866467476, 0.13588647544384003, 0.003521899925544858, 0.033425334841012955, 0.06074339151382446], [0.03013410046696663, 0.04532359912991524, 0.008434195071458817, 0.0030405858997255564, 0.00535709410905838, 0.007381490897387266, 0.017299477010965347, 0.00796050950884819, 0.15669651329517365, 0.028867656365036964, 0.1410212516784668, 0.012474487535655499, 0.015180675312876701, 0.15172690153121948, 0.00921661127358675, 0.009661818854510784, 0.00394921051338315, 0.13259285688400269, 0.004085453227162361, 0.02876114659011364, 0.18083426356315613], [0.012932395562529564, 0.025984851643443108, 0.011399900540709496, 0.01576313003897667, 0.00908995047211647, 0.0230567529797554, 0.004235789179801941, 0.040363628417253494, 0.09032073616981506, 0.0168203916400671, 0.03311863914132118, 0.014595316722989082, 0.014265250414609909, 0.17412754893302917, 0.035510651767253876, 0.007807934656739235, 0.08121728152036667, 0.3187404274940491, 0.030006201937794685, 0.01969042979180813, 0.020952755585312843], [0.18471074104309082, 0.025552839040756226, 0.0060754320584237576, 0.0016731851501390338, 0.005964602343738079, 0.011251132935285568, 0.07943298667669296, 0.005774607416242361, 0.0754455178976059, 0.07505609095096588, 0.04697877913713455, 0.007740947883576155, 0.02409001626074314, 0.11279302090406418, 0.010496191680431366, 0.011519667692482471, 0.010562092997133732, 0.10976994037628174, 0.013542897067964077, 0.05262573063373566, 0.12894362211227417], [0.037760231643915176, 0.03985301032662392, 0.008218703791499138, 0.004837149288505316, 0.01315972488373518, 0.007489670999348164, 0.012005923315882683, 0.04494764283299446, 0.09470100700855255, 0.032194726169109344, 0.09290733188390732, 0.013305341824889183, 0.029560765251517296, 0.12972676753997803, 0.011691216379404068, 0.007534594275057316, 0.07161438465118408, 0.12214963138103485, 0.018194496631622314, 0.06055333837866783, 0.1475944221019745], [0.020480116829276085, 0.058004286140203476, 0.046097297221422195, 0.010772332549095154, 0.011893568560481071, 0.016962112858891487, 0.00829335767775774, 0.012982239946722984, 0.1416170299053192, 0.026076579466462135, 0.09889198839664459, 0.061206698417663574, 0.02005518600344658, 0.14442192018032074, 0.010405651293694973, 0.010158502496778965, 0.009797396138310432, 0.12999354302883148, 0.011303170584142208, 0.01647982932627201, 0.13410712778568268]], [[0.011795406229794025, 0.028596151620149612, 0.07128925621509552, 0.06423407793045044, 0.030173717066645622, 0.026320934295654297, 0.03573538735508919, 0.02034882642328739, 0.08153248578310013, 0.08181414008140564, 0.04666880890727043, 0.09935913234949112, 0.05067390576004982, 0.07374285906553268, 0.007640117779374123, 0.014480145648121834, 0.01049030851572752, 0.15867039561271667, 0.010767870582640171, 0.047446802258491516, 0.028219275176525116], [0.014597388915717602, 0.06201818212866783, 0.02915353886783123, 0.04258628189563751, 0.008519400842487812, 0.009936586022377014, 0.019899850711226463, 0.005142093636095524, 0.07612636685371399, 0.010803003795444965, 0.023938089609146118, 0.00935774389654398, 0.008034272119402885, 0.13911260664463043, 0.011210797354578972, 0.007223125547170639, 0.008731693960726261, 0.49276894330978394, 0.0006609656265936792, 0.00100973981898278, 0.019169244915246964], [0.00789116695523262, 0.3415326178073883, 0.1320483684539795, 0.023917436599731445, 0.013739357702434063, 0.014291945844888687, 0.0034898770973086357, 0.0015071474481374025, 0.047718118876218796, 0.0014103821013122797, 0.012820804491639137, 0.003911193460226059, 0.0058809006586670876, 0.07606406509876251, 0.002677215961739421, 0.0017154775559902191, 0.0019764082971960306, 0.3018007278442383, 0.0004437236348167062, 0.00023667819914408028, 0.004926383029669523], [0.005994950886815786, 0.18882399797439575, 0.5691337585449219, 0.042203933000564575, 0.02210661582648754, 0.0038044715765863657, 0.003005626378580928, 0.0024517059791833162, 0.02044711820781231, 0.0034173938911408186, 0.006270097102969885, 0.007717979606240988, 0.0025170277804136276, 0.01830090954899788, 0.0013673140201717615, 0.0007284744060598314, 0.0011668613879010081, 0.08855435997247696, 0.0009746721480041742, 0.000609621696639806, 0.010403158143162727], [0.002639720682054758, 0.14672446250915527, 0.7174273729324341, 0.021164875477552414, 0.045038171112537384, 0.0015781994443386793, 0.002146383747458458, 0.00224850932136178, 0.010908066295087337, 0.00047055439790710807, 0.0038441093638539314, 0.0040393369272351265, 0.0017136608948931098, 0.00695875845849514, 0.0006252796156331897, 0.0001626864104764536, 0.0009496562415733933, 0.023357808589935303, 0.00019276478269603103, 0.0009277264471165836, 0.006881872192025185], [0.010527712292969227, 0.159831240773201, 0.07064254581928253, 0.1837141066789627, 0.12038490921258926, 0.04432953894138336, 0.0025491330306977034, 0.0038538251537829638, 0.062162067741155624, 0.003916900604963303, 0.022199513390660286, 0.0028223192784935236, 0.0021745506674051285, 0.044902559369802475, 0.0007464492809958756, 0.0009514727862551808, 0.0012884485768154263, 0.24308878183364868, 0.0004805321805179119, 0.0009624841623008251, 0.018470868468284607], [0.029242970049381256, 0.0847868099808693, 0.33619123697280884, 0.07856933772563934, 0.09405491501092911, 0.03127596527338028, 0.00957913976162672, 0.004845236428081989, 0.04371574521064758, 0.021278012543916702, 0.020582005381584167, 0.01674594357609749, 0.0025013494305312634, 0.04560357704758644, 0.00464931596070528, 0.0013363048201426864, 0.0012864293530583382, 0.15373069047927856, 0.0014103978173807263, 0.0020807369146496058, 0.016533860936760902], [0.025820594280958176, 0.14719127118587494, 0.059296026825904846, 0.08314855396747589, 0.22839690744876862, 0.11064472794532776, 0.030981844291090965, 0.013230832293629646, 0.07509235292673111, 0.003040248528122902, 0.016833022236824036, 0.0019430015236139297, 0.0021104230545461178, 0.04941780865192413, 0.00037719932151958346, 0.0002979709242936224, 0.0011114462977275252, 0.12036439776420593, 0.00024776163627393544, 0.00023786001838743687, 0.030215788632631302], [0.012615257874131203, 0.07755798101425171, 0.07043866068124771, 0.11747432500123978, 0.17064595222473145, 0.12282027304172516, 0.1356843113899231, 0.033409662544727325, 0.08282473683357239, 0.012879223562777042, 0.024685431271791458, 0.011006167158484459, 0.008905855007469654, 0.04585636779665947, 0.0035568822640925646, 0.001596202957443893, 0.0019457105081528425, 0.050462767481803894, 0.0010738237760961056, 0.001505131833255291, 0.013055382296442986], [0.010086153633892536, 0.03577622398734093, 0.015651138499379158, 0.011990072205662727, 0.16847948729991913, 0.08305605500936508, 0.445097953081131, 0.03731678053736687, 0.10415267944335938, 0.024069983512163162, 0.011007856577634811, 0.0018741224193945527, 0.0031284699216485023, 0.02022651582956314, 0.0008643577457405627, 0.0007326102931983769, 0.00036131616798229516, 0.019030358642339706, 0.00038171125925146043, 0.00021350206225179136, 0.006502636708319187], [0.0018599003087729216, 0.029599100351333618, 0.08117251843214035, 0.1029595136642456, 0.2285889983177185, 0.0864553451538086, 0.12127714604139328, 0.05995254963636398, 0.10049852728843689, 0.061552856117486954, 0.04176188260316849, 0.03387175500392914, 0.018415041267871857, 0.01120106689631939, 0.004277506843209267, 0.001749906805343926, 0.0020849350839853287, 0.007629576604813337, 0.0005794120952486992, 0.0010139517253264785, 0.0034984739031642675], [0.0005947412573732436, 0.02910873107612133, 0.05421043559908867, 0.055915363132953644, 0.2712920308113098, 0.15249447524547577, 0.03293852508068085, 0.03281821310520172, 0.12493240088224411, 0.035324402153491974, 0.10685209184885025, 0.056308142840862274, 0.0327213816344738, 0.007635005284100771, 0.0013876809971407056, 0.0004607653245329857, 0.0004567784781102091, 0.0034449391532689333, 0.00023926586436573416, 0.0002016864309553057, 0.0006629789713770151], [0.0006980065954849124, 0.007714058738201857, 0.03246418014168739, 0.005311782471835613, 0.04404252767562866, 0.010021627880632877, 0.03059074841439724, 0.03085235133767128, 0.040823113173246384, 0.06333272159099579, 0.15644130110740662, 0.4972367584705353, 0.061812661588191986, 0.006445408333092928, 0.004434342496097088, 0.0006869005737826228, 0.0015895762480795383, 0.002320779487490654, 0.0002551786310505122, 0.001097703818231821, 0.001828310894779861], [0.015885280445218086, 0.033957719802856445, 0.018778124824166298, 0.03391091525554657, 0.022269900888204575, 0.024719679728150368, 0.040624797344207764, 0.022348374128341675, 0.13102160394191742, 0.054245542734861374, 0.19334858655929565, 0.10241775959730148, 0.04701323062181473, 0.10664381831884384, 0.009137372486293316, 0.004754272755235434, 0.0049347723834216595, 0.1136060580611229, 0.0021267076954245567, 0.004886465612798929, 0.013369043357670307], [0.009674502536654472, 0.01963092014193535, 0.0060628983192145824, 0.010278640314936638, 0.013422321528196335, 0.01763543300330639, 0.02765171229839325, 0.013025226071476936, 0.06682293117046356, 0.023721886798739433, 0.18333463370800018, 0.15931935608386993, 0.21859291195869446, 0.14545626938343048, 0.0189015232026577, 0.007491836789995432, 0.004861027002334595, 0.038787130266427994, 0.003962084650993347, 0.002653792267665267, 0.008712870068848133], [0.011502832174301147, 0.009713049046695232, 0.006067190784960985, 0.004909929819405079, 0.005895688198506832, 0.00974410492926836, 0.015650684013962746, 0.007475194521248341, 0.07760394364595413, 0.0748705044388771, 0.09941188991069794, 0.13086488842964172, 0.15755660831928253, 0.2562797963619232, 0.027974436059594154, 0.007934699766337872, 0.004090538248419762, 0.07377676665782928, 0.002189039718359709, 0.002109056105837226, 0.014379133470356464], [0.010781205259263515, 0.011866175569593906, 0.0032528273295611143, 0.0034514679573476315, 0.010407458990812302, 0.015186344273388386, 0.020898886024951935, 0.009828408248722553, 0.09251731634140015, 0.037316884845495224, 0.16321316361427307, 0.12170064449310303, 0.18991604447364807, 0.23117344081401825, 0.01843428611755371, 0.005245193839073181, 0.005317748989909887, 0.03717244789004326, 0.001365736359730363, 0.0007956157205626369, 0.010158837772905827], [0.031723883002996445, 0.02154664508998394, 0.0035637093242257833, 0.01018549781292677, 0.006229211576282978, 0.012127700261771679, 0.015640906989574432, 0.009491795673966408, 0.1289251297712326, 0.011530530638992786, 0.053100354969501495, 0.0093038035556674, 0.018269779160618782, 0.26073896884918213, 0.013807110488414764, 0.014743892475962639, 0.00970140378922224, 0.3412747085094452, 0.001973056700080633, 0.004555415362119675, 0.02156660333275795], [0.004154523368924856, 0.008135057985782623, 0.0005033804918639362, 0.000486732431454584, 0.0006145338993519545, 0.0015348616288974881, 0.005579631309956312, 0.0014912125188857317, 0.039141397923231125, 0.017177622765302658, 0.11937035620212555, 0.057164762169122696, 0.11246076226234436, 0.17972232401371002, 0.1759272813796997, 0.03662087768316269, 0.03556239232420921, 0.049135997891426086, 0.10335886478424072, 0.025252841413021088, 0.02660452574491501], [0.0007829787791706622, 0.0029920190572738647, 0.001477572601288557, 0.0004638749815057963, 0.000889726507011801, 0.0029016488697379827, 0.013871323317289352, 0.0021215295419096947, 0.010520548559725285, 0.012827938422560692, 0.05616489052772522, 0.31448569893836975, 0.24922867119312286, 0.03834809735417366, 0.08544699102640152, 0.0193194467574358, 0.0516054667532444, 0.006125273648649454, 0.08871385455131531, 0.03470410406589508, 0.007008363027125597], [0.005772988777607679, 0.023537838831543922, 0.00790644995868206, 0.01453395001590252, 0.009418763220310211, 0.010658678598701954, 0.006726279854774475, 0.0058959415182471275, 0.0367022268474102, 0.006067442242056131, 0.08737564831972122, 0.08889421820640564, 0.2439182698726654, 0.10453073680400848, 0.02465791255235672, 0.03571136295795441, 0.07576591521501541, 0.07118813693523407, 0.015573919750750065, 0.09973517805337906, 0.02542816288769245]], [[0.02384490706026554, 0.024022696539759636, 0.012362721376121044, 0.04337240755558014, 0.011561514809727669, 0.008148564025759697, 0.007027988787740469, 0.009939247742295265, 0.04388502612709999, 0.04746793210506439, 0.1584411859512329, 0.10698940604925156, 0.06576383113861084, 0.04084370657801628, 0.053861621767282486, 0.012265564873814583, 0.02365296147763729, 0.058372773230075836, 0.12405364215373993, 0.09432270377874374, 0.02979975752532482], [0.3562227785587311, 0.11656998842954636, 0.01803346909582615, 0.002840640489012003, 0.00010240294795949012, 0.0034108106046915054, 0.0017547606257721782, 0.0013233822537586093, 0.003224545158445835, 0.0006376546225510538, 0.0018653766019269824, 0.0012542394688352942, 0.0005498934770002961, 0.0087940888479352, 0.0009557802695780993, 0.0003314714995212853, 0.010194139555096626, 0.33216187357902527, 0.0014174266252666712, 0.00027217858587391675, 0.13808318972587585], [0.007398522924631834, 0.6984232664108276, 0.20563451945781708, 0.05056288465857506, 0.0010225727455690503, 0.0012876233085989952, 0.000295075005851686, 0.003717783372849226, 0.0015295215416699648, 0.0015257002087309957, 0.00015757382789161056, 1.292592514801072e-05, 0.0004747452330775559, 0.000655182811897248, 8.700011676410213e-05, 1.875098496384453e-05, 0.0007907781400717795, 0.011354764923453331, 0.0009569657268002629, 0.00038357192534022033, 0.013710098341107368], [0.05721219256520271, 0.05383668467402458, 0.7350178956985474, 0.009290056303143501, 0.001692596240900457, 8.143854211084545e-05, 3.469757211860269e-05, 8.353709563380107e-05, 0.009136311709880829, 0.0004502723168116063, 0.002297134604305029, 0.0008010041201487184, 0.00018891235231421888, 0.008336377330124378, 0.0004086779081262648, 2.187866448366549e-05, 2.6930676540359855e-05, 0.057047247886657715, 0.009589946828782558, 0.007169320248067379, 0.047276876866817474], [0.0007644539000466466, 0.003973970655351877, 0.2806822955608368, 0.6892701387405396, 0.01862504705786705, 0.00035309596569277346, 7.148904114728794e-05, 3.738377699846751e-06, 0.0003368692996446043, 0.00016680678527336568, 0.0004712385998573154, 0.00025412518880330026, 2.186828169215005e-06, 0.00018474782700650394, 6.11126670264639e-05, 3.793346650127205e-06, 5.58495059976849e-07, 0.0005130465142428875, 0.0004109420406166464, 0.00026741455076262355, 0.00358275743201375], [0.0808168351650238, 0.003974676597863436, 0.011827057227492332, 0.11712071299552917, 0.5692522525787354, 0.09160187840461731, 0.005805566906929016, 4.634647848433815e-05, 0.0011767501709982753, 0.0004601875552907586, 0.012501521036028862, 0.006603359244763851, 9.83485733740963e-05, 0.00519873620942235, 7.331941742449999e-05, 6.359945837175474e-05, 2.3804919692338444e-05, 0.025898145511746407, 0.00015261695079971105, 0.00013182965631131083, 0.06717253476381302], [0.19862470030784607, 0.04909126088023186, 0.011585729196667671, 0.00794176571071148, 0.20195125043392181, 0.08961997926235199, 0.022253165021538734, 0.03304967284202576, 0.011903460137546062, 0.0008400683291256428, 0.0017073251074180007, 0.003012724220752716, 0.0009617773466743529, 0.07646816223859787, 8.067458838922903e-05, 1.0740041943790857e-05, 0.0005724893417209387, 0.13513237237930298, 8.074825746007264e-05, 8.450509631074965e-05, 0.15502749383449554], [0.00318589573726058, 0.006349114701151848, 0.0017778821056708694, 0.0017446791753172874, 0.005845868960022926, 0.12847863137722015, 0.7719101905822754, 0.023210423067212105, 0.016465280205011368, 0.0005264225765131414, 0.0001430562260793522, 5.4022049880586565e-05, 0.0006162002682685852, 0.020639309659600258, 0.00039820201345719397, 8.5996332927607e-05, 1.7208143617608584e-05, 0.016100335866212845, 4.174341302132234e-05, 1.559455085953232e-05, 0.002393995178863406], [0.027587223798036575, 0.007761215325444937, 0.006893944926559925, 0.006440587807446718, 0.0007282693404704332, 0.002086940687149763, 0.10475403815507889, 0.4494321942329407, 0.26110389828681946, 0.027250198647379875, 0.002200691495090723, 0.0002853313344530761, 0.002277094405144453, 0.027140427380800247, 0.015414010733366013, 0.0008768312982283533, 0.001956823980435729, 0.03649577870965004, 0.0009446223266422749, 0.0003521819890011102, 0.018017595633864403], [0.010617650113999844, 0.0007561421953141689, 0.00030437196255661547, 0.0005071103223599494, 0.00024785511777736247, 0.0004274188249837607, 0.006105291657149792, 0.12505878508090973, 0.8125582337379456, 0.016224753111600876, 0.002422937424853444, 5.081412018625997e-05, 0.000154889581608586, 0.005611481610685587, 0.000990152359008789, 0.00012229601270519197, 0.00034858949948102236, 0.01309073343873024, 3.359694164828397e-05, 1.694354068604298e-05, 0.0043500070460140705], [0.08216529339551926, 0.00044362081098370254, 0.0008363727829419076, 0.001496687182225287, 0.00012313819024711847, 3.899781222571619e-05, 0.0001893461012514308, 0.001179097918793559, 0.16315869987010956, 0.25626125931739807, 0.3660963177680969, 0.03046790137887001, 0.00032443105010315776, 0.0014220031443983316, 0.0012782994890585542, 0.0002938014513347298, 0.0007216784288175404, 0.07685033977031708, 0.0008364621317014098, 0.0002290372212883085, 0.015587244182825089], [0.0022312765941023827, 0.00012989122478757054, 3.6813042243011296e-05, 0.0006897395360283554, 0.00037820081342943013, 0.00018637777247931808, 1.7746060620993376e-05, 0.00015482265735045075, 0.0036642784252762794, 0.2202981859445572, 0.7169719338417053, 0.047850556671619415, 0.004511781502515078, 8.456908108200878e-05, 6.934670818736777e-05, 3.0097666240180843e-05, 0.00018053191888611764, 0.0013667612802237272, 5.747925388277508e-05, 2.7572956241783686e-05, 0.0010618624510243535], [0.0010003795614466071, 0.0001509098947281018, 0.00010665749869076535, 0.00011280058970442042, 4.0575014281785116e-06, 4.7270925279008225e-05, 0.00012324214912950993, 4.902849013888044e-06, 0.00025680213002488017, 0.0006481458549387753, 0.04980989173054695, 0.9346434473991394, 0.0066316318698227406, 0.002735935617238283, 0.0005619528237730265, 6.644399945798796e-06, 1.386057829222409e-05, 0.0020992278587073088, 0.0006098832236602902, 6.712871982017532e-05, 0.00036529378849081695], [0.06082348898053169, 0.005729361902922392, 0.0025302658323198557, 0.0027815275825560093, 0.0010928720002993941, 0.008505319245159626, 0.009623990394175053, 0.004935336299240589, 0.005512230563908815, 0.0023174500092864037, 0.014845145866274834, 0.07607966661453247, 0.45130595564842224, 0.2441963404417038, 0.01500257384032011, 0.0017827183473855257, 0.003739128354936838, 0.0372379794716835, 0.0064853886142373085, 0.005074725951999426, 0.040398530662059784], [0.012456447817385197, 0.0003155187296215445, 8.007877477211878e-05, 0.00013549976574722677, 0.00012065766350133345, 0.0007262618746608496, 0.00025864123017527163, 0.0012611094862222672, 0.001790340174920857, 0.0009113766136579216, 0.0007029692642390728, 0.0036682970821857452, 0.5954685807228088, 0.35223495960235596, 0.014554981142282486, 0.0032427236437797546, 0.003482636297121644, 0.004361373372375965, 0.0005642941105179489, 0.0004747846396639943, 0.003188480855897069], [0.0017765187658369541, 0.0018452940275892615, 4.4942258682567626e-05, 0.001151628908701241, 0.0012053358368575573, 0.002436315640807152, 0.0011311102425679564, 0.0066180783323943615, 0.02533603087067604, 0.0020930669270455837, 0.00593666872009635, 0.0008201843011192977, 0.16265682876110077, 0.6562519669532776, 0.060701459646224976, 0.04103356972336769, 0.013068976812064648, 0.013672743923962116, 0.0008826326229609549, 0.0005071279010735452, 0.0008295418228954077], [0.005539755802601576, 0.0004269188502803445, 1.2758350749209058e-05, 0.00013981173106003553, 9.993398998631164e-05, 0.001550567103549838, 0.0006393637740984559, 0.00018786266446113586, 0.005996054504066706, 0.0017327709356322885, 0.006612491328269243, 0.003823614679276943, 0.03792057931423187, 0.18649549782276154, 0.5274027585983276, 0.12969838082790375, 0.03318500891327858, 0.05490502715110779, 0.001133612240664661, 0.00041783382766880095, 0.0020794321317225695], [0.07721275091171265, 0.006058407481759787, 0.0014003529213368893, 0.0025326507166028023, 0.0008373796008527279, 0.0038000144995748997, 0.007342475466430187, 0.006203542463481426, 0.03238363191485405, 0.015456819906830788, 0.021492505446076393, 0.008672039024531841, 0.010032908990979195, 0.045088425278663635, 0.16124162077903748, 0.03359680995345116, 0.1800253540277481, 0.2722170948982239, 0.042945511639118195, 0.015321181155741215, 0.05613845959305763], [0.017427625134587288, 0.009682895615696907, 0.0010917853796854615, 0.000251107761869207, 8.02553040557541e-06, 5.5650132708251476e-05, 0.00035864609526470304, 0.00015175013686530292, 0.0021268490236252546, 0.0023689931258559227, 0.002475696848705411, 0.002367292530834675, 0.007404448464512825, 0.010944494977593422, 0.07071923464536667, 0.004940129816532135, 0.42555344104766846, 0.2976956367492676, 0.0459025613963604, 0.044127773493528366, 0.05434593930840492], [0.005602965597063303, 0.06621747463941574, 0.0034169123973697424, 0.0031509879045188427, 3.601115531637333e-05, 1.701328801573254e-05, 0.0009282121900469065, 0.000649533118121326, 0.013277082704007626, 0.0034205149859189987, 0.008969991467893124, 0.0018739677034318447, 0.09452729672193527, 0.038110341876745224, 0.011981388553977013, 0.00524075236171484, 0.08837577700614929, 0.2728460431098938, 0.3242950737476349, 0.024331236258149147, 0.03273145481944084], [0.04134659841656685, 0.00048144388711079955, 0.0002379682700848207, 0.004898960702121258, 6.54996547382325e-05, 3.835982715827413e-05, 0.00016259813855867833, 0.0001007396203931421, 0.0034536290913820267, 0.0007178906234912574, 0.0041054850444197655, 0.0007060415809974074, 0.002960779471322894, 0.01261746883392334, 0.048857033252716064, 0.0015202267095446587, 0.006025692448019981, 0.1111748144030571, 0.48270729184150696, 0.24758431315422058, 0.03023711033165455]], [[0.017965231090784073, 0.0007999817607924342, 1.1201941561012063e-05, 0.0007026367820799351, 0.03682951256632805, 0.050904348492622375, 0.0002873241901397705, 0.0017124013975262642, 0.004872976802289486, 0.00027957037673331797, 0.4455092251300812, 0.07867545634508133, 0.12462376803159714, 0.11385208368301392, 0.00013351585948839784, 0.011869257315993309, 0.0469486229121685, 0.02473551593720913, 9.346857405034825e-05, 0.0019313107477501035, 0.037262581288814545], [2.284395850438159e-05, 0.003549159038811922, 0.9936070442199707, 0.0016382505418732762, 1.3880357130346965e-07, 1.9052441402322984e-08, 2.0532072539936053e-06, 1.8149660263588885e-07, 4.130087290832307e-06, 1.1689682651194744e-05, 1.8203527574200962e-08, 6.462373107751773e-07, 1.661503858940705e-07, 2.7407299967308063e-06, 1.0985326298396103e-05, 1.5802372743678461e-09, 3.5369400741558366e-09, 3.186962931067683e-05, 0.0011093702632933855, 1.9644169242383214e-06, 6.67626909489627e-06], [1.8629696569405496e-05, 1.1740434047169401e-06, 0.0002709846303332597, 0.9993517994880676, 0.0002999726857524365, 2.050132286157691e-09, 6.145220443620758e-10, 4.349683113691327e-10, 2.3960444650583668e-06, 2.7004219305126753e-08, 8.005616223272227e-07, 9.820853158482024e-11, 2.1094450630698702e-09, 3.768270318005307e-08, 2.566974366402519e-08, 2.881926641773447e-10, 5.494745717454785e-12, 3.175967435709026e-07, 7.825607895028952e-08, 2.0750103431055322e-06, 5.184523615753278e-05], [1.2758549416957976e-07, 2.1298180996609517e-08, 2.8749860803145566e-07, 0.0003188162809237838, 0.9991459846496582, 0.0005261095357127488, 2.5225956878927036e-09, 2.133174192842091e-10, 6.669575469686606e-08, 6.0194138562508215e-09, 2.3360456680165953e-07, 4.9078565211857494e-08, 9.761737196356535e-09, 1.241945284391477e-07, 9.346338813998045e-09, 5.421705751018635e-08, 2.7919314429802888e-11, 5.760784560493448e-08, 1.9680593960069714e-11, 6.034132915555546e-11, 8.111212082440034e-06], [4.1923819971145804e-10, 1.6831092075619836e-10, 3.032544918304958e-12, 8.18321588269555e-09, 4.141896170040127e-06, 0.9999951124191284, 7.089707310115045e-07, 5.915005898277093e-13, 2.0599654794450917e-12, 6.296478637958514e-13, 1.0752002586877918e-11, 5.415430326394244e-10, 1.2076459081876434e-13, 6.842433730724906e-09, 3.747166812950731e-11, 1.6227947804980936e-13, 2.4468795045695657e-13, 5.801296776297704e-09, 3.5100202536435688e-15, 6.789568778187318e-18, 6.824729670285024e-10], [1.7541708363655317e-10, 1.2172557184442212e-08, 1.7980616995316723e-11, 3.986033031422309e-11, 2.3498407664135357e-09, 0.00129401171579957, 0.9987049102783203, 1.736877806024495e-07, 2.0912374262826994e-11, 4.596389675121104e-12, 8.033219814178316e-14, 1.1256195975306582e-10, 5.565489735737117e-10, 7.759871891721559e-07, 7.940679225271197e-09, 9.493165142870907e-10, 8.560432744608715e-12, 1.971636436337576e-07, 3.195866748323395e-12, 2.6294281654215185e-17, 3.978604598553481e-11], [2.430761425475936e-10, 5.073379583109272e-08, 1.951773143105129e-08, 3.481977761676802e-10, 8.249641941793229e-11, 1.8830119685731006e-08, 9.324692655354738e-06, 0.9999878406524658, 1.4062616173760034e-06, 5.915087530894425e-09, 7.145951365361558e-12, 4.867077661036001e-12, 1.0190625010508825e-09, 3.616084498503369e-08, 2.525965392408125e-08, 1.0285152711730916e-06, 1.8065530582589417e-07, 2.8512816996340007e-08, 4.82235605614445e-11, 5.694209687101548e-11, 2.4089912287195148e-09], [3.148329142277362e-06, 6.764140607629088e-07, 1.6558840965075206e-09, 1.938824652825133e-06, 4.817491405795238e-10, 4.450301932523715e-11, 8.145356389377412e-09, 2.8759824999724515e-05, 0.9996857643127441, 0.0001283942547161132, 4.873902526014717e-08, 1.0169297316123954e-13, 3.513866142501598e-10, 1.328294388258655e-06, 8.095359937954072e-09, 2.510771278385615e-11, 2.3011685612583932e-10, 0.00014480814570561051, 4.094098324247675e-11, 2.5316595608088077e-12, 5.311926088324981e-06], [3.6443463613977656e-05, 2.3340612642641645e-07, 3.931624632969033e-06, 3.900554293068126e-05, 3.609064265219786e-07, 2.56894416850173e-09, 1.1363177954137882e-08, 7.786617857163947e-07, 0.011456465348601341, 0.9876590371131897, 0.0007205969304777682, 6.361604391713627e-06, 1.065099897168409e-09, 4.181589474683278e-08, 5.882888217456639e-06, 5.443815780381556e-07, 2.3105323521122045e-07, 4.708472260972485e-05, 6.970174126763595e-07, 4.6028294065081354e-08, 2.222290640929714e-05], [6.720234978274675e-06, 7.168629423404127e-08, 2.1365129665440463e-09, 1.02884916941548e-06, 2.9092332098912266e-08, 5.146995718519065e-09, 1.4076008414409813e-10, 3.276756643799672e-09, 0.00023812866129446775, 0.00010832709085661918, 0.9993341565132141, 0.00020028019207529724, 3.476050025597033e-08, 2.324747505610958e-09, 4.5073650367655205e-10, 6.449117351259304e-10, 7.381585476196051e-08, 0.00010874142753891647, 1.8848511640356946e-09, 1.1069300143162764e-08, 2.369739377172664e-06], [1.3409143093667808e-06, 2.0586965021607284e-08, 1.6978093375641379e-09, 5.401374991720331e-08, 1.374789064811921e-07, 1.2430391507223248e-06, 2.4285047306449314e-09, 3.246874123730148e-12, 8.410025453819969e-10, 4.622059805114986e-06, 0.001774574862793088, 0.9981827735900879, 2.954136289190501e-05, 1.8454036521120543e-08, 1.10482831772174e-08, 1.7364008841891376e-10, 2.497706264037447e-09, 3.6213803014106816e-06, 1.457153615547213e-07, 2.2627777429562457e-09, 1.9788853933278006e-06], [1.0120987099071499e-05, 4.446102508381955e-08, 6.221499877778758e-12, 1.8138133839329385e-07, 1.720931948057114e-07, 2.077547469525598e-05, 4.711750420938188e-07, 2.377519847662768e-10, 7.21835369255075e-10, 6.919574913055726e-10, 0.004830940160900354, 0.01906111091375351, 0.9759587049484253, 4.029693445772864e-05, 2.0056683069924475e-07, 1.1632868890387726e-08, 4.335006664746288e-08, 3.06081201415509e-05, 3.590345798443195e-08, 1.721785594099856e-07, 4.614764839061536e-05], [1.691861507424619e-05, 7.948629132670249e-08, 9.308089889137339e-12, 4.1081795743025395e-09, 1.3241960479526416e-11, 3.123105443592067e-06, 2.813929995681974e-07, 2.6197701785690697e-08, 1.0352166412985753e-07, 4.225423830273023e-12, 6.236826055605604e-10, 1.5002409980979792e-08, 0.00039052192005328834, 0.9994944334030151, 3.371963612153195e-05, 1.4457427255365474e-08, 9.890524843569892e-09, 5.2663221140392125e-05, 1.3472071236364513e-09, 3.3181393743753063e-10, 8.210423402488232e-06], [0.00016759945719968528, 9.199645774060627e-07, 1.16814396733389e-06, 2.2659418391413055e-05, 7.70761516832863e-07, 9.931585509548313e-07, 8.512640488334e-05, 6.840404967078939e-05, 0.00042263761861249804, 1.1839359103760216e-05, 1.3683431632216525e-07, 5.923033654653409e-07, 0.00041340632014907897, 0.02963726781308651, 0.9664050936698914, 0.0013341973535716534, 0.000176226778421551, 0.0003409101627767086, 8.055259968386963e-06, 4.323489406488079e-07, 0.0009015211835503578], [2.4103056261992606e-07, 1.4850864982207668e-09, 6.100315391721622e-11, 2.4646304996878143e-09, 1.0601421962519453e-08, 1.9882803736770427e-10, 9.002493861487437e-09, 1.0695825949369464e-06, 9.443341696169227e-06, 1.0387304882897297e-06, 4.0607012863347336e-08, 1.7203859448144954e-09, 4.4596913539862726e-07, 4.414997874846449e-06, 0.003701667068526149, 0.8754257559776306, 0.12059976160526276, 3.419882705202326e-05, 1.1882413986086249e-07, 1.0738983746705344e-07, 0.00022176621132530272], [1.2984126442461275e-05, 1.0937067429495073e-07, 5.742651909557139e-10, 1.54962975784656e-08, 1.8557635428351205e-09, 1.3000771126314703e-08, 1.627268630954859e-07, 5.629858037536906e-07, 6.86087378198863e-06, 3.226392072974704e-05, 5.062682362222404e-07, 8.327610601099877e-08, 1.4749657495372048e-08, 1.3429729506242438e-06, 0.0016941666835919023, 0.010968880727887154, 0.9839627146720886, 0.0027514200191944838, 4.554836777970195e-06, 5.6379359847369415e-08, 0.0005632498068735003], [0.000447065249318257, 8.479968528263271e-05, 3.732077147322599e-11, 1.7120550310778526e-08, 4.851548329742883e-11, 6.6668732756625104e-09, 2.386773667595321e-09, 4.342314952054949e-09, 9.764145215740427e-05, 5.878248288126997e-08, 2.0299741663620807e-05, 4.80619233300672e-09, 7.646414701412141e-07, 2.0604045857908204e-05, 1.0486188273262087e-07, 3.38642308861381e-07, 0.0007554561598226428, 0.9952560067176819, 3.3293733849859564e-06, 4.018645682890565e-08, 0.0033133444376289845], [0.14972352981567383, 0.01702924072742462, 0.0022354605607688427, 0.0007333879475481808, 4.607942173606716e-06, 9.541625331621617e-06, 0.0003998141037300229, 0.0002985487226396799, 0.004835845902562141, 0.0027741894591599703, 0.006376964505761862, 0.0020936436485499144, 0.0008195867412723601, 0.002625508001074195, 0.00037356349639594555, 0.00017976250092033297, 0.012200652621686459, 0.5328219532966614, 0.17506033182144165, 0.027568919584155083, 0.06183486804366112], [3.939237103622872e-06, 5.062347874229545e-09, 4.2987772985725314e-07, 3.40212750415958e-07, 5.2071933570596585e-11, 2.0185875947110674e-14, 1.4099124428720855e-12, 1.1143640177291303e-10, 3.2446394460095007e-09, 3.297429690407583e-11, 1.4438715822961967e-07, 4.629682415213665e-09, 2.855711755955781e-08, 1.3963841638542362e-08, 1.4246234414372339e-08, 7.708245419735249e-08, 4.066642489419792e-08, 2.144497329936712e-06, 2.057322853943333e-05, 0.9986097812652588, 0.0013623737031593919], [0.00019496408640407026, 3.263238790296441e-09, 1.5467667147106567e-09, 7.465712405974045e-05, 6.633118943000227e-08, 2.4466565926029027e-12, 6.504473998666547e-16, 1.3996351244606377e-14, 3.7508552708231946e-08, 1.5884103754526535e-10, 2.803413053698023e-06, 5.861379825944368e-09, 4.79414438814274e-07, 1.2819320716062066e-07, 8.870770784596971e-10, 2.759284120634753e-12, 2.6587996249105572e-09, 2.2318607079796493e-05, 9.171644705929793e-06, 0.00010637401283020154, 0.9995889067649841], [0.6596237421035767, 1.715995131235104e-05, 1.20509220380427e-08, 0.00010743499296950176, 0.0004008352698292583, 0.00011383696255506948, 1.9223339222662617e-06, 6.7287769525137264e-06, 0.0006598007748834789, 6.520410522625752e-08, 0.0013219285756349564, 9.659651141191716e-07, 0.00013451921404339373, 0.0906238704919815, 8.240900797318318e-07, 2.460671566950623e-05, 0.0010333888931199908, 0.224866583943367, 1.9073904695687816e-06, 0.0013260069536045194, 0.01973380334675312]]], [[[0.0002669727255124599, 0.008676160126924515, 0.0010496261529624462, 0.00018397258827462792, 1.4650369848823175e-05, 5.342048825696111e-05, 6.114727148087695e-05, 3.2397813356510596e-06, 0.058728285133838654, 0.000692994799464941, 0.13194184005260468, 0.00402837386354804, 8.962452739069704e-06, 0.056599654257297516, 7.90270569268614e-05, 0.00034639512887224555, 5.684246843884466e-06, 0.7328819632530212, 0.0030415854416787624, 0.00131014094222337, 2.594564102764707e-05], [1.905535441437678e-06, 0.0016161593375727534, 1.1553104286576854e-06, 2.9939777324017314e-09, 7.682221525584509e-10, 8.682131680259886e-10, 4.371310069473111e-07, 1.49820635897413e-07, 1.470173856432666e-06, 1.640814843995031e-07, 4.0917534249729215e-08, 1.9905607717696228e-10, 6.329223256607008e-10, 1.133823417376334e-07, 4.699114874995303e-09, 3.129455361516875e-09, 1.260555535509411e-07, 0.00014651617675554007, 1.3253178998695603e-08, 3.8767864474209546e-09, 0.9982317090034485], [3.0634550885616507e-12, 0.9996345043182373, 0.00027305676485411823, 9.090643515730079e-11, 1.297088386134279e-13, 4.725340669968492e-14, 3.0930979999510555e-09, 3.0729864724902967e-13, 1.5339124956881278e-06, 4.333876868489739e-10, 9.206129192307344e-09, 2.2181140659025683e-13, 6.538748177716845e-18, 2.1085060808445633e-08, 8.50546803127239e-12, 2.720279513798718e-12, 2.5373085387305275e-14, 8.826185512589291e-05, 3.1841711489732916e-08, 2.1712059233847114e-11, 2.446402277200832e-06], [1.6474793085308193e-08, 0.000371487665688619, 0.9993327260017395, 0.00021271288278512657, 2.071032440653653e-06, 4.494089544948565e-09, 6.588201983959152e-08, 8.149523011979909e-08, 1.0732372857091832e-06, 1.1267870831943583e-06, 1.4467909181803407e-07, 1.3339855797767086e-07, 1.918606606921003e-09, 3.419254198888666e-06, 6.696502241609892e-10, 1.0740122569075083e-08, 7.752729014320892e-10, 1.3295841654326068e-06, 5.079871698399074e-06, 2.3495920686400495e-05, 4.487404657993466e-05], [7.557285526538227e-12, 8.452232247435632e-10, 3.053402451769216e-06, 0.9999065399169922, 9.020196011988446e-05, 3.181671037744138e-10, 3.428093225954498e-11, 3.074488580390167e-11, 1.9171778747884005e-11, 3.4769079976237904e-11, 2.698611611950952e-10, 1.3764160655682645e-07, 1.902697270572684e-11, 1.5270948394707773e-10, 7.360741183237707e-11, 6.381484750350719e-12, 2.1754729094547454e-12, 4.5545848342820605e-11, 8.968475267989717e-12, 1.4624489119707818e-10, 5.288958715432557e-10], [4.654997454167642e-08, 1.0051946475186924e-07, 6.275607233874325e-08, 0.0005165641778148711, 0.9992532134056091, 4.973353861714713e-05, 8.347689828269722e-08, 1.1108864050868306e-08, 1.3259810138777084e-08, 1.035143415428763e-09, 8.225057079869202e-09, 2.447677616146393e-07, 0.00013142815441824496, 3.0921426514396444e-05, 9.111852250498487e-08, 2.673667676145186e-10, 2.3969404239210235e-09, 9.171506576421962e-07, 1.300652120728163e-11, 6.16172252110303e-11, 1.664313458604738e-05], [8.666074080565522e-09, 6.341698508549598e-07, 6.082612191704584e-10, 5.993981311291918e-09, 3.909202496288344e-05, 0.9991614818572998, 0.0003543361963238567, 9.278225299169662e-09, 2.5784342483348155e-07, 7.126440496746378e-12, 2.6315793988374026e-09, 4.439065115491303e-09, 5.054666374348926e-08, 0.00040707719745114446, 1.0766543709905818e-06, 9.546884029987268e-07, 2.423084510816409e-10, 3.4789700293913484e-05, 6.513873468394493e-11, 3.5038968254630376e-12, 1.9334171952323231e-07], [6.346716555083454e-12, 1.253754305235999e-11, 2.9721225480727753e-12, 3.701101382834471e-13, 1.8873483505210675e-12, 2.188626835319951e-09, 0.9998774528503418, 0.00011800932406913489, 2.771225471320804e-09, 1.56595003630855e-09, 1.3175500932784655e-14, 2.2639693125856702e-14, 2.8756639430804753e-11, 6.109268091414322e-10, 7.369689858371942e-10, 4.531566446530633e-06, 1.579627095793512e-08, 6.486446935127788e-10, 3.4501058260305584e-11, 4.337150430466785e-12, 1.861226284205486e-09], [4.4830005663243355e-07, 8.54486643220298e-06, 1.187045086226135e-06, 6.975174215995139e-08, 4.8507494909699744e-08, 3.2234101610129073e-08, 0.0012212812434881926, 0.8726044297218323, 0.10813464224338531, 0.014812517911195755, 4.5912466362096893e-07, 5.050724838362441e-10, 3.4046891528305423e-07, 0.00027058550040237606, 6.377844329108484e-06, 2.2034379071556032e-05, 0.00047349085798487067, 0.0022444790229201317, 3.165014277328737e-07, 5.1165279728593305e-06, 0.00019357098790351301], [7.749105523924271e-11, 4.973998147761449e-05, 1.6221756027334777e-07, 4.461907731310999e-13, 3.3287730753263356e-13, 9.434514801343052e-13, 4.876378056906105e-07, 1.1971335425187135e-06, 0.9943591952323914, 5.463782599690603e-06, 1.845714905357454e-06, 2.213731802036545e-12, 3.754331395988225e-16, 1.2080558008165099e-05, 2.485876171576251e-09, 4.8285350828791707e-08, 1.4589925934060943e-09, 0.005565940868109465, 3.298707307308746e-09, 9.663201350207373e-10, 3.800978902290808e-06], [4.777200501848711e-08, 1.57954449520048e-08, 9.121660582422919e-08, 8.953330854488684e-10, 1.1424289465822302e-11, 4.593465093970933e-14, 1.723170772738314e-10, 9.531143518870522e-08, 0.00021038805425632745, 0.9875231385231018, 0.012183994986116886, 3.3499320579721825e-06, 7.879073504746259e-10, 2.47798670471866e-08, 9.288573465937588e-08, 1.5749081683225086e-07, 1.1425392585806549e-05, 5.0672875659074634e-05, 5.894702553632669e-06, 5.444398539111717e-06, 5.230047918303171e-06], [4.9639927585110044e-11, 1.092293700821756e-06, 9.469895978497789e-09, 1.4819999394344308e-10, 2.0152198052653114e-12, 1.979053856557278e-14, 1.3223440625906996e-13, 5.932104719449255e-16, 7.506386623390426e-07, 1.3890969967178535e-05, 0.9997017979621887, 5.136276377015747e-05, 2.0064904598937616e-12, 3.33811982500265e-07, 4.338629011613193e-09, 1.5803974795502995e-09, 5.6219161270743e-11, 0.00023002996749710292, 6.72269720780605e-07, 2.9181728145033503e-09, 3.4940146331763344e-09], [5.503152933350464e-10, 1.463065779638839e-10, 2.3425814177358006e-08, 5.582086487265769e-06, 2.6960875754156177e-09, 1.8232290677211438e-11, 1.0887170331930207e-10, 1.096797132282834e-11, 1.7818536576785782e-11, 2.4732671466409784e-09, 1.3457864042720757e-05, 0.9999449253082275, 3.543511775205843e-05, 1.8198593920715211e-07, 4.0131553191713465e-08, 8.621932057195636e-10, 9.142797630090627e-09, 3.68628398916826e-08, 1.6541224567845347e-07, 1.513428600219413e-07, 1.2118177572517652e-08], [2.30698333325563e-05, 2.3062772015691735e-05, 2.346158453292446e-06, 1.3185888747102581e-05, 9.281162056140602e-05, 8.097690442809835e-05, 3.176397876814008e-05, 3.6555879887600895e-06, 2.1520763766602613e-05, 3.270255888310203e-07, 1.1317491953377612e-05, 0.00021383601415436715, 0.7096447348594666, 0.2814852297306061, 0.00017361235222779214, 2.5745500806806376e-06, 5.9491208048712e-07, 0.0076062241569161415, 4.118912784178974e-06, 5.529409463633783e-06, 0.0005594807444140315], [1.0213652146262575e-10, 5.1889344376832014e-08, 2.9228939268932663e-09, 4.239444906239953e-10, 3.3699141255283394e-09, 3.6816587556387503e-09, 3.135377069085621e-09, 6.349543720668427e-12, 2.513765139156021e-06, 1.0322956378594483e-10, 2.0058653404930737e-08, 5.4102895497010195e-09, 3.313731724574609e-07, 0.9997238516807556, 3.305591599200852e-05, 2.0980581894036732e-07, 9.188294569639766e-11, 0.00023952958872541785, 6.346002612289681e-10, 6.140593589165633e-10, 3.823587348961155e-07], [8.335335199838312e-10, 5.396753183228853e-11, 9.509751493219643e-12, 2.537871468533126e-09, 1.6913430725407075e-11, 4.287362287413998e-08, 5.244096882961458e-06, 4.7283951060128615e-11, 2.1249288995051074e-09, 3.159411274267221e-11, 8.060302425505483e-11, 2.3048676855985661e-10, 4.093775096691843e-09, 1.1315388519506087e-06, 0.9998099207878113, 0.00018354380154050887, 5.2760178448352235e-09, 2.8850054789586466e-08, 1.241907554572208e-08, 1.0337179029429322e-11, 8.461698541850637e-08], [7.970261603484907e-12, 7.328291619368432e-12, 5.443480952452284e-13, 1.3062154371914873e-14, 8.572483340047767e-15, 3.6033228484333435e-11, 3.3575011912034824e-05, 1.1675535205313281e-08, 9.99404559109962e-09, 2.1228739655043682e-08, 1.6424821225324848e-10, 5.026176957273476e-12, 1.299850071329045e-11, 7.366462995150869e-09, 3.088709127041511e-05, 0.9999253749847412, 1.0102460691996384e-05, 1.8796541212395823e-08, 4.289157828907264e-08, 1.9508314963445628e-09, 7.3590764593234326e-09], [0.00015247560804709792, 0.0019242737907916307, 0.00011256588186370209, 3.301242941233795e-06, 6.7155833676224574e-06, 2.1191834093770012e-05, 0.0001464726374251768, 0.0007326562772504985, 0.02725301869213581, 0.02340637519955635, 0.003282772144302726, 6.762341217836365e-05, 4.387270018924028e-05, 0.011542939580976963, 0.0012415256351232529, 0.0025272953789681196, 0.01680240035057068, 0.8976565003395081, 0.002584026427939534, 0.0019064678344875574, 0.008585521951317787], [7.832833937015948e-09, 0.0030184739734977484, 0.0001270228676730767, 4.388004889999131e-11, 2.674118088422106e-12, 6.518431194119101e-12, 1.0766906255454955e-09, 3.117570424038263e-09, 0.0006053834222257137, 2.082608625642024e-05, 0.0003604856610763818, 5.359433998819441e-07, 6.513003331098943e-11, 0.00012237578630447388, 2.080976457818906e-07, 1.4795473362028133e-06, 4.326634370954707e-05, 0.991470992565155, 0.003575652837753296, 0.0005703366477973759, 8.2982107414864e-05], [5.0830995662609624e-11, 2.3526958159436617e-08, 8.033077847358072e-07, 2.3094753106439603e-12, 1.368149745140893e-15, 5.188519969570593e-14, 1.5092936678229307e-08, 9.27200191624955e-11, 4.775481343699539e-09, 7.114594779977779e-08, 2.0819284074491406e-09, 7.107223143343333e-10, 1.0669576116714707e-12, 6.375581396156349e-09, 8.262866835195837e-09, 6.184849894452782e-07, 5.713432074117009e-07, 9.80061031441437e-06, 0.9998492002487183, 0.0001388446835335344, 1.5022827426491858e-08], [1.952020829776302e-05, 2.706860300349945e-07, 7.908530278655235e-06, 3.176066093146801e-05, 3.1395217092722305e-07, 8.449457311598962e-08, 2.3182997210824396e-06, 1.1744443327188492e-05, 3.1282484997063875e-05, 0.0002501015842426568, 7.575356721645221e-05, 0.0001375971332890913, 1.1851398085127585e-05, 0.00013806733477395028, 7.396849468932487e-06, 5.1201241149101406e-05, 0.0002050740731647238, 0.0012225089594721794, 0.026748618111014366, 0.9710416197776794, 5.060296643932816e-06]], [[0.02793293446302414, 0.11672911792993546, 0.05656110495328903, 0.011404769495129585, 0.02220231294631958, 0.009996244683861732, 0.010585546493530273, 0.00938489567488432, 0.08214180916547775, 0.027654938399791718, 0.07656299322843552, 0.022300010547041893, 0.02033657394349575, 0.06599973142147064, 0.016387540847063065, 0.00452833017334342, 0.023501209914684296, 0.1460082232952118, 0.017851734533905983, 0.04434223845601082, 0.18758776783943176], [0.016336478292942047, 0.3386329114437103, 0.013390211388468742, 0.04930543899536133, 0.013882067985832691, 0.0009665635880082846, 0.02280741184949875, 0.005829819478094578, 0.061652492731809616, 0.02218446508049965, 0.07106868922710419, 0.0034592722076922655, 0.013544895686209202, 0.05867261812090874, 0.004435282666236162, 0.0012858326081186533, 0.006682830862700939, 0.10366648435592651, 0.0013265159213915467, 0.002701086224988103, 0.18816860020160675], [0.05030618607997894, 0.5783840417861938, 0.0037146182730793953, 0.013733187690377235, 0.002695132978260517, 0.0007210654439404607, 0.0016655648360028863, 0.003714389633387327, 0.029471954330801964, 0.003096578177064657, 0.034828800708055496, 0.0005931797786615789, 0.0021838664542883635, 0.0396973118185997, 0.0008217064314521849, 0.0010374394478276372, 0.009498500265181065, 0.13208048045635223, 0.00417028833180666, 0.007573178969323635, 0.08001255244016647], [0.013346302323043346, 0.569564700126648, 0.037026546895504, 0.015702378004789352, 0.0017887263093143702, 0.00038991187466308475, 0.0003857155970763415, 0.010736087337136269, 0.032037585973739624, 0.0024434674996882677, 0.01355042029172182, 0.0010697409743443131, 0.0008384130778722465, 0.015016932040452957, 0.0035938441287726164, 0.0006563177448697388, 0.005264089442789555, 0.046632468700408936, 0.0012627779506146908, 0.0009425205644220114, 0.22775092720985413], [0.013754788786172867, 0.4948369860649109, 0.02903432585299015, 0.029194923117756844, 0.00151171931065619, 5.7736713642952964e-05, 0.000566730392165482, 0.0016462004277855158, 0.0548165962100029, 0.002595497528091073, 0.06225648522377014, 0.0009464004542678595, 0.00033445272129029036, 0.027059005573391914, 0.004358196165412664, 0.0001208783796755597, 0.0018378401873633265, 0.15148401260375977, 0.0016035812441259623, 0.002516997279599309, 0.1194666400551796], [0.028912493959069252, 0.022242922335863113, 0.00746144400909543, 0.17509767413139343, 0.08994807302951813, 0.007548399735242128, 0.009449029341340065, 0.006204122211784124, 0.08315188437700272, 0.031587641686201096, 0.03295480087399483, 0.0038042557425796986, 0.006506500765681267, 0.08939098566770554, 0.005681357812136412, 0.0020113142672926188, 0.029512980952858925, 0.3079586327075958, 0.0108169075101614, 0.027651909738779068, 0.022106679156422615], [0.028065387159585953, 0.019452780485153198, 0.009235018864274025, 0.09185796231031418, 0.09894387423992157, 0.03792016953229904, 0.07637635618448257, 0.010556824505329132, 0.06157507747411728, 0.08272161334753036, 0.019533969461917877, 0.003991406410932541, 0.004762152675539255, 0.07912638783454895, 0.002932002767920494, 0.0007351632812060416, 0.018198354169726372, 0.23840324580669403, 0.022833527997136116, 0.03853512555360794, 0.05424363911151886], [0.020910676568746567, 0.11169170588254929, 0.018997028470039368, 0.07877007126808167, 0.16857868432998657, 0.012078474275767803, 0.0889449268579483, 0.039016954600811005, 0.09005489945411682, 0.012677676044404507, 0.01200868096202612, 0.003011359367519617, 0.0017586625181138515, 0.029777197167277336, 0.0011182866292074323, 0.00036017646198160946, 0.0071757822297513485, 0.1300172358751297, 0.022839734330773354, 0.008701144717633724, 0.14151068031787872], [0.013093897141516209, 0.12677200138568878, 0.12568339705467224, 0.09449003636837006, 0.15120352804660797, 0.008059169165790081, 0.09925711154937744, 0.012898563407361507, 0.07405056804418564, 0.019790738821029663, 0.021242985501885414, 0.023780422285199165, 0.0039632185362279415, 0.028837023302912712, 0.002063729101791978, 0.00048781660734675825, 0.0024285430554300547, 0.0712442696094513, 0.00493131298571825, 0.003948150668293238, 0.11177351325750351], [0.00833007600158453, 0.008279222995042801, 0.005771765019744635, 0.015304071828722954, 0.039010610431432724, 0.002508504781872034, 0.742755115032196, 0.04290749877691269, 0.04830936715006828, 0.013892030343413353, 0.003813821589574218, 0.0016291937790811062, 0.0005406835698522627, 0.01089740451425314, 5.813239476992749e-05, 9.180017514154315e-05, 0.0009061821619980037, 0.04235650226473808, 0.00042394164483994246, 0.001622324576601386, 0.010591777041554451], [0.0052332584746181965, 0.1464979648590088, 0.11815598607063293, 0.07225634157657623, 0.15337517857551575, 0.0025303440634161234, 0.012164563871920109, 0.007719579618424177, 0.12716104090213776, 0.009121483191847801, 0.0613987110555172, 0.04003866761922836, 0.002851649187505245, 0.020161189138889313, 0.0016722974833101034, 0.0003825514577329159, 0.001003118697553873, 0.0422150157392025, 0.0010487774852663279, 0.001258079893887043, 0.17375417053699493], [0.004069247283041477, 0.25191161036491394, 0.01803768239915371, 0.022986367344856262, 0.040714018046855927, 0.0016853970009833574, 0.0012868649791926146, 0.005489513743668795, 0.1893576979637146, 0.004134891554713249, 0.25584253668785095, 0.03217339143157005, 0.0036659161560237408, 0.04056105017662048, 0.001507240580394864, 0.0005672561237588525, 0.0036466370802372694, 0.06778906285762787, 0.0020383873488754034, 0.0015790467150509357, 0.05095618590712547], [0.0023141985293477774, 0.05242036283016205, 0.026490310207009315, 0.007205933798104525, 0.002595369704067707, 0.0001334640837740153, 0.001146433292888105, 0.004236442968249321, 0.15248773992061615, 0.02915593795478344, 0.42115703225135803, 0.06650327146053314, 0.004030182026326656, 0.06394246220588684, 0.052661772817373276, 0.0007975617772899568, 0.006103480234742165, 0.09206677973270416, 0.0006597868632525206, 0.001445076079107821, 0.012446451000869274], [0.014428609050810337, 0.03063955344259739, 0.04130704328417778, 0.03956347703933716, 0.057045482099056244, 0.002788147423416376, 0.022625751793384552, 0.021038666367530823, 0.08832152187824249, 0.08288786560297012, 0.14584161341190338, 0.1259964257478714, 0.08902207016944885, 0.05652310699224472, 0.04210258647799492, 0.00816386193037033, 0.021722745150327682, 0.05574726685881615, 0.007593036629259586, 0.01210831943899393, 0.034532930701971054], [0.0018586207879707217, 0.008011954836547375, 0.0551481619477272, 0.011624792590737343, 0.012661011889576912, 0.00023201043950393796, 0.0020939556416124105, 0.0046182298101484776, 0.031954679638147354, 0.015464560128748417, 0.0817088931798935, 0.608808696269989, 0.036316271871328354, 0.060678716748952866, 0.012274826876819134, 0.00263967108912766, 0.006967086810618639, 0.036671873182058334, 0.0008515576482750475, 0.001783861662261188, 0.007630482316017151], [0.011028730310499668, 0.006144210696220398, 0.019606929272413254, 0.028240568935871124, 0.025744210928678513, 0.0008823807584121823, 0.013501929119229317, 0.02417627163231373, 0.04756646603345871, 0.04917137697339058, 0.07906744629144669, 0.34652477502822876, 0.09827803075313568, 0.09402336925268173, 0.046061284840106964, 0.008131129667162895, 0.027693025767803192, 0.053955066949129105, 0.006770789623260498, 0.005835229996591806, 0.007596688345074654], [0.013703376054763794, 0.03552476316690445, 0.012247535400092602, 0.04542302340269089, 0.0750812515616417, 0.0008529911865480244, 0.013818109408020973, 0.026890790089964867, 0.10655727982521057, 0.0251577477902174, 0.16679397225379944, 0.10954034328460693, 0.12139038741588593, 0.09656848758459091, 0.0333675742149353, 0.005091118160635233, 0.014004448428750038, 0.045020055025815964, 0.014863185584545135, 0.00847730040550232, 0.02962624840438366], [0.0410834476351738, 0.03533637896180153, 0.04799220710992813, 0.020008469000458717, 0.06383784115314484, 0.025697611272335052, 0.042459726333618164, 0.03244660422205925, 0.06708935648202896, 0.038206420838832855, 0.06046140566468239, 0.0800907239317894, 0.06119564548134804, 0.07817786186933517, 0.03950650617480278, 0.030676014721393585, 0.03771691024303436, 0.08073343336582184, 0.028519844636321068, 0.040251266211271286, 0.048512279987335205], [0.004554456565529108, 0.0008794681052677333, 0.007834522053599358, 0.0011803826782852411, 0.008123643696308136, 0.0019939208868891, 0.0025170438457280397, 0.002804037183523178, 0.011660724878311157, 0.0037523326463997364, 0.012237805873155594, 0.15118534862995148, 0.157952219247818, 0.092729352414608, 0.26404887437820435, 0.062427420169115067, 0.07247404009103775, 0.060911163687705994, 0.01329544372856617, 0.062445610761642456, 0.004992136266082525], [0.002067211549729109, 0.0004480877541936934, 0.005111335311084986, 0.000961983751039952, 0.026052327826619148, 0.0008947962196543813, 0.0019046444213017821, 0.0017819271888583899, 0.009019669145345688, 0.0011181066511198878, 0.013329528272151947, 0.14507296681404114, 0.28086769580841064, 0.06172504648566246, 0.3242558538913727, 0.023925218731164932, 0.04296499118208885, 0.03606429696083069, 0.002884778892621398, 0.017255786806344986, 0.002293793484568596], [0.01695699244737625, 0.05498948320746422, 0.019498057663440704, 0.0037342861760407686, 0.034389082342386246, 0.003525207517668605, 0.019256724044680595, 0.01043970137834549, 0.12377685308456421, 0.01204440277069807, 0.16594557464122772, 0.0438176728785038, 0.04383723810315132, 0.1231054812669754, 0.009193643927574158, 0.007493957877159119, 0.015763580799102783, 0.13126042485237122, 0.0068432935513556, 0.02578187733888626, 0.12834645807743073]], [[0.1652553230524063, 0.006782212760299444, 0.009214993566274643, 0.01950305514037609, 0.0036676391027867794, 0.003935481887310743, 0.0507279597222805, 0.0042062303982675076, 0.03723632171750069, 0.20494747161865234, 0.0031968888361006975, 0.004187475424259901, 0.003452990436926484, 0.04101993143558502, 0.04850905388593674, 0.00179177219979465, 0.00567102013155818, 0.21412460505962372, 0.1556462049484253, 0.00967620313167572, 0.007247077766805887], [0.004106478299945593, 0.023988425731658936, 0.050562337040901184, 0.062067802995443344, 0.013671204447746277, 0.002262958325445652, 0.04087141901254654, 0.01007059495896101, 0.026692433282732964, 0.25651973485946655, 0.00681463023647666, 0.030284220352768898, 0.0386265330016613, 0.022959504276514053, 0.15611599385738373, 0.0016819131560623646, 0.009857750497758389, 0.03369908034801483, 0.1467047482728958, 0.05150427669286728, 0.010937987826764584], [0.010647423565387726, 0.039696916937828064, 0.04162731021642685, 0.0514717623591423, 0.02762356400489807, 0.0021221288479864597, 0.03355412557721138, 0.009114645421504974, 0.09604018181562424, 0.15009385347366333, 0.03292012959718704, 0.026298094540834427, 0.057056695222854614, 0.07361426949501038, 0.1805287003517151, 0.0028843767940998077, 0.009429039433598518, 0.09065903723239899, 0.011825036257505417, 0.035261765122413635, 0.01753098890185356], [0.01834123209118843, 0.04246766120195389, 0.025648009032011032, 0.061232466250658035, 0.02800704911351204, 0.0022060254123061895, 0.026211461052298546, 0.00927838683128357, 0.1170673668384552, 0.11249580979347229, 0.03696845844388008, 0.02068152464926243, 0.04714937508106232, 0.0895824059844017, 0.16466069221496582, 0.0038698697462677956, 0.007101810071617365, 0.13120529055595398, 0.01656893454492092, 0.017773892730474472, 0.021482229232788086], [0.0016055150190368295, 0.03040507063269615, 0.17090392112731934, 0.08375763148069382, 0.03484361246228218, 0.002441704971715808, 0.06619636714458466, 0.009326906874775887, 0.03552543744444847, 0.10411269217729568, 0.020606106147170067, 0.2325739860534668, 0.0592452809214592, 0.019631998613476753, 0.05390866473317146, 0.0027495494578033686, 0.005045263096690178, 0.02398340404033661, 0.006412971299141645, 0.025702152401208878, 0.011021783575415611], [0.00476451963186264, 0.02068612538278103, 0.07578526437282562, 0.06782268732786179, 0.018026793375611305, 0.0029052740428596735, 0.11791889369487762, 0.006797872483730316, 0.026819957420229912, 0.18463486433029175, 0.01798524148762226, 0.07262369990348816, 0.028460804373025894, 0.025305381044745445, 0.21408812701702118, 0.009568462148308754, 0.011708106845617294, 0.04378616809844971, 0.02238856814801693, 0.012030464597046375, 0.015892693772912025], [0.0008411522721871734, 0.011673053726553917, 0.026744289323687553, 0.01497585978358984, 0.00833331048488617, 0.001064690062776208, 0.047282714396715164, 0.0015944113256409764, 0.03929125517606735, 0.5768422484397888, 0.010881873778998852, 0.028347240760922432, 0.019825564697384834, 0.023817110806703568, 0.0400211364030838, 0.005537531804293394, 0.005244765430688858, 0.07446248084306717, 0.04624255746603012, 0.010619213804602623, 0.006357645615935326], [0.0034280784893780947, 0.014493192546069622, 0.029371019452810287, 0.013038907200098038, 0.007183991372585297, 0.0025354214012622833, 0.17656470835208893, 0.0071295397356152534, 0.02772815153002739, 0.40722525119781494, 0.006889780983328819, 0.02428550459444523, 0.012157713994383812, 0.023323561996221542, 0.07472506910562515, 0.0019948796834796667, 0.0052564418874681, 0.05881841853260994, 0.0574248842895031, 0.03396224603056908, 0.012463302351534367], [0.011888961307704449, 0.049150772392749786, 0.03133018687367439, 0.03321252763271332, 0.03812258690595627, 0.010702396742999554, 0.03956807777285576, 0.026054970920085907, 0.07576292753219604, 0.16342467069625854, 0.034408435225486755, 0.03228919580578804, 0.0573171004652977, 0.06946992129087448, 0.052090708166360855, 0.007201564963907003, 0.018590906634926796, 0.10273438692092896, 0.07288617640733719, 0.04169871285557747, 0.032094791531562805], [0.005456469487398863, 0.020661231130361557, 0.021699240431189537, 0.0426826998591423, 0.0032089410815387964, 0.0024988397490233183, 0.021379385143518448, 0.0011924748541787267, 0.021200377494096756, 0.245390847325325, 0.004751554690301418, 0.012093362398445606, 0.006619511172175407, 0.022028328850865364, 0.20139749348163605, 0.0015090880915522575, 0.0026163666043430567, 0.03658953309059143, 0.3082254230976105, 0.01368385087698698, 0.005114854779094458], [0.003873102832585573, 0.05509660392999649, 0.032828189432621, 0.03994595631957054, 0.05643538758158684, 0.006697564385831356, 0.045567113906145096, 0.03159195929765701, 0.06624156981706619, 0.09899547696113586, 0.029915200546383858, 0.03648819029331207, 0.12915022671222687, 0.058186136186122894, 0.05653899163007736, 0.004219672176986933, 0.014740408398211002, 0.06654605269432068, 0.05187375470995903, 0.08422022312879562, 0.030848199501633644], [0.0049327765591442585, 0.033081404864788055, 0.02408670447766781, 0.0368242971599102, 0.03870329633355141, 0.002681031357496977, 0.033067572861909866, 0.011976995505392551, 0.09474727511405945, 0.06130184978246689, 0.03573308512568474, 0.03855086490511894, 0.15197351574897766, 0.09416203945875168, 0.10972563922405243, 0.004600747022777796, 0.012075813487172127, 0.11299702525138855, 0.009466901421546936, 0.06544189900159836, 0.02386922761797905], [0.000928324181586504, 0.01662972941994667, 0.16920113563537598, 0.07646994292736053, 0.012449423782527447, 0.0016853054985404015, 0.02744693122804165, 0.004702149424701929, 0.014985485933721066, 0.08835579454898834, 0.008918390609323978, 0.2823314070701599, 0.053337473422288895, 0.015456519089639187, 0.11622343957424164, 0.003774977056309581, 0.0077163102105259895, 0.016423553228378296, 0.03127402812242508, 0.04473377391695976, 0.006955945864319801], [0.022448042407631874, 0.04689521715044975, 0.0356476791203022, 0.04041784629225731, 0.03075331822037697, 0.01167087722569704, 0.03107309900224209, 0.019565509632229805, 0.06691554933786392, 0.11607928574085236, 0.03754521906375885, 0.036212436854839325, 0.04829490929841995, 0.07298687845468521, 0.08302229642868042, 0.012165595777332783, 0.02361488901078701, 0.10552103817462921, 0.07092851400375366, 0.04609140008687973, 0.04215036705136299], [0.006060143932700157, 0.01272672787308693, 0.019292544573545456, 0.02622932940721512, 0.007610113825649023, 0.004567250609397888, 0.03097251057624817, 0.0037141775246709585, 0.02511940710246563, 0.15183983743190765, 0.004145495593547821, 0.013604959473013878, 0.014963189139962196, 0.044887054711580276, 0.3309108316898346, 0.002402113750576973, 0.010019013658165932, 0.11418285220861435, 0.13988828659057617, 0.028258835896849632, 0.00860534980893135], [0.008523024618625641, 0.012563928961753845, 0.025738779455423355, 0.06005819886922836, 0.021302400156855583, 0.004001264926046133, 0.10748340934515, 0.005629382561892271, 0.015862343832850456, 0.0578266866505146, 0.005990937817841768, 0.023479506373405457, 0.03389070928096771, 0.023633167147636414, 0.46425294876098633, 0.005181600339710712, 0.011172031983733177, 0.048765867948532104, 0.029635608196258545, 0.021030139178037643, 0.013977975584566593], [0.0027251162100583315, 0.019029129296541214, 0.03638138994574547, 0.029693908989429474, 0.010448602959513664, 0.003959062043577433, 0.06475918740034103, 0.005796527024358511, 0.028343532234430313, 0.09238740056753159, 0.006155289709568024, 0.02288985438644886, 0.022748000919818878, 0.03782155364751816, 0.3926059901714325, 0.0027713177260011435, 0.007223349995911121, 0.08167050033807755, 0.0722837746143341, 0.04988562688231468, 0.01042095385491848], [0.07888690382242203, 0.059091418981552124, 0.018389923498034477, 0.03309618681669235, 0.037766486406326294, 0.019640987738966942, 0.01218126155436039, 0.015146196819841862, 0.11946193128824234, 0.029728593304753304, 0.08294627070426941, 0.016638904809951782, 0.02700575441122055, 0.11677363514900208, 0.03846566751599312, 0.011609966866672039, 0.014008804224431515, 0.18422622978687286, 0.02322136051952839, 0.014299632981419563, 0.04741382598876953], [0.004038820043206215, 0.01318197138607502, 0.011235806159675121, 0.04572470858693123, 0.0023666948545724154, 0.00659970985725522, 0.04935334250330925, 0.0034297178499400616, 0.029695678502321243, 0.21584820747375488, 0.004816971253603697, 0.01013983879238367, 0.005203415174037218, 0.03630230948328972, 0.2717633545398712, 0.003295880975201726, 0.009192202240228653, 0.07981511950492859, 0.18083465099334717, 0.012500636279582977, 0.004660998471081257], [0.0031287954188883305, 0.0038939062505960464, 0.041550591588020325, 0.013686181046068668, 0.0035769895184785128, 0.0027317360509186983, 0.024760926142334938, 0.0018860343843698502, 0.004080247599631548, 0.16124601662158966, 0.0015089028747752309, 0.025061002001166344, 0.008318986743688583, 0.005636899266391993, 0.1175064891576767, 0.002755876397714019, 0.008008680306375027, 0.009182694368064404, 0.5415307879447937, 0.015888428315520287, 0.004059838596731424], [0.001364764990285039, 0.009401189163327217, 0.02688816376030445, 0.052953530102968216, 0.005552761722356081, 0.004187858663499355, 0.024064920842647552, 0.0030909532215446234, 0.006023230962455273, 0.15528206527233124, 0.0016382538015022874, 0.012039014138281345, 0.010056299157440662, 0.006290519144386053, 0.22984741628170013, 0.00040980413905344903, 0.004143491853028536, 0.007314329035580158, 0.42188674211502075, 0.013765095733106136, 0.0037995451129972935]], [[0.00976701732724905, 0.05692334100604057, 0.02280437760055065, 0.03243013098835945, 0.030967004597187042, 0.006555092055350542, 0.008437545970082283, 0.047964006662368774, 0.09550473093986511, 0.06568541377782822, 0.09504980593919754, 0.054827939718961716, 0.05250231549143791, 0.07994040846824646, 0.029093969613313675, 0.0066149416379630566, 0.047635577619075775, 0.08168192952871323, 0.04813437536358833, 0.024042274802923203, 0.10343782603740692], [0.001394788851030171, 0.012665205635130405, 0.013683184050023556, 0.1351451724767685, 0.2513734698295593, 0.0021409455221146345, 0.014943207614123821, 0.0679292157292366, 0.0736851841211319, 0.01576857827603817, 0.19451525807380676, 0.06595365703105927, 0.08019787818193436, 0.013703850097954273, 0.005405724979937077, 0.0005579708958975971, 0.016726408153772354, 0.007911570370197296, 0.002776377834379673, 0.005310136824846268, 0.018212299793958664], [0.0003000976867042482, 0.010392172262072563, 0.010299379006028175, 0.1861770749092102, 0.28637203574180603, 0.00047900257050059736, 0.0065771471709012985, 0.070933036506176, 0.049112096428871155, 0.009949501603841782, 0.15879195928573608, 0.07282071560621262, 0.10626915097236633, 0.004695983603596687, 0.004752171691507101, 0.00025044011999852955, 0.012335192412137985, 0.0014676025602966547, 0.0013158121146261692, 0.0032988672610372305, 0.003410511650145054], [0.003118920372799039, 0.02491593360900879, 0.009485337883234024, 0.03763618320226669, 0.025146830826997757, 0.002238314598798752, 0.007810384966433048, 0.10198837518692017, 0.19851866364479065, 0.04667023941874504, 0.2882585823535919, 0.09373749792575836, 0.01528540812432766, 0.037719257175922394, 0.01065764483064413, 0.0011429592268541455, 0.015203680843114853, 0.04205691069364548, 0.002023336011916399, 0.0035954383201897144, 0.03279019147157669], [0.0005398960784077644, 0.008845116011798382, 0.0016327425837516785, 0.003541607642546296, 0.0014137999387457967, 0.00044909221469424665, 0.0031986089888960123, 0.03964688256382942, 0.1126948744058609, 0.0201190784573555, 0.5495518445968628, 0.16458043456077576, 0.0067664519883692265, 0.017360419034957886, 0.009077888913452625, 0.00033008880564011633, 0.010148837231099606, 0.010936863720417023, 0.0007943483651615679, 0.0019445564830675721, 0.03642667084932327], [0.003791949013248086, 0.030409209430217743, 0.005052846856415272, 0.015814946964383125, 0.012482544407248497, 0.0010283824522048235, 0.043837226927280426, 0.07653719186782837, 0.1624942570924759, 0.06934357434511185, 0.16701874136924744, 0.08303617686033249, 0.04350513964891434, 0.07832439243793488, 0.021497569978237152, 0.005086139775812626, 0.025285273790359497, 0.09451577812433243, 0.0035290068481117487, 0.01103504654020071, 0.04637461155653], [0.0058884150348603725, 0.02637992613017559, 0.011527509428560734, 0.01171799935400486, 0.003507362911477685, 0.006087141577154398, 0.10482979565858841, 0.01468882616609335, 0.14576338231563568, 0.11375206708908081, 0.13940604031085968, 0.06437227874994278, 0.00960434228181839, 0.0752943679690361, 0.03624342381954193, 0.0057277497835457325, 0.014870001934468746, 0.08331947028636932, 0.012782817706465721, 0.01599445566534996, 0.09824270755052567], [0.0042089298367500305, 0.017801815643906593, 0.0086310850456357, 0.01525905728340149, 0.010481325909495354, 0.0023708557710051537, 0.021701397374272346, 0.013275939039885998, 0.06760493665933609, 0.058932289481163025, 0.22303567826747894, 0.15655337274074554, 0.06219390034675598, 0.07149171829223633, 0.029014509171247482, 0.006695487070828676, 0.03530389070510864, 0.06744755059480667, 0.018952354788780212, 0.018198469653725624, 0.09084542095661163], [0.0069687580689787865, 0.01116153970360756, 0.005329062696546316, 0.013843568041920662, 0.013887968845665455, 0.001641042297706008, 0.018972115591168404, 0.017137957736849785, 0.048492997884750366, 0.01816403679549694, 0.23992317914962769, 0.21416111290454865, 0.11288440972566605, 0.051759637892246246, 0.012318861670792103, 0.004145599436014891, 0.03145287558436394, 0.05234964191913605, 0.0059284851886332035, 0.014381839893758297, 0.1050952821969986], [0.008721868507564068, 0.015689246356487274, 0.011966933496296406, 0.012943792156875134, 0.006468568928539753, 0.004273883532732725, 0.03456868976354599, 0.018436629325151443, 0.06912089884281158, 0.020815586671233177, 0.14530371129512787, 0.20745278894901276, 0.07018258422613144, 0.11178236454725266, 0.021469613537192345, 0.014513499103486538, 0.06309746205806732, 0.10044708847999573, 0.0121469022706151, 0.0061376080848276615, 0.044460367411375046], [0.005503527820110321, 0.0063013723120093346, 0.001739207305945456, 0.005702254828065634, 0.006002552807331085, 0.0004933450254611671, 0.00514843687415123, 0.005767147056758404, 0.014351991936564445, 0.00317774573341012, 0.10479404032230377, 0.09883923828601837, 0.213303804397583, 0.05245191603899002, 0.028587544336915016, 0.0054630921222269535, 0.05650926008820534, 0.03613375872373581, 0.018293214961886406, 0.038924913853406906, 0.29251158237457275], [0.002260911976918578, 0.007200868800282478, 0.0013045601081103086, 0.004277043044567108, 0.00267426366917789, 0.00023151184723246843, 0.0026713719125837088, 0.003989443648606539, 0.0194767527282238, 0.002226851414889097, 0.0902915745973587, 0.08742059022188187, 0.27983659505844116, 0.06673674285411835, 0.0762893408536911, 0.007864459417760372, 0.07569453120231628, 0.02829406037926674, 0.038776468485593796, 0.0967322289943695, 0.10574986785650253], [0.003204947104677558, 0.012190456502139568, 0.0027028697077184916, 0.004564062692224979, 0.0004324422334320843, 0.00024067268532235175, 0.0026247878558933735, 0.003022218821570277, 0.023352526128292084, 0.0028886354994028807, 0.0749850869178772, 0.06232708692550659, 0.010806435719132423, 0.07707878202199936, 0.07207419723272324, 0.00810027215629816, 0.07236673682928085, 0.08788932859897614, 0.06553951650857925, 0.15029168128967285, 0.26331719756126404], [0.01170423999428749, 0.023693114519119263, 0.0055455537512898445, 0.018999051302671432, 0.007420866284519434, 0.0010183058911934495, 0.016707243397831917, 0.016084495931863785, 0.061495307832956314, 0.01205275859683752, 0.07526789605617523, 0.04037868604063988, 0.04271897301077843, 0.09948840737342834, 0.026568036526441574, 0.008188539184629917, 0.058979108929634094, 0.21469621360301971, 0.03498617187142372, 0.08836102485656738, 0.1356460452079773], [0.00454116752371192, 0.02020070143043995, 0.004353761672973633, 0.013187619857490063, 0.00421507703140378, 0.0004839148896280676, 0.01175779290497303, 0.00309054646641016, 0.026785673573613167, 0.003484148997813463, 0.03563990071415901, 0.016679659485816956, 0.02611212432384491, 0.06219729781150818, 0.021325238049030304, 0.010457862168550491, 0.026415906846523285, 0.13130639493465424, 0.14411994814872742, 0.2755715847015381, 0.15807369351387024], [0.0048433574847877026, 0.011779386550188065, 0.0029346346855163574, 0.007782707456499338, 0.0008730856934562325, 0.00043860325240530074, 0.012743236497044563, 0.0031181639060378075, 0.020275631919503212, 0.005086892284452915, 0.019293278455734253, 0.013656312599778175, 0.00788490753620863, 0.06861688196659088, 0.020608384162187576, 0.006802180781960487, 0.02642025239765644, 0.17333494126796722, 0.10561501979827881, 0.35544049739837646, 0.13245165348052979], [0.008901689201593399, 0.024915071204304695, 0.007609967608004808, 0.0163678340613842, 0.005984979681670666, 0.0014445570996031165, 0.010031375102698803, 0.0056512379087507725, 0.042109861969947815, 0.007381865754723549, 0.03295395150780678, 0.01842365972697735, 0.024817686527967453, 0.10633014887571335, 0.018058963119983673, 0.006163619924336672, 0.022814488038420677, 0.24718894064426422, 0.09643633663654327, 0.1845710426568985, 0.11184278130531311], [0.033858202397823334, 0.02160153165459633, 0.006457064766436815, 0.023054683580994606, 0.009650018066167831, 0.0021773658227175474, 0.015900738537311554, 0.011462130583822727, 0.0836416557431221, 0.010338297113776207, 0.041430018842220306, 0.019517982378602028, 0.021734558045864105, 0.13102169334888458, 0.006895530968904495, 0.0049229334108531475, 0.010849985294044018, 0.4480085074901581, 0.00870440248399973, 0.014901875518262386, 0.07387080043554306], [0.03273836150765419, 0.007177634630352259, 0.0029994556680321693, 0.003942234441637993, 0.0012261095689609647, 0.0008160386350937188, 0.03131626918911934, 0.001248562941327691, 0.02480701543390751, 0.006540671456605196, 0.008135590702295303, 0.007781124208122492, 0.009454922750592232, 0.14489296078681946, 0.04471612349152565, 0.00846402533352375, 0.005205623339861631, 0.32110029458999634, 0.05597256124019623, 0.13013538718223572, 0.151328906416893], [0.020788680762052536, 0.007594421040266752, 0.003243895946070552, 0.004340193700045347, 0.0011695105349645019, 0.0006970537942834198, 0.023834124207496643, 0.0015219058841466904, 0.037193264812231064, 0.00953197292983532, 0.028490640223026276, 0.023820603266358376, 0.016596302390098572, 0.13346579670906067, 0.031533800065517426, 0.004939906764775515, 0.006255347281694412, 0.26912766695022583, 0.08735846728086472, 0.05143778771162033, 0.23705865442752838], [0.015022448264062405, 0.04145557060837746, 0.012968161143362522, 0.03862914443016052, 0.044827964156866074, 0.006211122497916222, 0.024548692628741264, 0.027557814493775368, 0.1942884474992752, 0.030615560710430145, 0.14523755013942719, 0.04001329839229584, 0.02494039759039879, 0.07809886336326599, 0.012397357262670994, 0.0016596268396824598, 0.013087430037558079, 0.14181293547153473, 0.008275508880615234, 0.012004301883280277, 0.08634787052869797]], [[0.0012679792707785964, 0.005277690477669239, 0.003934698179364204, 0.005426823161542416, 0.0016126860864460468, 0.000492395949549973, 5.5466440244344994e-05, 5.1342220103833824e-05, 0.00022080191411077976, 0.00040249095764011145, 0.023962395265698433, 0.015200596302747726, 0.0046094004064798355, 0.002200700342655182, 0.0006013500387780368, 0.0003214821917936206, 0.0009093546541407704, 0.0026951588224619627, 0.005427843425422907, 0.03285052999854088, 0.8924787640571594], [6.76169202051824e-06, 0.005696933250874281, 0.9918881058692932, 0.0002274784492328763, 4.555944542516954e-06, 4.932224328513257e-06, 7.504469294872251e-07, 2.8485655434451473e-07, 1.0275639397150371e-05, 0.00013227941235527396, 1.3810844734507555e-07, 1.1645434824458789e-05, 2.7848123806961667e-08, 1.1917381016246509e-05, 5.947301815467654e-07, 1.013645078984382e-08, 3.377653712277606e-08, 0.00047884404193609953, 0.0014431534800678492, 1.535383671580348e-05, 6.598035542992875e-05], [3.100144567724783e-06, 0.00023706178762950003, 0.002794716041535139, 0.9864185452461243, 0.010467306710779667, 3.56205491698347e-05, 4.188431290685912e-08, 2.8291018416837233e-09, 2.1953378563921433e-06, 9.404959655512357e-07, 3.2929315239016432e-06, 9.430749514649506e-08, 3.90932336813421e-06, 1.3272887144921697e-06, 7.960671410955911e-08, 4.7261344143789685e-11, 3.162718420490762e-10, 3.198983904439956e-06, 1.4329175428429153e-06, 1.2974747960470268e-06, 2.5888886739267036e-05], [5.1787750976473035e-08, 1.02872093066253e-07, 1.2383119383230223e-06, 4.664944572141394e-05, 0.9995245933532715, 0.0004213869688101113, 7.789857647821918e-09, 1.7842755051233894e-09, 2.581182343419641e-07, 2.2523112264138945e-09, 4.897471317377722e-09, 1.4524677283134224e-07, 1.58252203164011e-06, 1.4865242974337889e-06, 6.036059829739315e-08, 5.1734733830244295e-08, 2.850691904754399e-10, 1.3436571180136525e-06, 1.012265878758134e-11, 2.5588149654698356e-11, 1.0246902775179478e-06], [1.8158077637053793e-06, 1.375945203108131e-06, 1.1164357829329674e-06, 4.3182018998777494e-05, 0.005558272358030081, 0.9931653141975403, 0.00034884046181105077, 1.3484532601637511e-08, 6.882538059471699e-07, 2.9348751695579267e-07, 4.421389032671641e-09, 6.904614338054671e-07, 3.434962252413243e-07, 0.0005515469238162041, 0.0003007993218488991, 8.918718208406062e-09, 3.6807821235385063e-09, 2.3716784198768437e-05, 2.0177806092647188e-08, 1.5172630929427555e-09, 1.8871801330533344e-06], [2.0917122256491893e-08, 1.1570982678676955e-06, 5.128809732468653e-08, 3.210704448974866e-07, 1.9406618321227143e-06, 0.1254657804965973, 0.8742837905883789, 3.808223846135661e-05, 3.8664606449856365e-07, 9.760433528072099e-08, 2.894672834763412e-10, 1.323686937837465e-09, 9.240428511247956e-08, 7.919538620626554e-05, 8.693002018844709e-05, 3.994891085312702e-05, 2.616999097426742e-07, 1.6707102759028203e-06, 2.0498468700225203e-08, 7.903733778569233e-10, 2.4673900611560384e-07], [1.0847432285743253e-08, 5.73266618175694e-07, 9.993538697017357e-06, 2.828248968356206e-09, 3.410941928905231e-08, 4.8919073236675104e-08, 0.0004898321931250393, 0.9993450045585632, 6.870758170407498e-06, 1.4230222404876258e-06, 2.639201301946059e-09, 5.123026447506618e-09, 6.9942709401971115e-09, 3.500537673062354e-07, 1.5497622740667794e-08, 9.40597165026702e-05, 4.812028419109993e-05, 3.969247472923598e-07, 1.2537627824826814e-08, 1.2351270015642513e-06, 1.9271292330813594e-06], [1.0977992133121006e-06, 8.205961057683453e-05, 5.22729010299372e-07, 2.6939094368572114e-06, 3.6019471849613183e-07, 1.3715431634864217e-07, 3.0021209340702626e-07, 0.001079590292647481, 0.9930445551872253, 0.0017038768855854869, 9.225844223692548e-06, 6.071119162953664e-10, 6.505185012883885e-08, 5.2777679229620844e-05, 1.495355945735355e-07, 2.0649817855655783e-08, 1.502107238593453e-06, 0.003950717393308878, 1.7784398664844048e-07, 8.845135823776218e-08, 6.989152461756021e-05], [0.0005385481053963304, 0.00019355438416823745, 0.00034007534850388765, 3.1546063837595284e-05, 3.506217808535439e-06, 1.8183687870987342e-06, 2.0914790184178855e-06, 7.41009134799242e-05, 0.04795406013727188, 0.9381502866744995, 0.0029965743888169527, 0.00011576843826333061, 1.8317959415981022e-07, 5.562667138292454e-05, 6.937827856745571e-05, 1.170167979580583e-05, 5.800947474199347e-05, 0.006710238289088011, 0.0004698996199294925, 3.0162498660502024e-05, 0.0021928036585450172], [9.418142144568264e-05, 0.000875196245033294, 4.527112832874991e-05, 7.307947089429945e-05, 5.418665750767104e-06, 1.415647261637787e-07, 1.1710586278468327e-08, 1.063290824276919e-06, 0.03034628927707672, 0.0029518951196223497, 0.9050709009170532, 0.0009651850559748709, 5.733609668823192e-06, 2.4526132619939744e-05, 1.0821275964190136e-07, 2.444113818000915e-07, 6.2862629420124e-05, 0.05301559716463089, 3.392928192624822e-05, 6.302921246970072e-05, 0.006365351844578981], [2.3821063223294914e-05, 1.6360512518076575e-06, 5.990216322970809e-06, 5.7273490483567e-07, 1.6164493672476965e-06, 1.2383150078676408e-06, 3.6201739384011944e-09, 1.0029776315034766e-10, 3.061857114516897e-07, 2.4709634089958854e-05, 0.0024106870405375957, 0.9973247051239014, 4.803669435204938e-05, 3.143949925288325e-06, 1.3642395515489625e-06, 1.614580469322391e-08, 3.597173048319746e-08, 6.890132499393076e-05, 2.728859180933796e-05, 2.198133159936333e-07, 5.550841524382122e-05], [6.028153620718513e-07, 4.366623613805132e-07, 1.9496898318038802e-08, 4.157355760980863e-06, 0.0004189443134237081, 2.497788955224678e-05, 1.8939006807272563e-08, 5.2009205969705263e-11, 4.065042968903754e-09, 4.417082255514515e-10, 1.1735696716641542e-05, 0.0017678781878203154, 0.9976751208305359, 8.04778901510872e-05, 2.620795100938267e-07, 2.3656077097200523e-09, 1.1869978333578501e-09, 7.5697971624322236e-06, 2.037816493327682e-08, 1.9117205596330678e-08, 7.781746717228089e-06], [1.6043020423239795e-06, 1.9959036023919907e-07, 9.184153992869426e-10, 8.931818484825271e-08, 6.324432888504816e-08, 5.703064380213618e-05, 3.1819982382330636e-07, 2.0199379946461704e-08, 3.1021440918266308e-06, 5.8276827807901554e-09, 5.7044914569814864e-08, 7.029186122053943e-07, 0.001166307250969112, 0.9932795166969299, 0.004824822768568993, 3.0949914275879564e-07, 8.213559254954816e-08, 0.0005488384631462395, 1.903578237261172e-07, 2.110147789835537e-07, 0.00011649560474324971], [0.00037204541149549186, 1.836970477597788e-05, 3.419899076106958e-05, 0.00023326970404013991, 1.795964635675773e-05, 0.00222229165956378, 0.00028815731639042497, 4.9060261517297477e-05, 0.00037010860978625715, 0.00015879084821790457, 4.051426003570668e-06, 2.953723378595896e-05, 0.0002541621506679803, 0.04160354286432266, 0.9489887356758118, 0.000693682988639921, 0.00017003795073833317, 0.0012997010489925742, 0.00017205034964717925, 1.6002426491468213e-05, 0.003004335332661867], [6.987499467925318e-11, 1.0691143109697876e-10, 6.29878788016569e-11, 4.722118095851213e-12, 1.2347474154239535e-09, 5.100279665271046e-08, 1.988798103980116e-08, 6.956508702415931e-09, 7.00205837755874e-10, 2.772225504710235e-10, 1.6675666403287437e-09, 1.6183585582751903e-09, 9.211536422526478e-09, 1.0378006010114404e-08, 1.0545459190325346e-06, 0.9997618794441223, 0.000237004627706483, 5.938867619903476e-09, 1.4687191740581085e-10, 3.0108542325990584e-09, 6.935615637360115e-09], [1.1871149041553508e-07, 1.0907467640208779e-07, 8.580562393945002e-08, 9.409511392277636e-09, 8.091789460706877e-09, 6.227489990351387e-08, 5.909449555474566e-06, 8.807955600786954e-05, 3.89101927567026e-07, 4.482682925299741e-06, 1.7964116523216944e-06, 5.293380809234804e-07, 1.6265306612694985e-07, 8.963189657151815e-08, 0.00019397426513023674, 0.011401583440601826, 0.9882853031158447, 1.8375089894107077e-07, 6.591411420231452e-06, 9.920420779963024e-06, 5.699972120964958e-07], [2.3117994714993984e-05, 0.0010817092843353748, 8.196673206839478e-07, 3.9901172499412496e-07, 6.542334745063272e-07, 2.638363127971388e-07, 3.0397259820347244e-08, 5.151876848685788e-06, 0.013967407867312431, 9.826276800595224e-05, 0.0011911262990906835, 1.0658284736564383e-05, 7.890764391049743e-05, 0.0005198052967898548, 8.407091627304908e-06, 1.6199408491957e-05, 0.03027953766286373, 0.9436537623405457, 0.0005901841796003282, 5.386240081861615e-05, 0.008419821970164776], [0.028897836804389954, 0.03916462883353233, 0.014921024441719055, 0.0006659909267909825, 4.018396793981083e-05, 0.00012419816630426794, 0.00011041737889172509, 0.00020389097335282713, 0.006071783602237701, 0.006335049401968718, 0.000911105889827013, 0.0022906609810888767, 0.00017792584549169987, 0.021390387788414955, 0.0005649728700518608, 8.406570123042911e-05, 0.0007423344068229198, 0.5728225708007812, 0.057951152324676514, 0.00317351589910686, 0.24335627257823944], [3.020357439709187e-07, 1.1972181255259784e-06, 2.8961188945686445e-05, 1.3271676380099962e-06, 1.0278643713945712e-08, 1.464298127196173e-09, 5.490544463526703e-09, 8.783375804455318e-09, 2.417340105864696e-08, 4.630847527664628e-08, 6.412287802959327e-07, 1.0099350902237347e-06, 4.845620082960522e-07, 2.4160610792023363e-06, 2.8562437748291813e-08, 8.410345799347851e-06, 6.679845682810992e-06, 4.1389790567336604e-05, 0.0007232513162307441, 0.9973166584968567, 0.0018671059515327215], [0.00014727195957675576, 1.1138325135107152e-05, 1.9645774955279194e-05, 0.0005786223919130862, 1.8562288460088894e-05, 7.284940295448905e-08, 2.914642971418857e-09, 4.838103251358916e-08, 9.748974116519094e-05, 3.5377997846808285e-06, 2.489681173756253e-05, 6.074797511246288e-06, 4.033435834571719e-05, 0.0003665511612780392, 1.8045031993096927e-06, 5.2148294571452425e-08, 8.755445378483273e-06, 0.02863391861319542, 0.002531754784286022, 0.014841089956462383, 0.9526683688163757], [0.003196458797901869, 0.5078840851783752, 0.07213440537452698, 0.03133175149559975, 0.004275099840015173, 0.0015919855795800686, 0.0003887286293320358, 0.00020264489285182208, 0.003320089541375637, 0.0021443807054311037, 0.015415985137224197, 0.011050333268940449, 0.0024438374675810337, 0.05437004938721657, 0.0038886158727109432, 0.0013948084088042378, 0.003056124085560441, 0.06091293692588806, 0.030934348702430725, 0.04721877723932266, 0.14284464716911316]], [[0.01432081963866949, 0.03853412717580795, 0.027655912563204765, 0.04359615221619606, 0.10442456603050232, 0.024133218452334404, 0.0034665935672819614, 0.016570091247558594, 0.0369272381067276, 0.014355816878378391, 0.10331285744905472, 0.07085820287466049, 0.15694338083267212, 0.03457606956362724, 0.12367940694093704, 0.013472850434482098, 0.05962204188108444, 0.017578551545739174, 0.0418773777782917, 0.01827472262084484, 0.03582005575299263], [0.049687013030052185, 0.08272194117307663, 0.03773565590381622, 0.05539725720882416, 0.0692804604768753, 0.02602054737508297, 0.017790770158171654, 0.04691384732723236, 0.08156237751245499, 0.02132253721356392, 0.10215859860181808, 0.029487336054444313, 0.04995978996157646, 0.05252569541335106, 0.029398126527667046, 0.009310201741755009, 0.03290389105677605, 0.05735041946172714, 0.007114670239388943, 0.010377512313425541, 0.13098135590553284], [0.034245144575834274, 0.0768556073307991, 0.0060730488039553165, 0.016659528017044067, 0.00597589835524559, 0.007981433533132076, 0.02031126245856285, 0.05755507946014404, 0.07623422145843506, 0.056017279624938965, 0.05514445900917053, 0.007513775490224361, 0.020490562543272972, 0.07063818722963333, 0.06554999202489853, 0.01434330828487873, 0.07952415943145752, 0.05620691552758217, 0.01683429628610611, 0.008762580342590809, 0.24708323180675507], [0.03822430223226547, 0.14028918743133545, 0.058759551495313644, 0.003838238539174199, 0.007149565499275923, 0.009141693823039532, 0.014320888556540012, 0.026705894619226456, 0.08595924824476242, 0.012547331862151623, 0.09111858904361725, 0.06134818494319916, 0.01412881538271904, 0.09417082369327545, 0.02393946796655655, 0.01769099570810795, 0.03694576025009155, 0.10708558559417725, 0.003364339005202055, 0.020324362441897392, 0.1329471617937088], [0.01437243539839983, 0.1961190104484558, 0.04157491400837898, 0.07089342176914215, 0.020263932645320892, 0.006319339387118816, 0.0059400745667517185, 0.039671286940574646, 0.050173498690128326, 0.05452052503824234, 0.0867152214050293, 0.03143085911870003, 0.03818078711628914, 0.028434300795197487, 0.024084914475679398, 0.004138682037591934, 0.03592152148485184, 0.04117831587791443, 0.00812404416501522, 0.013735804706811905, 0.18820710480213165], [0.022375868633389473, 0.09483668953180313, 0.01289752684533596, 0.052311260253190994, 0.018982460722327232, 0.0031694811768829823, 0.005868838634341955, 0.01527421921491623, 0.08467323333024979, 0.017872584983706474, 0.05184193700551987, 0.01484640408307314, 0.04569783806800842, 0.16627369821071625, 0.03155866265296936, 0.006816360633820295, 0.043355442583560944, 0.23423875868320465, 0.024186767637729645, 0.009841271676123142, 0.04308082163333893], [0.029917249456048012, 0.056207798421382904, 0.023128150030970573, 0.01763341575860977, 0.021199049428105354, 0.018312176689505577, 0.0023085942957550287, 0.014832137152552605, 0.10306130349636078, 0.0333368293941021, 0.05697603151202202, 0.02843380905687809, 0.03236277028918266, 0.11042410135269165, 0.058618880808353424, 0.015700312331318855, 0.05242166295647621, 0.17555759847164154, 0.037048302590847015, 0.009865310974419117, 0.10265461355447769], [0.0370078980922699, 0.07253944128751755, 0.04627453535795212, 0.008198031224310398, 0.03332485631108284, 0.012081149965524673, 0.017968611791729927, 0.01699361391365528, 0.07266649603843689, 0.03817523643374443, 0.05911248177289963, 0.03655223920941353, 0.06144259497523308, 0.08705533295869827, 0.03218905255198479, 0.011564829386770725, 0.02107754535973072, 0.08831798285245895, 0.02509472705423832, 0.05729711428284645, 0.1650662124156952], [0.025571130216121674, 0.10250593721866608, 0.05766032263636589, 0.06577148288488388, 0.07373359054327011, 0.02337076887488365, 0.011549582704901695, 0.0235458817332983, 0.06713844835758209, 0.03203675150871277, 0.08105562627315521, 0.031437743455171585, 0.045682355761528015, 0.06527052074670792, 0.03287161514163017, 0.008835374377667904, 0.02627898007631302, 0.10249491780996323, 0.019080815836787224, 0.013428844511508942, 0.09067933261394501], [0.03788731247186661, 0.07389569282531738, 0.05871192738413811, 0.019301701337099075, 0.029433147981762886, 0.009321401827037334, 0.013940315693616867, 0.026027075946331024, 0.1052754819393158, 0.012571234256029129, 0.07989253103733063, 0.055219341069459915, 0.0389946773648262, 0.09931305050849915, 0.024136515334248543, 0.005797030404210091, 0.04182593524456024, 0.1724207103252411, 0.015992728993296623, 0.01170768029987812, 0.06833462417125702], [0.022481011226773262, 0.08406102657318115, 0.05246368795633316, 0.0643780305981636, 0.09600508213043213, 0.017758216708898544, 0.015381788834929466, 0.02429221011698246, 0.06996646523475647, 0.04990380257368088, 0.1198626384139061, 0.042127083986997604, 0.0709587037563324, 0.036878906190395355, 0.03316230699419975, 0.006808852311223745, 0.019321110099554062, 0.03963852301239967, 0.0060362983494997025, 0.011881019920110703, 0.11663327366113663], [0.015939898788928986, 0.06589285284280777, 0.008269054815173149, 0.033180173486471176, 0.02574855461716652, 0.02041822113096714, 0.04057438299059868, 0.03920881450176239, 0.09013402462005615, 0.13855327665805817, 0.06630156934261322, 0.006754104979336262, 0.04461164399981499, 0.07085239142179489, 0.05679580941796303, 0.014505340717732906, 0.022517496719956398, 0.05882133170962334, 0.01780475117266178, 0.01171085238456726, 0.15140537917613983], [0.00684666121378541, 0.1226423904299736, 0.04445028305053711, 0.06726986169815063, 0.044567205011844635, 0.01573280058801174, 0.01340590137988329, 0.0491725318133831, 0.06947511434555054, 0.12170825898647308, 0.09607496112585068, 0.04351074993610382, 0.06332650780677795, 0.04072168096899986, 0.03325171768665314, 0.005709079559892416, 0.022960493341088295, 0.04835514724254608, 0.019696323201060295, 0.021672528237104416, 0.04944983497262001], [0.01232186146080494, 0.07432203739881516, 0.03720968961715698, 0.047952800989151, 0.04487546905875206, 0.023031359538435936, 0.01191028207540512, 0.030413467437028885, 0.09947966784238815, 0.04715989530086517, 0.06788964569568634, 0.02969207614660263, 0.04516379162669182, 0.10447824746370316, 0.025101875886321068, 0.013764992356300354, 0.029493749141693115, 0.17495928704738617, 0.024852994829416275, 0.019926300272345543, 0.03600040078163147], [0.013731338083744049, 0.0465848445892334, 0.01891377940773964, 0.002959052799269557, 0.008121327497065067, 0.00957154668867588, 0.01738799177110195, 0.017444755882024765, 0.13264092803001404, 0.028028467670083046, 0.04749559611082077, 0.021181123331189156, 0.023697324097156525, 0.18137380480766296, 0.014446272514760494, 0.013595905154943466, 0.020508168265223503, 0.2745834290981293, 0.038996465504169464, 0.036916568875312805, 0.03182128816843033], [0.009724863804876804, 0.038384951651096344, 0.0217994786798954, 0.019514836370944977, 0.011276422068476677, 0.008275873959064484, 0.017879847437143326, 0.02514510042965412, 0.09373902529478073, 0.04595629870891571, 0.06335766613483429, 0.047609761357307434, 0.03803309425711632, 0.15336625277996063, 0.049187980592250824, 0.03178757429122925, 0.07135254889726639, 0.1413479894399643, 0.03552816063165665, 0.05402103438973427, 0.02271120436489582], [0.016122085973620415, 0.030844835564494133, 0.026969201862812042, 0.009173577651381493, 0.03603803366422653, 0.005224224645644426, 0.017269765958189964, 0.028357485309243202, 0.09674493223428726, 0.09455887228250504, 0.058147184550762177, 0.03432300686836243, 0.0876675620675087, 0.08932109922170639, 0.02282826043665409, 0.017811313271522522, 0.022177793085575104, 0.09065317362546921, 0.03154479339718819, 0.10713370889425278, 0.0770891085267067], [0.013232027180492878, 0.04687010124325752, 0.022831887006759644, 0.038279276341199875, 0.03375456854701042, 0.017462853342294693, 0.009088254533708096, 0.021685553714632988, 0.10410769283771515, 0.03671598806977272, 0.04887352138757706, 0.0198105126619339, 0.026815548539161682, 0.13420997560024261, 0.019910328090190887, 0.013764899224042892, 0.03105679154396057, 0.30440208315849304, 0.016593514010310173, 0.010740317404270172, 0.029794231057167053], [0.02403838001191616, 0.02007175423204899, 0.014525001868605614, 0.022567814216017723, 0.013135060667991638, 0.007343635894358158, 0.006386196706444025, 0.039257001131772995, 0.1214488074183464, 0.02982219122350216, 0.0384073443710804, 0.010548289865255356, 0.02201216295361519, 0.1482885628938675, 0.03447868674993515, 0.012861926108598709, 0.07676157355308533, 0.29737189412117004, 0.008318334817886353, 0.00847457256168127, 0.04388076439499855], [0.020048364996910095, 0.03686795011162758, 0.023626815527677536, 0.03842779994010925, 0.015385702252388, 0.0026608749758452177, 0.002120988443493843, 0.07191038876771927, 0.08682047575712204, 0.032565854489803314, 0.06619454175233841, 0.018587078899145126, 0.02499120868742466, 0.09522750228643417, 0.025912247598171234, 0.013072938658297062, 0.16949260234832764, 0.15652401745319366, 0.005856720265001059, 0.007444535382091999, 0.08626141399145126], [0.07156424969434738, 0.055522602051496506, 0.0345597118139267, 0.07631678879261017, 0.17708683013916016, 0.008958661928772926, 0.004274024162441492, 0.018489770591259003, 0.05933400243520737, 0.009658507071435452, 0.10295576602220535, 0.0543314665555954, 0.1258966475725174, 0.03799019381403923, 0.026762641966342926, 0.006995688658207655, 0.030549269169569016, 0.038035113364458084, 0.016244813799858093, 0.028486473485827446, 0.015986740589141846]], [[0.05392501875758171, 0.011769386939704418, 0.03604236617684364, 0.14351686835289001, 0.05504210665822029, 0.0122703080996871, 0.28006505966186523, 0.01752028800547123, 0.021064357832074165, 0.07748821377754211, 0.015067102387547493, 0.02916877716779709, 0.02810855209827423, 0.01708301529288292, 0.06926831603050232, 0.021744877099990845, 0.037040457129478455, 0.028739269822835922, 0.018650079146027565, 0.010981985367834568, 0.015443569049239159], [0.002360632875934243, 0.024847760796546936, 0.05659971013665199, 0.3979877233505249, 0.13823525607585907, 0.0017413211753591895, 0.03366106376051903, 0.014246114529669285, 0.018333589658141136, 0.044385042041540146, 0.020398017019033432, 0.04129842296242714, 0.07699555158615112, 0.019149141386151314, 0.019800543785095215, 0.0025584795512259007, 0.01770096831023693, 0.020587783306837082, 0.015109512023627758, 0.02103164978325367, 0.012971687130630016], [0.0027422092389315367, 0.026567362248897552, 0.018559468910098076, 0.40942177176475525, 0.14598894119262695, 0.0024034143425524235, 0.019500043243169785, 0.022194193676114082, 0.020624591037631035, 0.02969285473227501, 0.028407668694853783, 0.022956471890211105, 0.10850811004638672, 0.019845573231577873, 0.01995418407022953, 0.0023168923798948526, 0.019269272685050964, 0.0203462652862072, 0.011095414869487286, 0.038066234439611435, 0.011539075523614883], [0.0033538322895765305, 0.0409417562186718, 0.05235186964273453, 0.18615777790546417, 0.0952095091342926, 0.002018679864704609, 0.02348955348134041, 0.023520611226558685, 0.06424260884523392, 0.04431971535086632, 0.03208712860941887, 0.04812948778271675, 0.06781961023807526, 0.06484159827232361, 0.01976189762353897, 0.00299675646238029, 0.02956502139568329, 0.12277795374393463, 0.04042216017842293, 0.021399540826678276, 0.014592980965971947], [0.003200847888365388, 0.04135613515973091, 0.10457348823547363, 0.14632199704647064, 0.1319853514432907, 0.004027071874588728, 0.03563645854592323, 0.013929491862654686, 0.027962755411863327, 0.059583552181720734, 0.03487919270992279, 0.12162823975086212, 0.08685536682605743, 0.016979137435555458, 0.03600252792239189, 0.0027326680719852448, 0.010997009463608265, 0.01938922517001629, 0.01852543279528618, 0.04391377419233322, 0.039520371705293655], [0.01441645435988903, 0.032147765159606934, 0.061074644327163696, 0.164870485663414, 0.06170594319701195, 0.006109793204814196, 0.02156643010675907, 0.02792326919734478, 0.04539098963141441, 0.07432609796524048, 0.029296088963747025, 0.0653076022863388, 0.03734927624464035, 0.030458873137831688, 0.037215109914541245, 0.0091001121327281, 0.03183066099882126, 0.05941708758473396, 0.051268551498651505, 0.02756888046860695, 0.11165589094161987], [0.013294737786054611, 0.05913868919014931, 0.07947663962841034, 0.10194598883390427, 0.08584420382976532, 0.004485222045332193, 0.016337230801582336, 0.013033510185778141, 0.06124619022011757, 0.09559569507837296, 0.07147448509931564, 0.13534434139728546, 0.04447698965668678, 0.022022541612386703, 0.03039414994418621, 0.002251138910651207, 0.015001715160906315, 0.045191917568445206, 0.014934014528989792, 0.008413412608206272, 0.08009714633226395], [0.0035536664072424173, 0.031208885833621025, 0.03592446446418762, 0.41953766345977783, 0.0914444774389267, 0.0040824818424880505, 0.06599518656730652, 0.013296606950461864, 0.03165009617805481, 0.03482610732316971, 0.015744894742965698, 0.027499377727508545, 0.03840551897883415, 0.02629903331398964, 0.033901091665029526, 0.002746272599324584, 0.014046875759959221, 0.0534326434135437, 0.01818171702325344, 0.015163686126470566, 0.023059282451868057], [0.016974477097392082, 0.061397552490234375, 0.0394749715924263, 0.1389329880475998, 0.06860046088695526, 0.005000755190849304, 0.04851298779249191, 0.014429794624447823, 0.08070039749145508, 0.03956317529082298, 0.04797438159584999, 0.033996712416410446, 0.04281146079301834, 0.07756783813238144, 0.02090384252369404, 0.006366151850670576, 0.016883913427591324, 0.14643160998821259, 0.022376280277967453, 0.020579393953084946, 0.05052090063691139], [0.006945938803255558, 0.05716359615325928, 0.06276611983776093, 0.05524732545018196, 0.061838261783123016, 0.005065311677753925, 0.1038111001253128, 0.007697096094489098, 0.051811061799526215, 0.14400850236415863, 0.05128876864910126, 0.09102704375982285, 0.048783790320158005, 0.031016813591122627, 0.04410899430513382, 0.004717082716524601, 0.013548316434025764, 0.054307833313941956, 0.026999332010746002, 0.013351558707654476, 0.06449616700410843], [0.011553805321455002, 0.06026618927717209, 0.04194781556725502, 0.22371599078178406, 0.13135424256324768, 0.002295565325766802, 0.047425709664821625, 0.015665680170059204, 0.05314656347036362, 0.023442327976226807, 0.04409618675708771, 0.030628234148025513, 0.06924612075090408, 0.04748847335577011, 0.013693192973732948, 0.004622650798410177, 0.016885165125131607, 0.061286911368370056, 0.010809524916112423, 0.024340040981769562, 0.06608960777521133], [0.00850506778806448, 0.04373355954885483, 0.015877874568104744, 0.31138288974761963, 0.11987259238958359, 0.0029056670609861612, 0.04268455132842064, 0.018693603575229645, 0.03302852064371109, 0.026087822392582893, 0.03969178721308708, 0.022840896621346474, 0.11407190561294556, 0.028033727779984474, 0.01878119818866253, 0.0035180258564651012, 0.01990695856511593, 0.029976870864629745, 0.008734822273254395, 0.04105132073163986, 0.05062045902013779], [0.003767223795875907, 0.04519947990775108, 0.09306185692548752, 0.09662659466266632, 0.073963463306427, 0.004391784314066172, 0.09855608642101288, 0.008369828574359417, 0.021654333919286728, 0.11600261926651001, 0.0315016433596611, 0.10914578288793564, 0.08686952292919159, 0.015820764005184174, 0.04883481562137604, 0.00345780816860497, 0.00931073073297739, 0.015239842236042023, 0.015412170439958572, 0.04399527981877327, 0.05881848931312561], [0.014110838994383812, 0.06573972851037979, 0.03492315486073494, 0.08251813799142838, 0.03771906718611717, 0.005522741470485926, 0.056580815464258194, 0.01165866106748581, 0.0788978859782219, 0.05210039019584656, 0.03839496150612831, 0.028041906654834747, 0.035479914397001266, 0.09643397480249405, 0.033810194581747055, 0.007657389156520367, 0.014022702351212502, 0.19381877779960632, 0.024744460359215736, 0.026052843779325485, 0.06177134066820145], [0.002454324858263135, 0.033609770238399506, 0.09750659763813019, 0.1295890063047409, 0.0423252135515213, 0.006135009229183197, 0.059849902987480164, 0.009723013266921043, 0.021555665880441666, 0.25682181119918823, 0.013935744762420654, 0.07244214415550232, 0.0431915707886219, 0.018206104636192322, 0.040612708777189255, 0.005923568271100521, 0.025362733751535416, 0.03204848989844322, 0.04410448670387268, 0.015203220769762993, 0.029399000108242035], [0.008968722075223923, 0.02599222958087921, 0.039155732840299606, 0.1762494444847107, 0.03339399769902229, 0.012781763449311256, 0.10843217372894287, 0.013579173013567924, 0.02237488143146038, 0.1050070971250534, 0.016605760902166367, 0.04175742343068123, 0.031663551926612854, 0.02521584928035736, 0.15678606927394867, 0.012796624563634396, 0.027592243626713753, 0.038560569286346436, 0.03614412620663643, 0.01866336166858673, 0.04827921837568283], [0.003730217693373561, 0.027784138917922974, 0.04277249798178673, 0.195205420255661, 0.06443067640066147, 0.006377947051078081, 0.13018721342086792, 0.01667076162993908, 0.027313170954585075, 0.1216382384300232, 0.014251590706408024, 0.03143826499581337, 0.052750300616025925, 0.02734605222940445, 0.08142197132110596, 0.006466325372457504, 0.01990032009780407, 0.04287717863917351, 0.03810076415538788, 0.02696521207690239, 0.02237170934677124], [0.012586253695189953, 0.02895958162844181, 0.006137567572295666, 0.01841016486287117, 0.00977005623281002, 0.0026014752220362425, 0.013974927365779877, 0.005809693597257137, 0.10829891264438629, 0.011079580523073673, 0.02476726472377777, 0.005993847269564867, 0.008895007893443108, 0.16184352338314056, 0.00798081699758768, 0.004666475113481283, 0.006083181593567133, 0.5302127599716187, 0.008978552184998989, 0.006248913239687681, 0.016701530665159225], [0.00701802596449852, 0.015611681155860424, 0.026164444163441658, 0.007094294764101505, 0.00472265062853694, 0.008475112728774548, 0.14402776956558228, 0.0033811263274401426, 0.01172439195215702, 0.34875720739364624, 0.011885756626725197, 0.04103327542543411, 0.014352554455399513, 0.010149674490094185, 0.1220865324139595, 0.012663645669817924, 0.0072719501331448555, 0.012164552696049213, 0.04990384727716446, 0.017317481338977814, 0.12419407069683075], [0.0031276170630007982, 0.020057745277881622, 0.08579019457101822, 0.08196546882390976, 0.029490066692233086, 0.005668539088219404, 0.12075241655111313, 0.006344054825603962, 0.011372756212949753, 0.19466227293014526, 0.01694141887128353, 0.13304026424884796, 0.0383046418428421, 0.008733970113098621, 0.10724718123674393, 0.006086369976401329, 0.012027028948068619, 0.011755823157727718, 0.03023826703429222, 0.009085400030016899, 0.06730850040912628], [0.0015299661317840219, 0.020992733538150787, 0.08738923072814941, 0.26110973954200745, 0.07554440945386887, 0.006223268806934357, 0.12653787434101105, 0.013294228352606297, 0.01003643311560154, 0.08846960216760635, 0.01818208396434784, 0.08208035677671432, 0.03216587379574776, 0.005396091844886541, 0.10692384839057922, 0.005256179254502058, 0.02083776704967022, 0.004137895535677671, 0.01664816588163376, 0.0051786527037620544, 0.012065649032592773]], [[0.04187773913145065, 0.10854087769985199, 0.019247541204094887, 0.024676773697137833, 0.06382294744253159, 0.034573815762996674, 0.03348545730113983, 0.020466556772589684, 0.09493117779493332, 0.042191281914711, 0.06054343283176422, 0.017691534012556076, 0.04205707088112831, 0.09009655565023422, 0.11475782841444016, 0.002664131112396717, 0.015144804492592812, 0.08480027318000793, 0.023866476491093636, 0.006054320372641087, 0.0585094578564167], [0.08287028223276138, 0.11913120001554489, 0.049840059131383896, 0.053903061896562576, 0.005262378603219986, 0.0006351394113153219, 0.0005618100985884666, 0.002336065052077174, 0.0445893257856369, 0.020763766020536423, 0.1227237805724144, 0.33597755432128906, 0.022026628255844116, 0.03147284686565399, 0.007914766669273376, 0.00022757497208658606, 0.006268288940191269, 0.022109154611825943, 0.000618776073679328, 0.0002565847826190293, 0.07051090896129608], [0.0014402245869860053, 0.00043766351882368326, 0.043500661849975586, 1.1239050763833802e-05, 1.057360896083992e-05, 2.3326998643824481e-07, 1.7280270014907728e-07, 1.435931693549719e-07, 0.00031435638084076345, 3.424787792027928e-05, 0.0016585675766691566, 0.9512638449668884, 4.6978562750155106e-05, 0.00032799216569401324, 7.363492386502912e-06, 4.9302570914733224e-08, 1.6128818742799922e-06, 0.000448174454504624, 4.865833943767939e-06, 7.041863227641443e-06, 0.0004840900655835867], [0.1424258053302765, 0.01095130667090416, 0.0004300540022086352, 0.46228861808776855, 0.0007380414172075689, 1.9870337837346597e-06, 6.777029284421587e-07, 3.9751762415107805e-06, 0.03176269307732582, 0.0017761202761903405, 0.12354547530412674, 0.02427482232451439, 0.00794280506670475, 0.043184347450733185, 0.0003105461655650288, 5.896495167689864e-06, 0.00047159078530967236, 0.12644198536872864, 1.620425609871745e-05, 5.681893162545748e-05, 0.023370150476694107], [0.013040140271186829, 0.0013235080987215042, 0.00011202187306480482, 3.5477092751534656e-05, 0.14636367559432983, 3.7651795992132975e-06, 5.025839300287771e-07, 5.914771463721991e-06, 0.002872849814593792, 5.437206255010096e-06, 0.008335722610354424, 0.0016322270967066288, 0.8039476871490479, 0.008215752430260181, 6.222309139047866e-07, 4.4082717067794874e-06, 0.0002124909806298092, 0.007277997210621834, 2.0613408651115606e-06, 6.364736327668652e-05, 0.00654404703527689], [0.13321426510810852, 0.013497227802872658, 6.299281812971458e-05, 3.781656005230616e-06, 0.00032989494502544403, 0.4492034316062927, 0.0012636713217943907, 0.0004432315763551742, 0.08925458788871765, 7.012393325567245e-05, 0.009896306321024895, 0.00012706840061582625, 0.00044962274841964245, 0.11123506724834442, 0.0004054784949403256, 6.80524535709992e-05, 0.0002859426604118198, 0.1387881487607956, 2.5194685804308392e-05, 0.001809434499591589, 0.04956649988889694], [0.16525311768054962, 0.00917072594165802, 2.186633355449885e-05, 1.0166045285586733e-05, 0.0002513673098292202, 0.00236675888299942, 0.1946466863155365, 0.0013747990597039461, 0.16142764687538147, 0.00019143761892337352, 0.01072507631033659, 0.00027053680969402194, 0.00041494477773085237, 0.17308224737644196, 0.0002501932322047651, 1.2837072063121013e-05, 0.00018607426318340003, 0.23430714011192322, 9.172908175969496e-05, 0.0006135694566182792, 0.045331116765737534], [0.19571396708488464, 0.008103118278086185, 3.584875594242476e-05, 1.1739818546629976e-05, 0.0003089667879976332, 5.279098331811838e-05, 0.0010564427357167006, 0.3816095292568207, 0.041442349553108215, 0.00025614784681238234, 0.0064783343113958836, 0.00031725666485726833, 0.0008429711451753974, 0.029387865215539932, 1.314011387876235e-05, 4.62955649709329e-05, 0.27736696600914, 0.04128507152199745, 6.0848137763969135e-06, 0.00019074996816925704, 0.015474284999072552], [0.08423124998807907, 0.06191369891166687, 0.024460727348923683, 0.03847884014248848, 0.014715640805661678, 0.0077523160725831985, 0.02375010959804058, 0.01366423536092043, 0.10798084735870361, 0.15550509095191956, 0.05132110044360161, 0.031745024025440216, 0.01857144758105278, 0.08622090518474579, 0.037711210548877716, 0.0028965589590370655, 0.013314958661794662, 0.1427946537733078, 0.009486271999776363, 0.005172200966626406, 0.06831303238868713], [0.03040124662220478, 0.008371353149414062, 0.00021303072571754456, 5.942284406046383e-05, 6.184804806252941e-05, 1.653838626225479e-05, 1.3363759535423014e-05, 8.357465412700549e-05, 0.08512778580188751, 0.27775201201438904, 0.010207995772361755, 0.00032738762092776597, 0.00015730469021946192, 0.10898564010858536, 0.001060602953657508, 1.2943041838298086e-05, 0.0003239353245589882, 0.46523404121398926, 0.00039937609108164907, 0.00015211202844511718, 0.01103855948895216], [0.05999556928873062, 0.12491439282894135, 0.04302443191409111, 0.2708492875099182, 0.03767603635787964, 0.0024525204207748175, 0.0038450772408396006, 0.00319667998701334, 0.05729390308260918, 0.05324655771255493, 0.08708217740058899, 0.016094693914055824, 0.018258051946759224, 0.049045953899621964, 0.016195250675082207, 0.005990990903228521, 0.002598177408799529, 0.06292106211185455, 0.007411055266857147, 0.0029695825651288033, 0.07493850588798523], [0.00293306284584105, 0.0039395662024617195, 0.8811154961585999, 0.000329437549225986, 0.00020970731566194445, 3.5622813356894767e-06, 4.7703560994705185e-06, 1.0302377631887794e-05, 0.0015965189086273313, 0.0007146471180021763, 0.0011472710175439715, 0.1014646664261818, 3.9160233427537605e-05, 0.001329963793978095, 2.2979569621384144e-05, 1.307228444602515e-06, 1.9109895674773725e-06, 0.002514880383387208, 0.00029730514506809413, 0.0002610197989270091, 0.0020623384043574333], [0.008608374744653702, 0.004848164971917868, 0.00048069257172755897, 0.00036547472700476646, 0.5018513798713684, 2.2709264158038422e-05, 1.7632629578656633e-06, 9.252456220565364e-05, 0.007202821783721447, 3.7521353078773245e-05, 0.008729156106710434, 0.00036157749127596617, 0.41034042835235596, 0.020517520606517792, 9.187700015900191e-06, 9.710909216664732e-05, 0.0001405245129717514, 0.020577700808644295, 4.708633423433639e-05, 0.0003476471465546638, 0.015320600010454655], [0.07346013933420181, 0.04585127905011177, 0.012461520731449127, 0.022646412253379822, 0.020224152132868767, 0.02162579447031021, 0.005653552711009979, 0.006997798103839159, 0.08761589974164963, 0.0738334134221077, 0.042248375713825226, 0.013953856192529202, 0.02420583926141262, 0.12087269872426987, 0.05533641576766968, 0.014331705868244171, 0.010829351842403412, 0.21943339705467224, 0.021430520340800285, 0.014709538780152798, 0.09227827191352844], [0.007161385845392942, 0.001745407236739993, 6.643143569817767e-05, 2.4224493245128542e-05, 8.609777069068514e-06, 2.28569424507441e-05, 2.562246208981378e-06, 7.689377525821328e-07, 0.01701524294912815, 0.0010645611910149455, 0.005683765280991793, 0.0007679334376007318, 0.00010970087896566838, 0.08621133118867874, 0.6639496684074402, 1.3695220332010649e-05, 2.4593984562670812e-05, 0.21263669431209564, 0.0005698758759535849, 8.324546070070937e-05, 0.0028373843524605036], [0.022410864010453224, 0.0044164531864225864, 6.69347491566441e-06, 9.868757842923515e-06, 0.0001564752747071907, 3.7867703213123605e-05, 4.439050462679006e-05, 0.00014900960377417505, 0.05936609208583832, 0.00027081198641099036, 0.01988827809691429, 5.6398235756205395e-05, 0.0010891399579122663, 0.22623488306999207, 0.0003123034257441759, 0.24696603417396545, 0.002238208195194602, 0.3668496906757355, 7.350127270910889e-05, 0.0015942594036459923, 0.04782867804169655], [0.02506960742175579, 0.005446015857160091, 0.00036489006015472114, 0.0002843873226083815, 0.002339637605473399, 1.8797365555656143e-05, 4.916042962577194e-05, 0.11622598767280579, 0.04039126634597778, 0.002453004475682974, 0.005321436561644077, 0.0001008463223115541, 0.0008394176256842911, 0.07460927963256836, 0.0003095892898272723, 0.007828797213733196, 0.5593754053115845, 0.13990361988544464, 0.00014116254169493914, 0.0017325335647910833, 0.01719527319073677], [0.04061807319521904, 0.024543745443224907, 0.005344704259186983, 0.008573435246944427, 0.006303639616817236, 0.0036713285371661186, 0.002289143390953541, 0.0026622992008924484, 0.10787301510572433, 0.05401096120476723, 0.030741548165678978, 0.005969557445496321, 0.0072243427857756615, 0.15845218300819397, 0.024259116500616074, 0.0034995530731976032, 0.003093463135883212, 0.4125573933124542, 0.013724401593208313, 0.015391651540994644, 0.06919641047716141], [0.03753574192523956, 0.003337079891934991, 0.00011322473437758163, 1.1466874639154412e-05, 3.0132523534120992e-05, 2.8282924176892266e-05, 1.450944364478346e-05, 2.775138636934571e-05, 0.058044612407684326, 0.00049680529627949, 0.016969820484519005, 0.0019132229499518871, 0.00046190290595404804, 0.15322907269001007, 0.0007056392496451735, 3.728563751792535e-05, 0.0003629310813266784, 0.4902138411998749, 0.17090663313865662, 0.010048927739262581, 0.05551109090447426], [0.07093773782253265, 0.0019303039880469441, 0.00024647993268445134, 1.5437246474903077e-05, 9.289736772188917e-05, 0.00023116485681384802, 1.4698694940307178e-05, 0.00011279487807769328, 0.022960109636187553, 0.0014048644807189703, 0.008243483491241932, 0.0006101146573200822, 0.00025467865634709597, 0.05268729478120804, 0.00013196139479987323, 0.00040369597263634205, 0.0007110563456080854, 0.3126053512096405, 0.03057652711868286, 0.4546429514884949, 0.041186317801475525], [0.08426053822040558, 0.053293291479349136, 0.008134156465530396, 0.004259884357452393, 0.008820611983537674, 0.001704241381958127, 0.00011822126543847844, 0.00043954176362603903, 0.07800182700157166, 0.005837719887495041, 0.07582154124975204, 0.016293443739414215, 0.020345643162727356, 0.1477189064025879, 0.006644561421126127, 0.0006400694837793708, 0.002028616378083825, 0.292176216840744, 0.006995684001594782, 0.0027530440129339695, 0.18371225893497467]], [[0.04360625892877579, 0.006124915089458227, 0.003511342452839017, 0.0016182587714865804, 0.00271295802667737, 0.0016989720752462745, 0.0039999233558773994, 0.020997921004891396, 0.15646100044250488, 0.014668885618448257, 0.04648682102560997, 0.006944695021957159, 0.0024869637563824654, 0.12431588023900986, 0.0023128229659050703, 0.007924407720565796, 0.01878696121275425, 0.464738130569458, 0.01086537167429924, 0.013959166593849659, 0.04577835276722908], [0.05470261722803116, 0.08732476085424423, 0.033053088933229446, 0.0365331768989563, 0.016518499702215195, 0.0028799353167414665, 0.020094502717256546, 0.014340703375637531, 0.0997362732887268, 0.02180403098464012, 0.04393473267555237, 0.010814230889081955, 0.009946928359568119, 0.10825269669294357, 0.015327082946896553, 0.009171010926365852, 0.015902375802397728, 0.22014902532100677, 0.0025384079199284315, 0.004840334877371788, 0.17213550209999084], [0.06714267283678055, 0.16921119391918182, 0.0029906455893069506, 0.06881877034902573, 0.006885115057229996, 0.0018685145769268274, 0.04110877588391304, 0.020370084792375565, 0.06939885020256042, 0.024136751890182495, 0.011489610187709332, 0.00019808654906228185, 0.0035462675150483847, 0.07121825963258743, 0.01216744352132082, 0.011823456734418869, 0.02159418910741806, 0.23558957874774933, 0.002102224389091134, 0.0029717660509049892, 0.1553676426410675], [0.034076228737831116, 0.26052919030189514, 0.04758509248495102, 0.044633109122514725, 0.008685529232025146, 0.002669905312359333, 0.021316062659025192, 0.008961775340139866, 0.0768585279583931, 0.004103566519916058, 0.014858000911772251, 0.0013375900452956557, 0.001494802301749587, 0.05311143770813942, 0.0028666681610047817, 0.006019703112542629, 0.011725656688213348, 0.3009580671787262, 0.001443485147319734, 0.0021146205253899097, 0.09465095400810242], [0.010017208755016327, 0.25515127182006836, 0.22823816537857056, 0.23105569183826447, 0.038695432245731354, 0.00016636268992442638, 0.00948622077703476, 0.003528112545609474, 0.03226984664797783, 0.0032532759942114353, 0.009860740043222904, 0.005769300740212202, 0.0020359063055366278, 0.012031052261590958, 0.000599297636654228, 0.0010487916879355907, 0.002642314415425062, 0.05984814837574959, 0.0038889634888619184, 0.0006284590344876051, 0.08978550136089325], [0.01578136719763279, 0.1837863028049469, 0.13124260306358337, 0.08207470923662186, 0.07883847504854202, 0.0027741296216845512, 0.00868700910359621, 0.01068283524364233, 0.07626602053642273, 0.016794301569461823, 0.017199598252773285, 0.0045637888833880424, 0.005802201107144356, 0.050851404666900635, 0.0036754487082362175, 0.0012831231579184532, 0.002493245294317603, 0.1706317514181137, 0.005450043361634016, 0.008248784579336643, 0.12287284433841705], [0.01209109928458929, 0.12716342508792877, 0.21100226044654846, 0.24248524010181427, 0.10777537524700165, 0.026245759800076485, 0.0024083945900201797, 0.011596920900046825, 0.04256182536482811, 0.006835577078163624, 0.013010882772505283, 0.009557880461215973, 0.002893271157518029, 0.019135907292366028, 0.008245269767940044, 0.005301242228597403, 0.0032818324398249388, 0.05276762694120407, 0.0069317277520895, 0.0024211490526795387, 0.08628727495670319], [0.0075838807970285416, 0.15518754720687866, 0.12738005816936493, 0.14930681884288788, 0.2213657945394516, 0.01497851312160492, 0.03260090947151184, 0.007446405943483114, 0.044343966990709305, 0.005391483660787344, 0.01637989468872547, 0.005053183529525995, 0.005113024730235338, 0.036044634878635406, 0.004679430276155472, 0.0013546912232413888, 0.0009170488337986171, 0.05610489845275879, 0.002423978643491864, 0.007867584004998207, 0.09847612679004669], [0.012017892673611641, 0.11772178113460541, 0.08919362723827362, 0.1238323301076889, 0.2505117654800415, 0.010984228923916817, 0.05548832565546036, 0.03156958520412445, 0.08325439691543579, 0.01687079295516014, 0.02416764385998249, 0.007645231671631336, 0.00627204030752182, 0.026982424780726433, 0.0031811960507184267, 0.001311044441536069, 0.0026914167683571577, 0.04672500863671303, 0.0015710598090663552, 0.004837198182940483, 0.08317107707262039], [0.019943803548812866, 0.10927201807498932, 0.049091726541519165, 0.08400916308164597, 0.17315034568309784, 0.042873136699199677, 0.06481973826885223, 0.07413957267999649, 0.13912782073020935, 0.0251460038125515, 0.010277969762682915, 0.0016864868812263012, 0.0023048981092870235, 0.027684515342116356, 0.00542009761556983, 0.002069047186523676, 0.0025060030166059732, 0.06750082969665527, 0.001553863170556724, 0.0019167236750945449, 0.09550618380308151], [0.004496913403272629, 0.06460282951593399, 0.03879553824663162, 0.09980084747076035, 0.24270138144493103, 0.003361326176673174, 0.093289315700531, 0.05421238765120506, 0.1785515546798706, 0.0458747074007988, 0.07423029839992523, 0.019034648314118385, 0.009655432775616646, 0.013655568473041058, 0.0014894594205543399, 0.0007578672957606614, 0.0025408919900655746, 0.013281073421239853, 0.00036943130544386804, 0.0018911085790023208, 0.037407286465168], [0.002332305535674095, 0.03917103260755539, 0.005711807869374752, 0.08553019911050797, 0.1273232400417328, 0.0017857729690149426, 0.16622591018676758, 0.0744350329041481, 0.21649770438671112, 0.11658114939928055, 0.10632458329200745, 0.004888688679784536, 0.00904137548059225, 0.012169340625405312, 0.0028688451275229454, 0.0011893102200701833, 0.0024003589060157537, 0.011060705408453941, 0.00022843587794341147, 0.0008740889024920762, 0.013360104523599148], [0.0016026701778173447, 0.020781027153134346, 0.04228288307785988, 0.03154629096388817, 0.050397735089063644, 0.00018141695181839168, 0.06117222458124161, 0.024155961349606514, 0.11315158009529114, 0.07575526833534241, 0.2096622735261917, 0.32711219787597656, 0.013361572287976742, 0.00890413485467434, 0.0005112841608934104, 0.000737977446988225, 0.001415609149262309, 0.008971613831818104, 0.000583105138503015, 0.00014472001930698752, 0.0075684478506445885], [0.015137073583900928, 0.04274927079677582, 0.0549028106033802, 0.029836775735020638, 0.026644615456461906, 0.002605535788461566, 0.034538380801677704, 0.02951415255665779, 0.12559859454631805, 0.06752718240022659, 0.20200182497501373, 0.15502691268920898, 0.031857218593358994, 0.05488859489560127, 0.009494728408753872, 0.00443258136510849, 0.008777090348303318, 0.052199676632881165, 0.004784666933119297, 0.007333863992244005, 0.04014848172664642], [0.009516969323158264, 0.041099220514297485, 0.06735232472419739, 0.0324740931391716, 0.01894690841436386, 0.002101084915921092, 0.06395696103572845, 0.027959072962403297, 0.0974881500005722, 0.055825378745794296, 0.13274873793125153, 0.2398865967988968, 0.041357267647981644, 0.07025934755802155, 0.007692416198551655, 0.004628471564501524, 0.00895143486559391, 0.046785686165094376, 0.0023142474237829447, 0.0020973903592675924, 0.02655821479856968], [0.015769753605127335, 0.024646181613206863, 0.021945897489786148, 0.013544997200369835, 0.016436398029327393, 0.0025349014904350042, 0.03594975173473358, 0.022595210000872612, 0.07989752292633057, 0.04862825572490692, 0.14664918184280396, 0.18973226845264435, 0.10822827368974686, 0.11992202699184418, 0.01830991916358471, 0.008715781383216381, 0.013967626728117466, 0.06402816623449326, 0.0085850078612566, 0.0055725593119859695, 0.03434028476476669], [0.007188057992607355, 0.01834774576127529, 0.014684717170894146, 0.012248297221958637, 0.029035048559308052, 0.0019030284602195024, 0.023294717073440552, 0.012397924438118935, 0.09128624200820923, 0.019522571936249733, 0.17460216581821442, 0.14127279818058014, 0.12199918180704117, 0.19484837353229523, 0.02573738805949688, 0.006223191972821951, 0.003186635673046112, 0.07129266113042831, 0.0034928671084344387, 0.004354005213826895, 0.023082438856363297], [0.03648005425930023, 0.027323780581355095, 0.014363209716975689, 0.016315938904881477, 0.014476504176855087, 0.003977050073444843, 0.016159262508153915, 0.025670435279607773, 0.12520769238471985, 0.03976297378540039, 0.06817204505205154, 0.026986759155988693, 0.022645406424999237, 0.1524699628353119, 0.019396334886550903, 0.014800658449530602, 0.02300328016281128, 0.2550712823867798, 0.013442551717162132, 0.014602000825107098, 0.06967281550168991], [0.007940312847495079, 0.01180389616638422, 0.006490948610007763, 0.002123521640896797, 0.005184935871511698, 0.0014816458569839597, 0.020498603582382202, 0.04340030997991562, 0.031689196825027466, 0.010827203281223774, 0.10400768369436264, 0.11480586230754852, 0.19401520490646362, 0.0945126861333847, 0.09568638354539871, 0.053094375878572464, 0.14171259105205536, 0.024043282493948936, 0.004904919303953648, 0.010824335739016533, 0.020952222868800163], [0.005353825632482767, 0.016702774912118912, 0.026546960696578026, 0.0072600687853991985, 0.009801555424928665, 0.0006218455382622778, 0.009964767843484879, 0.02041361853480339, 0.025371402502059937, 0.013125002384185791, 0.09140782803297043, 0.31045880913734436, 0.2299281358718872, 0.04281308874487877, 0.06407632678747177, 0.016536418348550797, 0.06192644685506821, 0.014774322509765625, 0.005228393245488405, 0.002837382024154067, 0.024850990623235703], [0.01725033111870289, 0.024567926302552223, 0.01023517269641161, 0.009585468098521233, 0.014091452583670616, 0.00129229505546391, 0.007966353558003902, 0.019688157364726067, 0.13194967806339264, 0.010441655293107033, 0.26790234446525574, 0.08906540274620056, 0.04868122935295105, 0.10287640988826752, 0.017245454713702202, 0.007317556533962488, 0.03013385459780693, 0.08340989798307419, 0.010179059579968452, 0.025130363181233406, 0.0709899365901947]], [[0.012233116663992405, 0.012022720649838448, 0.008950948715209961, 0.016903672367334366, 0.02329319342970848, 0.00398017605766654, 0.04778870567679405, 0.07443762570619583, 0.1793835610151291, 0.10488691180944443, 0.09575751423835754, 0.020108414813876152, 0.021922964602708817, 0.06584597378969193, 0.007394224870949984, 0.01101719494909048, 0.017908485606312752, 0.15588417649269104, 0.032260023057460785, 0.027240503579378128, 0.060779936611652374], [0.008334547281265259, 0.12226886302232742, 0.06948399543762207, 0.01780247502028942, 0.0036086845211684704, 0.0004455518501345068, 0.003174674930050969, 0.0014386355178430676, 0.034739263355731964, 0.00428919680416584, 0.02372564561665058, 0.01853770762681961, 0.005260303150862455, 0.0623442716896534, 0.02095220610499382, 0.0070432634092867374, 0.013447975739836693, 0.3140282928943634, 0.0009176936000585556, 0.0007005060324445367, 0.26745620369911194], [0.0013951302971690893, 0.3700965940952301, 0.19151175022125244, 0.015727192163467407, 0.0031908852979540825, 0.00020766536181326956, 0.0017955527873709798, 0.003832171205431223, 0.005595117341727018, 0.0038978869561105967, 0.0020829690620303154, 0.00048132226220332086, 0.0019094010349363089, 0.006253524217754602, 0.0009285096894018352, 0.0019372531678527594, 0.011890247464179993, 0.07194997370243073, 0.0003156910534016788, 0.00042887713061645627, 0.3045722544193268], [0.0013267556205391884, 0.04714074730873108, 0.8188881278038025, 0.027101559564471245, 0.0030346603598445654, 0.00022627392900176346, 0.00038739474257454276, 0.00015322935360018164, 0.005644072312861681, 0.00028109870618209243, 0.001329920720309019, 0.0027717463672161102, 0.0001645793381612748, 0.006107357796281576, 0.00017568703333381563, 3.5023655073018745e-05, 9.992862032959238e-05, 0.07480815798044205, 0.000544437556527555, 0.00029597143293358386, 0.009483346715569496], [7.373584958259016e-05, 0.007310023531317711, 0.929744303226471, 0.049651116132736206, 0.005756736267358065, 3.637414920376614e-05, 3.686291165649891e-05, 2.584733192634303e-05, 0.0003038410213775933, 5.870235327165574e-05, 0.00011467524018371478, 0.0007298307027667761, 1.792339753592387e-05, 0.00028852178365923464, 1.1516453014337458e-05, 4.083281510247616e-06, 1.7809154087444767e-05, 0.002294851467013359, 3.0295317628770135e-05, 8.157113916240633e-05, 0.003411379409953952], [0.0035348497331142426, 0.0170057974755764, 0.10064003616571426, 0.22778013348579407, 0.3406214416027069, 0.004097807686775923, 0.002189499791711569, 0.0006546233198605478, 0.023056035861372948, 0.0015577498124912381, 0.004267510026693344, 0.0035873085726052523, 0.0011085389414802194, 0.0687289834022522, 0.0023546197917312384, 0.00024978630244731903, 0.00012084141053492203, 0.17507106065750122, 0.0022110517602413893, 0.0019061402417719364, 0.019256282597780228], [0.0027628259267657995, 0.0068204328417778015, 0.07421642541885376, 0.17143352329730988, 0.5949746966362, 0.005045250989496708, 0.001495140022598207, 0.0015413266373798251, 0.013337054289877415, 0.0020768626127392054, 0.0027390033937990665, 0.01572900079190731, 0.0008538795518688858, 0.02288815565407276, 0.0005169401993043721, 7.54365319153294e-05, 0.000295966281555593, 0.06926580518484116, 0.00014697913138661534, 0.00021109449153300375, 0.013574201613664627], [0.001334707485511899, 0.01534874178469181, 0.06463216990232468, 0.09213493019342422, 0.5370194315910339, 0.039375659078359604, 0.07221022993326187, 0.01288088783621788, 0.047778550535440445, 0.004481347743421793, 0.0025947715621441603, 0.0023165675811469555, 0.0007823703926987946, 0.048107635229825974, 0.002461215713992715, 6.548660894623026e-05, 9.532181866234168e-05, 0.03980503976345062, 0.0003029942454304546, 0.0004482816148083657, 0.01582365855574608], [0.0025485006626695395, 0.004235056694597006, 0.011432132683694363, 0.03214691951870918, 0.08307420462369919, 0.02300960384309292, 0.5544336438179016, 0.08289032429456711, 0.11626200377941132, 0.02008535899221897, 0.0036549388896673918, 0.002204090589657426, 0.0011541011044755578, 0.01660306751728058, 0.004366209730505943, 0.0011940662516281009, 0.0007440876797772944, 0.031048260629177094, 0.0004948118003085256, 0.0003794814401771873, 0.008039101958274841], [0.0005656488356180489, 0.0005458593368530273, 0.0006381093407981098, 0.003085526404902339, 0.008063482120633125, 0.022059602662920952, 0.5921773314476013, 0.24370819330215454, 0.08830171823501587, 0.025865240022540092, 0.0011480384273454547, 0.00016377879364881665, 0.000289704417809844, 0.0026131237391382456, 0.00171019381377846, 0.0010285808239132166, 0.0006448118947446346, 0.004665673244744539, 0.0001093634418793954, 7.71625418565236e-05, 0.0025388365611433983], [0.0005959423142485321, 0.0017331988783553243, 0.009087701328098774, 0.007739921100437641, 0.016299903392791748, 0.0029606723692268133, 0.05348759889602661, 0.12050069868564606, 0.4763863980770111, 0.05582296848297119, 0.1077922061085701, 0.0610123872756958, 0.0030832206830382347, 0.01759561337530613, 0.0031291053164750338, 0.0045341807417571545, 0.0049304720014333725, 0.04987458884716034, 0.0004097337950952351, 0.00040233336039818823, 0.002621238585561514], [0.0003527297521941364, 0.0011379466159269214, 0.0033321278169751167, 0.001770822680555284, 0.003210983006283641, 0.0004174889181740582, 0.014037595130503178, 0.023329639807343483, 0.10076780617237091, 0.22997364401817322, 0.4547033905982971, 0.08214344084262848, 0.023335114121437073, 0.012146481312811375, 0.0032927170395851135, 0.009464566595852375, 0.005819694604724646, 0.025196721777319908, 0.0005693733692169189, 0.000415908289141953, 0.004581931512802839], [5.0759648729581386e-05, 0.00014681770699098706, 0.002355049829930067, 0.0006241590599529445, 6.103701161919162e-05, 3.486148489173502e-05, 9.808216418605298e-05, 0.00016392121324315667, 0.0028736041858792305, 0.0015559324529021978, 0.08861412853002548, 0.8859448432922363, 0.006129019428044558, 0.005199793726205826, 0.0008598577114753425, 0.0002601168816909194, 0.0005488474271260202, 0.004013477824628353, 8.465579594485462e-05, 4.980236917617731e-05, 0.0003311024629510939], [0.008753284811973572, 0.00543303694576025, 0.005658489186316729, 0.012048013508319855, 0.005817237310111523, 0.00479109026491642, 0.0072998045943677425, 0.00725273322314024, 0.03494219109416008, 0.013949737884104252, 0.11089670658111572, 0.2229374349117279, 0.19800886511802673, 0.165829598903656, 0.05405910685658455, 0.011653362773358822, 0.009314712136983871, 0.08423999696969986, 0.009730298072099686, 0.007039048708975315, 0.02034514769911766], [0.0011285432847216725, 0.00037864281330257654, 0.0011287274537608027, 0.0033942279405891895, 0.0021187872625887394, 0.004272814840078354, 0.0019202048424631357, 0.002451172098517418, 0.007352993357926607, 0.0012655899627134204, 0.019678015261888504, 0.09885263442993164, 0.5278106927871704, 0.18427787721157074, 0.08053818345069885, 0.025132467970252037, 0.009525618515908718, 0.02434835396707058, 0.00134950946085155, 0.0007870710105635226, 0.0022878069430589676], [0.0008912089979276061, 0.0007529769791290164, 0.002427992643788457, 0.0016756400000303984, 0.0028889328241348267, 0.0003044619516003877, 0.0010107189882546663, 0.009144757874310017, 0.009504291228950024, 0.0059563396498560905, 0.013464801013469696, 0.04168880358338356, 0.5163609385490417, 0.23222485184669495, 0.06191286817193031, 0.019153060391545296, 0.04645196720957756, 0.02002972736954689, 0.0011384981917217374, 0.0034963958896696568, 0.009520702995359898], [0.00027651115669868886, 0.00047909916611388326, 0.0003689676814246923, 0.0008330672862939537, 0.0013494662707671523, 0.0011130719212815166, 0.005857388023287058, 0.002365035004913807, 0.005410945508629084, 0.0020890538580715656, 0.009568915702402592, 0.00781072536483407, 0.21731945872306824, 0.11806651204824448, 0.5791561007499695, 0.024877334013581276, 0.009366553276777267, 0.006671108305454254, 0.0019225372234359384, 0.0019618989899754524, 0.0031362371519207954], [0.01318463496863842, 0.011311138980090618, 0.006189185194671154, 0.01260471623390913, 0.005661552771925926, 0.005970664322376251, 0.029517898336052895, 0.009251740761101246, 0.08710988610982895, 0.020795952528715134, 0.03775566443800926, 0.01735326647758484, 0.021004866808652878, 0.15032775700092316, 0.1402938961982727, 0.04920541122555733, 0.03636237233877182, 0.2688978612422943, 0.03593682870268822, 0.015002334490418434, 0.026262326166033745], [0.0002961579884868115, 0.00044968019938096404, 0.00034615283948369324, 9.835289529291913e-05, 3.391919381101616e-05, 0.00019286538008600473, 0.001578853465616703, 0.0004060916544403881, 0.0010635614162310958, 0.0007539683138020337, 0.001785417553037405, 0.0028220610693097115, 0.022690868005156517, 0.01956409215927124, 0.3669120967388153, 0.17882481217384338, 0.33532851934432983, 0.02408241294324398, 0.0248851478099823, 0.006809367798268795, 0.011075633578002453], [0.0003214087337255478, 0.0015721718082204461, 0.0009143591742031276, 0.0003048975777346641, 9.656000474933535e-05, 0.0002567447372712195, 0.001820152741856873, 0.0008498229435645044, 0.0010599172674119473, 0.0012831570347771049, 0.002946456428617239, 0.004792149178683758, 0.07627934217453003, 0.015618648380041122, 0.296640008687973, 0.1059357076883316, 0.34101352095603943, 0.012287472374737263, 0.08428413420915604, 0.025331109762191772, 0.026392238214612007], [0.002147838706150651, 0.004440922290086746, 0.0004401041369419545, 0.0014601097209379077, 0.00045678651076741517, 0.0004049274721182883, 0.0009981213370338082, 0.0019844474736601114, 0.07084878534078598, 0.0024444495793431997, 0.13502366840839386, 0.018087871372699738, 0.02322734147310257, 0.19946414232254028, 0.009608139283955097, 0.020220691338181496, 0.024328086525201797, 0.4313358664512634, 0.028192155063152313, 0.015290135517716408, 0.0095954155549407]], [[0.01836521364748478, 0.03140346333384514, 0.1190655380487442, 0.12311306595802307, 0.055971160531044006, 0.0038287206552922726, 0.01029675081372261, 0.018538320437073708, 0.009184789843857288, 0.1739863008260727, 0.025794239714741707, 0.08149625360965729, 0.07633102685213089, 0.005665204953402281, 0.06398870795965195, 0.003950732294470072, 0.02071782946586609, 0.005663330666720867, 0.04785209149122238, 0.025789255276322365, 0.07899817079305649], [0.00478488439694047, 0.1362495720386505, 0.04131654277443886, 0.014247268438339233, 0.020192548632621765, 0.010749511420726776, 0.003151609795168042, 0.03153283894062042, 0.1700625866651535, 0.01724914088845253, 0.11612506210803986, 0.02946394309401512, 0.01668515056371689, 0.12428952008485794, 0.0036692656576633453, 0.006565012037754059, 0.014217427000403404, 0.18956027925014496, 0.002303713234141469, 0.0035422162618488073, 0.044041890650987625], [0.008689933456480503, 0.16905862092971802, 0.046605996787548065, 0.03071513958275318, 0.018192920833826065, 0.008992429822683334, 0.002581171691417694, 0.02523788996040821, 0.14798864722251892, 0.009520729072391987, 0.06972304731607437, 0.012760313227772713, 0.00949800293892622, 0.1072051152586937, 0.00362772261723876, 0.00696752592921257, 0.01782815344631672, 0.2558940351009369, 0.0021755481138825417, 0.003386325901374221, 0.043350737541913986], [0.006553259212523699, 0.22277018427848816, 0.04677066579461098, 0.044863998889923096, 0.02288530394434929, 0.009965438395738602, 0.0020314757712185383, 0.048387158662080765, 0.08731114119291306, 0.007518887985497713, 0.15958532691001892, 0.017117852345108986, 0.011029480025172234, 0.07824612408876419, 0.002780418610200286, 0.012790382839739323, 0.04435843601822853, 0.100896917283535, 0.0028405864723026752, 0.013758279383182526, 0.05753862485289574], [0.004588669631630182, 0.0687456876039505, 0.01577901467680931, 0.019219644367694855, 0.10828698426485062, 0.019857309758663177, 0.001787926652468741, 0.04852703586220741, 0.16256700456142426, 0.006326163187623024, 0.1431884914636612, 0.009135792963206768, 0.04267173260450363, 0.0933866947889328, 0.0032569849863648415, 0.007400135044008493, 0.02701306715607643, 0.15998169779777527, 0.0017211827216669917, 0.005308238789439201, 0.05125046521425247], [0.0070078205317258835, 0.0459628701210022, 0.013598768971860409, 0.003479791572317481, 0.033849380910396576, 0.1423664093017578, 0.0209053922444582, 0.0926058441400528, 0.10855043679475784, 0.005452691577374935, 0.020753871649503708, 0.007747908588498831, 0.015944091603159904, 0.14908777177333832, 0.004483912605792284, 0.09447764605283737, 0.03567992150783539, 0.16067127883434296, 0.0038647714536637068, 0.004775345791131258, 0.02873399294912815], [0.008985416032373905, 0.03871938958764076, 0.015374826267361641, 0.004880775697529316, 0.023543093353509903, 0.06897605210542679, 0.020322758704423904, 0.06410686671733856, 0.15458936989307404, 0.03975203260779381, 0.036341357976198196, 0.01494129840284586, 0.017175162211060524, 0.13416650891304016, 0.002952458569779992, 0.01711486093699932, 0.016303889453411102, 0.23480971157550812, 0.007458928041160107, 0.012474552728235722, 0.06701068580150604], [0.0035191457718610764, 0.03954868018627167, 0.0036658942699432373, 0.002489779843017459, 0.013935509137809277, 0.015987509861588478, 0.0027536838315427303, 0.10567834228277206, 0.2355644702911377, 0.008856816217303276, 0.08066079020500183, 0.00474138930439949, 0.013647780753672123, 0.16785457730293274, 0.0007214461802504957, 0.00671711890026927, 0.015252943150699139, 0.23939870297908783, 0.0018665416864678264, 0.00958251766860485, 0.02755635604262352], [0.0060708411037921906, 0.05283086374402046, 0.029351603239774704, 0.015447698533535004, 0.03570213541388512, 0.021606190130114555, 0.005511703435331583, 0.04320140555500984, 0.18117116391658783, 0.023604055866599083, 0.09929870069026947, 0.03948422521352768, 0.03623856231570244, 0.13599233329296112, 0.004853704944252968, 0.010580044239759445, 0.019047515466809273, 0.18750232458114624, 0.005026781000196934, 0.014478710480034351, 0.032999441027641296], [0.007046413142234087, 0.05975629389286041, 0.013354946859180927, 0.00540364533662796, 0.01672985777258873, 0.01955338381230831, 0.00655003497377038, 0.06801613420248032, 0.1768822818994522, 0.013236696831882, 0.09832422435283661, 0.013129896484315395, 0.022365085780620575, 0.15444029867649078, 0.0034137668553739786, 0.015858639031648636, 0.03135977312922478, 0.18998029828071594, 0.006985482294112444, 0.02162780612707138, 0.05598511919379234], [0.004677850753068924, 0.06742879003286362, 0.027743788436055183, 0.01715446077287197, 0.02693481557071209, 0.010787082836031914, 0.0020546859595924616, 0.029933976009488106, 0.15430572628974915, 0.020319370552897453, 0.21022623777389526, 0.04861505329608917, 0.0362919457256794, 0.11830426007509232, 0.00597189599648118, 0.010748926550149918, 0.02385174110531807, 0.1373102217912674, 0.003436732105910778, 0.01014057919383049, 0.03376182168722153], [0.007214718498289585, 0.07111834734678268, 0.027012908831238747, 0.03653513267636299, 0.021765682846307755, 0.006789428647607565, 0.00220874254591763, 0.01885491982102394, 0.12588493525981903, 0.011312175542116165, 0.14892302453517914, 0.033099573105573654, 0.04849507287144661, 0.12869219481945038, 0.008502084761857986, 0.009183160029351711, 0.03259526938199997, 0.1877499222755432, 0.0018305506091564894, 0.009910766035318375, 0.06232139468193054], [0.005790740717202425, 0.038877133280038834, 0.011857862584292889, 0.014369772747159004, 0.07164926826953888, 0.00865144096314907, 0.0012552198022603989, 0.01826922968029976, 0.08581889420747757, 0.006976969540119171, 0.16287092864513397, 0.017233019694685936, 0.1676345318555832, 0.09714116901159286, 0.00975191593170166, 0.013162742368876934, 0.06159104034304619, 0.11255067586898804, 0.002612049225717783, 0.01220841333270073, 0.07972707599401474], [0.0076858229003846645, 0.04919923469424248, 0.034584298729896545, 0.016187569126486778, 0.030651215463876724, 0.02705739252269268, 0.0059479461051523685, 0.03399328887462616, 0.10390407592058182, 0.013660716824233532, 0.06823617219924927, 0.049839142709970474, 0.053723715245723724, 0.16382530331611633, 0.011831555515527725, 0.032832324504852295, 0.05320011451840401, 0.17319250106811523, 0.005888878367841244, 0.02684125490486622, 0.03771739825606346], [0.009602025151252747, 0.05312377214431763, 0.010899522341787815, 0.005089904181659222, 0.009953122586011887, 0.02409743145108223, 0.0018663799855858088, 0.031333982944488525, 0.07354184985160828, 0.0038022398948669434, 0.05664614588022232, 0.012252743355929852, 0.02604549191892147, 0.19462423026561737, 0.007754098623991013, 0.06625334173440933, 0.12307259440422058, 0.18344199657440186, 0.00515344925224781, 0.02934761717915535, 0.07209813594818115], [0.013382391072809696, 0.037682272493839264, 0.009839164093136787, 0.0017047433648258448, 0.006023679859936237, 0.03848383203148842, 0.001291828230023384, 0.04893270134925842, 0.04483318701386452, 0.001820067991502583, 0.03081178478896618, 0.008039706386625767, 0.012652150355279446, 0.131998211145401, 0.003232246730476618, 0.2875955104827881, 0.1684119552373886, 0.09387966990470886, 0.003897513961419463, 0.03182058036327362, 0.0236667487770319], [0.019377240911126137, 0.03222193196415901, 0.006371952593326569, 0.004671165253967047, 0.012725885026156902, 0.01933121681213379, 0.0013495148159563541, 0.07037343084812164, 0.07882051169872284, 0.006245866883546114, 0.05138682946562767, 0.00652973772957921, 0.028504854068160057, 0.15418200194835663, 0.004336492624133825, 0.05638333782553673, 0.1294040083885193, 0.17642737925052643, 0.009317186661064625, 0.07868078351020813, 0.05335872620344162], [0.010745900683104992, 0.05064178630709648, 0.0392741858959198, 0.0218986626714468, 0.020101051777601242, 0.011608627624809742, 0.005724135786294937, 0.019669899716973305, 0.11492761224508286, 0.013510448858141899, 0.0445285327732563, 0.047150786966085434, 0.03005465492606163, 0.16233770549297333, 0.008799603208899498, 0.012824886478483677, 0.025476202368736267, 0.304952472448349, 0.006407230626791716, 0.018511319532990456, 0.030854323878884315], [0.009019073098897934, 0.009005270898342133, 0.0025864902418106794, 0.0028965147212147713, 0.001718497253023088, 0.006903947331011295, 0.001248396118171513, 0.00561499735340476, 0.06220453977584839, 0.002627086127176881, 0.01976553164422512, 0.003992388490587473, 0.010352072305977345, 0.16275277733802795, 0.011371736414730549, 0.0149433184415102, 0.027040086686611176, 0.3969968557357788, 0.010486360639333725, 0.12934936583042145, 0.10912469774484634], [0.008052743971347809, 0.011747080832719803, 0.004459354095160961, 0.007162906229496002, 0.005400032736361027, 0.0039668637327849865, 0.0007506198599003255, 0.008052590303122997, 0.07317732274532318, 0.004619485232979059, 0.03313793987035751, 0.007904556579887867, 0.01857941225171089, 0.16625310480594635, 0.0055200327187776566, 0.008922788314521313, 0.038387179374694824, 0.3535096049308777, 0.00513433525338769, 0.1454142928123474, 0.08984776586294174], [0.009238108061254025, 0.03827868029475212, 0.04640255495905876, 0.011598304845392704, 0.008353104814887047, 0.004388542380183935, 0.00811777450144291, 0.005359798204153776, 0.10198186337947845, 0.031798046082258224, 0.026273593306541443, 0.059429626911878586, 0.014296155422925949, 0.115582175552845, 0.013799150474369526, 0.0030283627565950155, 0.009067676030099392, 0.393801748752594, 0.011147621087729931, 0.0033009848557412624, 0.08475615829229355]], [[0.015538892708718777, 0.07565301656723022, 0.004618655424565077, 0.013681935146450996, 0.004081108141690493, 0.0006741241086274385, 0.0015279321232810616, 0.010432532988488674, 0.08316739648580551, 0.017407087609171867, 0.11991088092327118, 0.009652378968894482, 0.013264319859445095, 0.01928529515862465, 0.0010679684346541762, 0.0004531981539912522, 0.005466407630592585, 0.07418208569288254, 0.008497077971696854, 0.006706319749355316, 0.5147313475608826], [0.013157709501683712, 0.05832101032137871, 0.005786613095551729, 0.01708444580435753, 0.020888622850179672, 0.002478644484654069, 0.0033891461789608, 0.007158856373280287, 0.12605921924114227, 0.014513679780066013, 0.24699857831001282, 0.021887879818677902, 0.05864669382572174, 0.036104392260313034, 0.011816121637821198, 0.001914110966026783, 0.00735499756410718, 0.08576695621013641, 0.007338642608374357, 0.010494090616703033, 0.24283966422080994], [0.009620125405490398, 0.05102265253663063, 0.0035274934489279985, 0.028035977855324745, 0.03275490552186966, 0.0019049509428441525, 0.002640813123434782, 0.00739556597545743, 0.14353451132774353, 0.05457306653261185, 0.18402068316936493, 0.01597253978252411, 0.05567065626382828, 0.09026984870433807, 0.01485834363847971, 0.0023865734692662954, 0.006748873274773359, 0.24155937135219574, 0.0059127407148480415, 0.009743936359882355, 0.037846412509679794], [0.004894034005701542, 0.10058905184268951, 0.005426798947155476, 0.02038649097084999, 0.01864301785826683, 0.0010145582491531968, 0.0004187143058516085, 0.006617306265980005, 0.19658322632312775, 0.009038357064127922, 0.09560598433017731, 0.010541694238781929, 0.02501760795712471, 0.09659499675035477, 0.002087240107357502, 0.0010433547431603074, 0.0060391915030777454, 0.35879677534103394, 0.0017693922854959965, 0.00398040609434247, 0.03491191938519478], [0.00825309194624424, 0.03455448895692825, 0.0028336544055491686, 0.010589208453893661, 0.01758115366101265, 0.0017777299508452415, 0.0013220853870734572, 0.009559872560203075, 0.17366863787174225, 0.014696880243718624, 0.056579675525426865, 0.005506173707544804, 0.018171794712543488, 0.09521294385194778, 0.0010612698970362544, 0.000859394553117454, 0.0052123526111245155, 0.49437275528907776, 0.003099162597209215, 0.0095509709790349, 0.03553656488656998], [0.020029515027999878, 0.03410184383392334, 0.01613140106201172, 0.007271159440279007, 0.009585562162101269, 0.006152968388050795, 0.014125782065093517, 0.010477914474904537, 0.1064923033118248, 0.015733342617750168, 0.04215722158551216, 0.019453823566436768, 0.009492517448961735, 0.1284083127975464, 0.003744814544916153, 0.010734496638178825, 0.008648610673844814, 0.40807005763053894, 0.005929857958108187, 0.015906857326626778, 0.10735169053077698], [0.030071092769503593, 0.030542345717549324, 0.02166021056473255, 0.028727630153298378, 0.019240587949752808, 0.018671132624149323, 0.05846230685710907, 0.03847987577319145, 0.08529708534479141, 0.1279582381248474, 0.05252455174922943, 0.06089315563440323, 0.03338683396577835, 0.08412428945302963, 0.018181540071964264, 0.02422918751835823, 0.03590277582406998, 0.15015870332717896, 0.019827233627438545, 0.024097183719277382, 0.03756405785679817], [0.024639150127768517, 0.09494441002607346, 0.015804043039679527, 0.023561524227261543, 0.013929048553109169, 0.004072351381182671, 0.023847457021474838, 0.007355894893407822, 0.12367784231901169, 0.044431500136852264, 0.10584503412246704, 0.025184283033013344, 0.020874319598078728, 0.06985174864530563, 0.006582969333976507, 0.008318898268043995, 0.005338761489838362, 0.23894980549812317, 0.01262882724404335, 0.03278695046901703, 0.09737522155046463], [0.03653902933001518, 0.08552542328834534, 0.02544133923947811, 0.02513865754008293, 0.02392788790166378, 0.005983961280435324, 0.017375972121953964, 0.015629848465323448, 0.07930731773376465, 0.03114624321460724, 0.09540116041898727, 0.02844170480966568, 0.04142969474196434, 0.05131594091653824, 0.022126682102680206, 0.008778201416134834, 0.016585420817136765, 0.1123092919588089, 0.015138896182179451, 0.02196086198091507, 0.2404964119195938], [0.049606990069150925, 0.03563119098544121, 0.012765822000801563, 0.02808402106165886, 0.011089478619396687, 0.005079227965325117, 0.037283457815647125, 0.006580266170203686, 0.08421537280082703, 0.13703544437885284, 0.04594704136252403, 0.03733436018228531, 0.025303823873400688, 0.06933244317770004, 0.008979796431958675, 0.005672527477145195, 0.010358781553804874, 0.24229584634304047, 0.02706023119390011, 0.019528936594724655, 0.10081487894058228], [0.0318150594830513, 0.07243833690881729, 0.006456475704908371, 0.019913116469979286, 0.009440464898943901, 0.0019886766094714403, 0.001918000285513699, 0.01285638939589262, 0.08729427307844162, 0.007905412465333939, 0.11582785844802856, 0.00951975118368864, 0.022023411467671394, 0.05174379050731659, 0.004986073821783066, 0.0030043846927583218, 0.010350452736020088, 0.16492897272109985, 0.005513086449354887, 0.009919287636876106, 0.35015666484832764], [0.0388048030436039, 0.06085884943604469, 0.005984368734061718, 0.03243562579154968, 0.01266289409250021, 0.003823961364105344, 0.003469897899776697, 0.01197939831763506, 0.09603044390678406, 0.03340284898877144, 0.06829607486724854, 0.007369887083768845, 0.021243805065751076, 0.12031955271959305, 0.015741290524601936, 0.007541355676949024, 0.009568819776177406, 0.32130691409111023, 0.007575047668069601, 0.016706567257642746, 0.1048775166273117], [0.018115807324647903, 0.05544488504528999, 0.009198473766446114, 0.026633363217115402, 0.015207775868475437, 0.007661120966076851, 0.001956232590600848, 0.01752837561070919, 0.12076982855796814, 0.023055585101246834, 0.0391831137239933, 0.009770073927938938, 0.020138513296842575, 0.1114070937037468, 0.004443906247615814, 0.004132851958274841, 0.013860751874744892, 0.3651745319366455, 0.02468787506222725, 0.030010633170604706, 0.08161932229995728], [0.03758951649069786, 0.06376757472753525, 0.024469051510095596, 0.025958027690649033, 0.020260978490114212, 0.012578245252370834, 0.018422750756144524, 0.03222358226776123, 0.10017827153205872, 0.0302366241812706, 0.05836523696780205, 0.022785766050219536, 0.028925860300660133, 0.08424095809459686, 0.02526772767305374, 0.01399404089897871, 0.0354766808450222, 0.19336120784282684, 0.025323202833533287, 0.027987133711576462, 0.11858750879764557], [0.013750352896749973, 0.03234432637691498, 0.004965434316545725, 0.012938713654875755, 0.003847829531878233, 0.006734744179993868, 0.002531643258407712, 0.02417769655585289, 0.09811794757843018, 0.028039002791047096, 0.019818861037492752, 0.0038117244839668274, 0.006015270948410034, 0.12634912133216858, 0.0018999134190380573, 0.006205239333212376, 0.010874893516302109, 0.5256804823875427, 0.014013444073498249, 0.008767634630203247, 0.04911573603749275], [0.03381230682134628, 0.029190249741077423, 0.011044972576200962, 0.012165991589426994, 0.008568924851715565, 0.00936515536159277, 0.005408020224422216, 0.025807635858654976, 0.07993654161691666, 0.010137430392205715, 0.019303299486637115, 0.007518409751355648, 0.01317902933806181, 0.13602444529533386, 0.0042685274966061115, 0.007859094999730587, 0.024104682728648186, 0.44969940185546875, 0.0077323345467448235, 0.012827889062464237, 0.09204574674367905], [0.0383673831820488, 0.05753033235669136, 0.011207767762243748, 0.01718786172568798, 0.009341135621070862, 0.01596911810338497, 0.010759049095213413, 0.005814933218061924, 0.08802805840969086, 0.029329102486371994, 0.03904280066490173, 0.009241738356649876, 0.009708852507174015, 0.12863434851169586, 0.007337677758187056, 0.01879512518644333, 0.004129418171942234, 0.3792151212692261, 0.017496734857559204, 0.028436332941055298, 0.07442712038755417], [0.0492202490568161, 0.0671563521027565, 0.03668041154742241, 0.03128685802221298, 0.021073155105113983, 0.008811081759631634, 0.03010372817516327, 0.018664715811610222, 0.09474553912878036, 0.04085184261202812, 0.04953375086188316, 0.02841165103018284, 0.024645932018756866, 0.09123428165912628, 0.04376465827226639, 0.016300717368721962, 0.023419201374053955, 0.20250970125198364, 0.014921530149877071, 0.02114064246416092, 0.08552398532629013], [0.04477942734956741, 0.03085915930569172, 0.007905816659331322, 0.011127550154924393, 0.0060408147983253, 0.0037536844611167908, 0.013937121257185936, 0.01315954327583313, 0.08636026829481125, 0.04221050441265106, 0.030429335311055183, 0.009547555819153786, 0.015314597636461258, 0.11011239141225815, 0.005113250110298395, 0.0084828557446599, 0.015873432159423828, 0.31617245078086853, 0.009941539727151394, 0.03121182881295681, 0.1876668781042099], [0.027698319405317307, 0.04190961644053459, 0.03496626764535904, 0.017223242670297623, 0.02439139038324356, 0.003174032084643841, 0.013424016535282135, 0.017991473898291588, 0.079393669962883, 0.05234633386135101, 0.037804391235113144, 0.045176949352025986, 0.044084131717681885, 0.07941626757383347, 0.0071762315928936005, 0.0029370582196861506, 0.05179340019822121, 0.19444654881954193, 0.010836395435035229, 0.018167655915021896, 0.1956426203250885], [0.05643457546830177, 0.035381413996219635, 0.002616850659251213, 0.004385719541460276, 0.0031039658933877945, 0.0012801394332200289, 0.004356711637228727, 0.01211849320679903, 0.05119311437010765, 0.010351103730499744, 0.12693732976913452, 0.008686280809342861, 0.008583616465330124, 0.01155044138431549, 0.0020578247494995594, 0.0007239125552587211, 0.00886412151157856, 0.028833748772740364, 0.00383424642495811, 0.009861255995929241, 0.6088452339172363]]], [[[0.0015585150104016066, 0.7543509006500244, 0.06313767284154892, 0.014119209721684456, 0.0009386185556650162, 0.0038695482071489096, 0.0026572097558528185, 0.00887312926352024, 0.004502486903220415, 0.0018432645592838526, 0.004472316708415747, 0.001337005291134119, 0.0005154184182174504, 0.03200786933302879, 0.008136173710227013, 0.014833373948931694, 0.020111452788114548, 0.06010691821575165, 0.0005609685904346406, 0.0013641465920954943, 0.0007038458134047687], [0.001881178468465805, 0.06559285521507263, 0.6507888436317444, 0.011969786137342453, 0.011647505685687065, 0.0011244782945141196, 0.004150007385760546, 0.0002921928244177252, 0.004994079004973173, 0.003508866298943758, 0.0002140380092896521, 0.0015757344663143158, 0.00021984196791891009, 0.023788293823599815, 0.002958436729386449, 0.00023291466641239822, 0.0002859595406334847, 0.20715822279453278, 0.0037751125637441874, 0.0009555203141644597, 0.002886225236579776], [0.002643396146595478, 0.08286872506141663, 0.035598982125520706, 0.11843276768922806, 0.01873413845896721, 0.0003304127021692693, 0.0009591369889676571, 0.0003746809670701623, 0.018837546929717064, 0.0010573710314929485, 0.0037896691355854273, 0.00013143121032044291, 0.0005403933464549482, 0.05207206681370735, 0.0006425424944609404, 4.490572609938681e-05, 0.0001605411380296573, 0.6544334292411804, 0.0008601416484452784, 0.0011584553867578506, 0.006329332944005728], [0.001675675855949521, 0.0011527014430612326, 0.008684761822223663, 0.011823642998933792, 0.8940058350563049, 0.002517958404496312, 0.003777236444875598, 0.0008645075722597539, 0.002416868694126606, 0.001052642590366304, 0.00015757724759168923, 0.0023370536509901285, 0.0011957421666011214, 0.012502257712185383, 0.0009737886721268296, 0.0003495787095744163, 2.7832902560476214e-05, 0.04606461524963379, 6.44293031655252e-05, 0.00019128898566123098, 0.008163971826434135], [0.0014804716920480132, 0.0017725094221532345, 0.00431014271453023, 0.007222444284707308, 0.05510937422513962, 0.03388911113142967, 0.01015060767531395, 0.00452844612300396, 0.0686737671494484, 0.003784573171287775, 7.72692947066389e-05, 9.41900179896038e-06, 5.96424397372175e-05, 0.15523499250411987, 0.003852238180115819, 7.077937880239915e-06, 3.195326280547306e-05, 0.6493115425109863, 6.096948709455319e-05, 4.197786620352417e-05, 0.00039136671693995595], [0.0007161303656175733, 0.0010602198308333755, 0.002167202765122056, 0.002668319270014763, 0.013879748992621899, 0.009511686861515045, 0.8911762237548828, 0.014792948961257935, 0.01898777112364769, 0.0037193919997662306, 2.142628000001423e-05, 9.088023944059387e-05, 0.00012816522212233394, 0.007204620633274317, 0.0023519895039498806, 0.00010496035247342661, 0.0003029329818673432, 0.03045412339270115, 0.00017315700824838132, 1.3231239790911786e-05, 0.0004749090294353664], [0.00036088924389332533, 0.0032161888666450977, 0.0015486727934330702, 0.0011760214110836387, 0.0020630036015063524, 0.00099298229906708, 0.006938145495951176, 0.591913104057312, 0.25186094641685486, 0.028160616755485535, 0.004746331367641687, 0.0005186244379729033, 0.0001023199365590699, 0.0063497042283415794, 0.0005679098539985716, 0.0011156710097566247, 0.00529954070225358, 0.07707764208316803, 7.51591578591615e-05, 0.00046919635497033596, 0.015447374433279037], [0.002112214919179678, 0.0010495169553905725, 0.0001614019274711609, 0.0006363988504745066, 0.0008342164801433682, 0.0006584099610336125, 0.0026484106201678514, 0.012190253473818302, 0.5864866971969604, 0.09203937649726868, 0.0047396766021847725, 4.3660489609465e-05, 5.3972464229445904e-05, 0.0027370078023523092, 0.0001345525379292667, 5.669661277352134e-06, 0.00011578630073927343, 0.2872690260410309, 0.00010610050958348438, 3.08082380797714e-05, 0.0059468625113368034], [0.014201638288795948, 0.00538539607077837, 0.012829606421291828, 0.002484431955963373, 0.0025641496758908033, 0.005050342995673418, 0.026558829471468925, 0.01039827335625887, 0.11369746178388596, 0.5179206132888794, 0.014402044005692005, 0.008676784113049507, 0.00028175950865261257, 0.020707454532384872, 0.00448996014893055, 0.0010150111047551036, 0.0007667399477213621, 0.22447210550308228, 0.006379475351423025, 0.0014967952156439424, 0.006221030373126268], [0.0007997957291081548, 0.004235790576785803, 0.000944102939683944, 0.0005950258346274495, 0.000239914923440665, 1.4473289411398582e-05, 0.0004508826823439449, 0.006312118843197823, 0.11506081372499466, 0.05077042803168297, 0.24330559372901917, 0.0017589065246284008, 0.000421463162638247, 0.00986632239073515, 0.00024532730458304286, 0.00020994964870624244, 0.001575183472596109, 0.5590846538543701, 0.0013928188709542155, 0.001013650093227625, 0.0017028447473421693], [0.0019597243517637253, 0.0013768303906545043, 0.0057077263481915, 0.0008258902817033231, 0.0005960026755928993, 0.00010931965516647324, 0.00016667461022734642, 5.242973202257417e-05, 0.003656020388007164, 0.006790640763938427, 0.02859771065413952, 0.8495364189147949, 0.009869975037872791, 0.031862523406744, 0.00381746725179255, 0.00012351760233286768, 0.0001715902762953192, 0.051169510930776596, 0.0008381184889003634, 0.000577346479985863, 0.0021945086773484945], [0.0013177639339119196, 0.0012907697819173336, 0.000447492056991905, 0.0008880604291334748, 0.0008492778288200498, 4.934172102366574e-05, 3.254242255934514e-05, 3.904126424458809e-05, 0.0016772281378507614, 0.00019229303870815784, 0.011360416188836098, 0.04280365630984306, 0.26972317695617676, 0.43461817502975464, 0.0058119329623878, 0.0003273662587162107, 0.0008628749055787921, 0.22288617491722107, 0.00028413391555659473, 0.001234648167155683, 0.0033037355169653893], [0.0005013862974010408, 0.00020120857516303658, 3.274309347034432e-05, 6.312510231509805e-05, 5.6765013141557574e-05, 0.0003745026479009539, 2.2997099222266115e-05, 2.6352981876698323e-05, 0.0005152531084604561, 3.440477667027153e-05, 0.0001622598065296188, 0.0003589671687223017, 0.018227944150567055, 0.7818317413330078, 0.10973139852285385, 0.00036801467649638653, 0.002307315357029438, 0.08363072574138641, 0.00033891364000737667, 0.0004382995830383152, 0.000775710039306432], [0.014688440598547459, 0.007761713583022356, 0.004431857727468014, 0.0019546367693692446, 0.002516247797757387, 0.010949941352009773, 0.007508165668696165, 0.0020089352037757635, 0.009625740349292755, 0.004407106898725033, 0.002446898724883795, 0.009604008868336678, 0.03337977081537247, 0.258550763130188, 0.37577393651008606, 0.033374249935150146, 0.020519539713859558, 0.1578994244337082, 0.016959402710199356, 0.010191425681114197, 0.015447781421244144], [0.00025686228764243424, 0.0008978992118500173, 0.00022572538000531495, 6.048309842299204e-06, 3.5691959055839106e-05, 5.3705058235209435e-05, 0.0008899224922060966, 0.0012986973160877824, 0.0004638638929463923, 0.0003056608256883919, 0.00020865835540462285, 0.00016345949552487582, 0.0027978133875876665, 0.016639091074466705, 0.03742699325084686, 0.7109243869781494, 0.18427467346191406, 0.03375554457306862, 0.002515588654205203, 0.0037933867424726486, 0.0030662298668175936], [1.3066586689092219e-05, 0.00010950748401228338, 1.670907295192592e-05, 1.0247912314298446e-06, 7.703263236180646e-07, 3.171939169988036e-06, 3.9930251659825444e-05, 0.0011997403344139457, 6.156125891720876e-05, 3.814563388004899e-05, 1.1307120985293295e-05, 5.303479156282265e-06, 9.044854959938675e-05, 0.0006413240334950387, 0.0017419848591089249, 0.0027095365803688765, 0.9892310500144958, 0.002310199197381735, 0.0005917133530601859, 0.000873512530233711, 0.0003100616449955851], [0.0012006494216620922, 0.00460605276748538, 0.00017711117106955498, 0.0001022940268740058, 5.07656077388674e-05, 3.039168586838059e-05, 2.1348845621105283e-05, 0.0009280501399189234, 0.013442853465676308, 0.004295426420867443, 0.007125073112547398, 0.0003903920005541295, 0.007005093619227409, 0.024438519030809402, 0.023072386160492897, 0.0007520605577155948, 0.14920403063297272, 0.6691316366195679, 0.040725838392972946, 0.038286108523607254, 0.015013894997537136], [0.07835758477449417, 0.04879315569996834, 0.032274048775434494, 0.009802955202758312, 0.007308545056730509, 0.008107258006930351, 0.008792713284492493, 0.005561261437833309, 0.042410749942064285, 0.0399654284119606, 0.020897017791867256, 0.02645045705139637, 0.010301811620593071, 0.09070288389921188, 0.025866227224469185, 0.013947336934506893, 0.012086816132068634, 0.3173413872718811, 0.05943680182099342, 0.03474411368370056, 0.10685136914253235], [0.0009183853981085122, 0.009003187529742718, 0.0023479072842746973, 0.0006886285264045, 0.0002614117693156004, 1.2284773220017087e-05, 3.222783197998069e-05, 0.00026806604000739753, 0.0012296941131353378, 0.0005151542718522251, 0.005065848585218191, 0.0023778683971613646, 0.0068632629700005054, 0.03562329337000847, 0.0010087096597999334, 0.005154752172529697, 0.01702975481748581, 0.3415237367153168, 0.07226783037185669, 0.4315827786922455, 0.06622526049613953], [0.003712160512804985, 0.01937580294907093, 0.0014246797654777765, 0.0034158630296587944, 0.0010033888975158334, 3.998620741185732e-05, 3.813146031461656e-05, 0.0006213707965798676, 0.007597999181598425, 0.0007465639500878751, 0.012342994101345539, 0.0017603482119739056, 0.016552086919546127, 0.05519812926650047, 0.001744991634041071, 0.0005169682553969324, 0.023054055869579315, 0.4707000255584717, 0.0616966113448143, 0.17850719392299652, 0.13995058834552765], [0.006592394784092903, 0.49019309878349304, 0.12819814682006836, 0.006989295594394207, 0.0032392863649874926, 0.002168429084122181, 0.0038365847431123257, 0.006070483010262251, 0.013449456542730331, 0.01404770277440548, 0.01103135384619236, 0.007361614145338535, 0.002827743999660015, 0.052072856575250626, 0.030248524621129036, 0.0030803284607827663, 0.012824198231101036, 0.1529996395111084, 0.028751632198691368, 0.014669635333120823, 0.009347659535706043]], [[0.002401834586635232, 0.02945278398692608, 0.05736618489027023, 0.03699729964137077, 0.015729550272226334, 0.0074858590960502625, 0.0020421319641172886, 0.01097126118838787, 0.10526134073734283, 0.04742661491036415, 0.0861237421631813, 0.028244568035006523, 0.004055733326822519, 0.040793437510728836, 0.007878100499510765, 0.01283432636409998, 0.01356363296508789, 0.39019718766212463, 0.07030054926872253, 0.029357384890317917, 0.0015166446100920439], [0.008665494620800018, 0.054145555943250656, 0.005018377676606178, 0.00015769439050927758, 1.3237352504802402e-05, 4.122935479244916e-06, 0.0019833415281027555, 0.00010024353832704946, 0.0026212683878839016, 0.0009351507178507745, 0.0002006512659136206, 5.226340363151394e-05, 2.250336910947226e-05, 0.006383828353136778, 0.0005367676494643092, 7.957840716699138e-05, 0.0003027371421921998, 0.3554891347885132, 0.0012428999179974198, 0.0007301720906980336, 0.5613150000572205], [1.7838146959547885e-05, 0.8648844957351685, 0.009439620189368725, 2.8689888495136984e-05, 6.332521934382385e-06, 3.999901764473179e-06, 5.160561340744607e-05, 6.311411198112182e-07, 0.000561832741368562, 8.711683040019125e-05, 0.002529139630496502, 6.302885140030412e-06, 5.354185361738928e-08, 0.000519026187248528, 1.9665443687699735e-05, 4.819348305318272e-06, 2.2518402147397865e-06, 0.1092907190322876, 0.00027561248862184584, 3.583767465897836e-05, 0.012234466150403023], [3.226207263651304e-05, 0.002621518913656473, 0.9532901048660278, 0.01368135865777731, 0.001132478821091354, 4.1054136090679094e-05, 0.00012358462845440954, 5.344532382878242e-06, 9.499221778241917e-05, 0.0003752499760594219, 4.720496144727804e-05, 0.0028861924074590206, 9.841075552685652e-06, 0.0010453665163367987, 1.891019564936869e-05, 3.361329845574801e-06, 3.2165191896638134e-06, 0.023102909326553345, 0.0003231610171496868, 0.0008570798672735691, 0.0003047838108614087], [3.9394669215653266e-07, 2.7905236493097618e-05, 0.0016051740385591984, 0.9976529479026794, 0.0006566489464603364, 8.130259061545075e-07, 3.0038659133424517e-06, 1.4382739266238787e-07, 6.048167620065215e-07, 2.1508451197860268e-07, 3.9740731949677865e-07, 2.2767118935007602e-05, 3.4307941376710005e-08, 7.51567597490066e-07, 4.83147459817701e-07, 1.4041242613060945e-09, 1.0051993903914536e-08, 1.5547400835203007e-05, 2.7379962830309523e-07, 6.994792443038023e-07, 1.1319844816171099e-05], [4.6543224016204476e-05, 1.3025931366428267e-05, 0.00013613271585199982, 0.022947505116462708, 0.973388671875, 0.0006131381960585713, 0.0010428052628412843, 3.097728040302172e-05, 1.6332835002685897e-05, 3.4131160191464005e-06, 3.084228637817432e-06, 4.38952338299714e-05, 0.0010473818983882666, 0.00022117310436442494, 6.023031164659187e-05, 3.9136102714110166e-07, 1.1892982456629397e-06, 0.0002587756607681513, 1.2070436241629068e-06, 6.100329301261809e-06, 0.00011810485739260912], [0.00013772740203421563, 6.918753933859989e-05, 0.0005671182298101485, 0.0061001284047961235, 0.9798616170883179, 0.003922211471945047, 0.002993092406541109, 0.00020044609846081585, 0.0006673595053143799, 9.754709026310593e-05, 4.6574941734434105e-06, 5.571351266553393e-06, 0.00019135602633468807, 0.0010663942666724324, 6.134442082839087e-05, 1.5333818055296433e-06, 2.840641400325694e-06, 0.003158287378028035, 1.037878519127844e-06, 3.503718517094967e-06, 0.0008870324236340821], [0.00019462067575659603, 6.784362994949333e-06, 8.223501208703965e-05, 0.0007917602779343724, 0.011432727798819542, 0.00037932509439997375, 0.9733015894889832, 0.010423058643937111, 0.0016367195639759302, 0.001342645613476634, 4.293616711947834e-06, 2.0826073523494415e-06, 3.5876084893970983e-06, 1.8176062440034002e-05, 2.198154470534064e-05, 6.0320635384414345e-05, 8.608606549387332e-06, 0.00011628669744823128, 1.88920421351213e-05, 6.812127685407177e-05, 8.625506598036736e-05], [0.001028175582177937, 0.0004887971444986761, 0.0006319975946098566, 0.0012167575769126415, 0.007146788761019707, 0.000347955065080896, 0.13301891088485718, 0.1158992275595665, 0.26751774549484253, 0.11346357315778732, 0.00033048904151655734, 3.36415869242046e-05, 5.8155612350674346e-05, 0.007122220005840063, 0.0018734901677817106, 0.0003415665414649993, 0.0007833040435798466, 0.34373095631599426, 8.981490100268275e-05, 0.00014370938879437745, 0.004732780158519745], [1.0270271559420507e-05, 0.000851753749884665, 0.00010868531535379589, 1.1373163943062536e-05, 0.0001184111024485901, 7.714064850006253e-06, 0.011821512132883072, 0.0026753395795822144, 0.8265088200569153, 0.020575128495693207, 0.0019188161240890622, 2.968794433400035e-06, 6.115453032862206e-08, 0.0007087609264999628, 3.555054354364984e-05, 7.74392447056016e-06, 6.036682407284388e-06, 0.13287436962127686, 1.3381207281781826e-05, 1.0022217793448362e-06, 0.0017421755474060774], [0.00016000194591470063, 6.336221849778667e-05, 0.0005969557678326964, 1.6240874174400233e-05, 2.2541585167346057e-06, 1.6798638569071045e-07, 0.0012277167988941073, 0.0011719251051545143, 0.06716714054346085, 0.6579574942588806, 0.0617418996989727, 0.008721509017050266, 2.5171249944833107e-05, 0.0014964919537305832, 0.0007437167223542929, 0.00026924232952296734, 0.0003561672056093812, 0.19691814482212067, 0.00065974285826087, 0.000155668196384795, 0.0005489024333655834], [5.509957077265426e-07, 1.9799446818069555e-05, 4.118340257264208e-06, 1.0453270533616887e-06, 8.741124268851763e-09, 6.505300298442762e-09, 5.138439007623674e-08, 1.4347389942770405e-08, 4.436285234987736e-05, 0.0002191706735175103, 0.9938774704933167, 0.0034248081501573324, 3.3337866511828906e-07, 7.401550828944892e-05, 1.840394133978407e-06, 8.329782303917455e-07, 5.750655986958009e-07, 0.002306838985532522, 1.6478374163853005e-05, 4.039863142679678e-06, 3.73522220797895e-06], [4.175884441792732e-06, 6.369270408868033e-07, 4.166363214608282e-05, 0.00023319118190556765, 6.468707738349622e-07, 4.343694470776427e-08, 1.3560881484409038e-07, 1.9674210705034056e-08, 8.499591785948724e-07, 1.2985500688955653e-05, 0.0008100828854367137, 0.9963582158088684, 0.0009176963940262794, 0.0005656052962876856, 0.0002589524956420064, 1.398096628690837e-06, 1.1733827705029398e-05, 0.0005904684658162296, 7.897273462731391e-05, 0.00010374801786383614, 8.93682135938434e-06], [0.0014897299697622657, 0.0004970670561306179, 0.00036177903530187905, 0.00012187007814645767, 0.000725042074918747, 0.000341703969752416, 0.0005120031419210136, 8.89635193743743e-05, 0.003229426918551326, 0.000528630567714572, 0.002938004909083247, 0.01091236062347889, 0.3488614559173584, 0.35066884756088257, 0.012781647965312004, 0.0022970407735556364, 0.0006748069426976144, 0.2562236189842224, 0.0007314600516110659, 0.0013363981852307916, 0.004678164608776569], [2.3445300030289218e-06, 2.5503630240564235e-05, 2.8363689125399105e-05, 3.083666797465412e-06, 0.00010160343663301319, 1.6726949979783967e-05, 2.101193240378052e-05, 4.58536362657469e-07, 0.00011658971925498918, 4.855042334384052e-06, 0.0001023982695187442, 0.0008772850269451737, 0.008126480504870415, 0.8221681714057922, 0.07829953730106354, 0.0013572813477367163, 7.153993647079915e-05, 0.08847405016422272, 9.07806315808557e-06, 1.1509955584187992e-05, 0.00018216883472632617], [2.2235964934225194e-05, 2.3792147203494096e-06, 3.3558642371644964e-06, 8.058522666942736e-07, 9.9921140645165e-05, 5.8794607866730075e-06, 4.5494456571759656e-05, 3.529806633650878e-07, 2.335183489776682e-05, 8.941157830122393e-06, 1.1259378879913129e-05, 7.542558887507766e-05, 0.016465621069073677, 0.15987078845500946, 0.8047257661819458, 0.010803738608956337, 0.0002491491904947907, 0.007183069363236427, 0.00014011580788064748, 0.00012356924708001316, 0.00013879319885745645], [0.0001412801502738148, 9.539622260490432e-05, 9.128564124694094e-05, 2.478469127709104e-07, 2.3987076929188333e-05, 1.909068259919877e-06, 0.0005272825947031379, 1.475233966630185e-05, 0.00038745353231206536, 0.00035089842276647687, 0.00016045378288254142, 0.0005287615349516273, 0.0023070448078215122, 0.036387063562870026, 0.0888698473572731, 0.8529719710350037, 0.0037507684901356697, 0.004506486468017101, 0.004153748042881489, 0.004191469866782427, 0.000537925458047539], [0.0020775815937668085, 0.005698961205780506, 0.009421023540198803, 0.0004992438480257988, 0.0005615140544250607, 0.0007031944114714861, 0.00379058881662786, 0.003737051272764802, 0.04767554998397827, 0.02270592749118805, 0.0037056715227663517, 0.0022112817969173193, 0.002244561677798629, 0.06274130195379257, 0.021561091765761375, 0.024287618696689606, 0.014479405246675014, 0.7262067794799805, 0.023542992770671844, 0.016986439004540443, 0.005162351299077272], [6.166515504446579e-06, 0.0013056412572041154, 4.5621211029356346e-05, 6.342787628454971e-07, 2.331559301183006e-07, 1.2343026867256413e-07, 5.56007471175235e-08, 6.168377240101108e-07, 0.0005937189562246203, 0.00022040064504835755, 0.0026224178727716208, 6.783300341339782e-05, 2.8863438274129294e-05, 0.026361629366874695, 0.005427220370620489, 0.0006019338616169989, 0.008955144323408604, 0.9462117552757263, 0.004600920714437962, 0.001269215950742364, 0.0016798702999949455], [0.00012617476750165224, 0.0013063610531389713, 0.0006504835328087211, 2.9241261927381856e-06, 1.3429036698653363e-05, 4.535365576430195e-07, 1.1893801854512276e-07, 2.8337399271549657e-07, 0.00022297575196716934, 0.0015952776884660125, 0.004878736101090908, 0.00020516692893579602, 0.0013017943128943443, 0.124203160405159, 0.027279259636998177, 0.00277441437356174, 0.05581684783101082, 0.5438351035118103, 0.14567771553993225, 0.07069522887468338, 0.019414065405726433], [0.0032713348045945168, 0.0002478632377460599, 0.0033784531988203526, 0.0006966402288526297, 2.08168839890277e-05, 2.5492394343018532e-05, 0.005786702036857605, 0.00037803896702826023, 0.0013630334287881851, 0.0012316630454733968, 0.0002767003024928272, 0.005618860479444265, 0.0004194780485704541, 0.005611986853182316, 0.004631461575627327, 0.0013505953829735518, 0.008346530608832836, 0.16652095317840576, 0.21583081781864166, 0.5746400356292725, 0.0003525048086885363]], [[0.005159560590982437, 0.050404611974954605, 0.022770237177610397, 0.07849716395139694, 0.027190616354346275, 0.006358715705573559, 0.006938295904546976, 0.012982153333723545, 0.04467279836535454, 0.04804401844739914, 0.09940965473651886, 0.028400447219610214, 0.04925592988729477, 0.07875418663024902, 0.03417462110519409, 0.005777357611805201, 0.030249666422605515, 0.19151344895362854, 0.052153702825307846, 0.013952039182186127, 0.11334075033664703], [0.01872253231704235, 0.03628432750701904, 0.03223457187414169, 0.03729340061545372, 0.014234050177037716, 0.003697383916005492, 0.0029674868565052748, 0.008393609896302223, 0.04046478495001793, 0.009000474587082863, 0.03446745127439499, 0.02235570177435875, 0.010692507959902287, 0.10792916268110275, 0.010993970558047295, 0.00486718351021409, 0.013636971823871136, 0.5324499607086182, 0.0035109638702124357, 0.0020233383402228355, 0.053780216723680496], [0.015569688752293587, 0.05597948655486107, 0.026501566171646118, 0.021528104320168495, 0.01501599419862032, 0.0014270241372287273, 0.0018083672039210796, 0.007765620946884155, 0.04048250988125801, 0.009771662764251232, 0.02313552051782608, 0.005989583674818277, 0.0057194908149540424, 0.09294962882995605, 0.0073879496194422245, 0.00215669022873044, 0.007165455725044012, 0.5835232734680176, 0.0021465513855218887, 0.0016411137767136097, 0.07233469188213348], [0.01935652643442154, 0.12891511619091034, 0.2162286788225174, 0.02086326852440834, 0.0430842749774456, 0.001236535725183785, 0.0035833462607115507, 0.005468989256769419, 0.02814801223576069, 0.020652828738093376, 0.03399965167045593, 0.022280335426330566, 0.016148027032613754, 0.060997750610113144, 0.006758875213563442, 0.00205902848392725, 0.013933605514466763, 0.2588568925857544, 0.0062653678469359875, 0.00524052744731307, 0.08592230826616287], [0.00368561246432364, 0.10435947775840759, 0.6148988604545593, 0.02275256998836994, 0.05515485256910324, 0.00037008931394666433, 0.003880798816680908, 0.0020626960322260857, 0.008610482327640057, 0.010805537924170494, 0.011317958123981953, 0.02539224363863468, 0.006663514766842127, 0.01393125019967556, 0.0035459690261632204, 0.0006821921560913324, 0.0035109363961964846, 0.07755504548549652, 0.001884668366983533, 0.0022773421369493008, 0.026657983660697937], [0.012814288958907127, 0.1513696014881134, 0.2065739780664444, 0.032666340470314026, 0.03102870099246502, 0.0045720054768025875, 0.021176829934120178, 0.010148716159164906, 0.059993501752614975, 0.08350761979818344, 0.017844267189502716, 0.01335966307669878, 0.004925342742353678, 0.041817281395196915, 0.005862760823220015, 0.0017131022177636623, 0.0027541080489754677, 0.15615485608577728, 0.009620779193937778, 0.0068901521153748035, 0.1252060830593109], [0.011141816154122353, 0.20229607820510864, 0.18656356632709503, 0.04779618978500366, 0.049034129828214645, 0.0042885178700089455, 0.028968462720513344, 0.0163569338619709, 0.046288833022117615, 0.09950099885463715, 0.013347533531486988, 0.0065755695104599, 0.00227260566316545, 0.03949621692299843, 0.002894893055781722, 0.0016003538621589541, 0.0022044482175260782, 0.11710449308156967, 0.0019228886812925339, 0.0021349359303712845, 0.1182105764746666], [0.014722520485520363, 0.205624058842659, 0.22740060091018677, 0.06558645516633987, 0.06763605028390884, 0.006201121490448713, 0.027054425328969955, 0.013887465000152588, 0.042276110500097275, 0.06112203374505043, 0.012590623460710049, 0.0035147545859217644, 0.001129231182858348, 0.03682921826839447, 0.0018562248442322016, 0.001157816732302308, 0.0019172047032043338, 0.1072034165263176, 0.001962324371561408, 0.0030660589691251516, 0.09726229310035706], [0.012638360261917114, 0.086548812687397, 0.057783447206020355, 0.13534900546073914, 0.08737990260124207, 0.016776924952864647, 0.012516279704868793, 0.011043034493923187, 0.057283055037260056, 0.017139393836259842, 0.01830436848104, 0.006472023203969002, 0.004713165108114481, 0.06839500367641449, 0.007072077598422766, 0.0026297839358448982, 0.004981487523764372, 0.32535094022750854, 0.003784013446420431, 0.002658512908965349, 0.061180416494607925], [0.012074877507984638, 0.07153991609811783, 0.05117021128535271, 0.041171178221702576, 0.04953242838382721, 0.01557149738073349, 0.06030547618865967, 0.03008280135691166, 0.08706741780042648, 0.11355710029602051, 0.00454552611336112, 0.0009866293985396624, 0.0011074066860601306, 0.05351812019944191, 0.004363351035863161, 0.0020158954430371523, 0.002183174714446068, 0.23802374303340912, 0.005793980322778225, 0.0033198099117726088, 0.15206949412822723], [0.005141240078955889, 0.1233958899974823, 0.024863241240382195, 0.1789126694202423, 0.15820738673210144, 0.027533115819096565, 0.061988234519958496, 0.07483862340450287, 0.06420129537582397, 0.044077903032302856, 0.09238197654485703, 0.015658928081393242, 0.0034269343595951796, 0.017281195148825645, 0.003004761878401041, 0.0016849770909175277, 0.004525802098214626, 0.05385312810540199, 0.0010882163187488914, 0.001327376696281135, 0.04260709881782532], [0.002155509078875184, 0.08750554919242859, 0.03777484595775604, 0.07507268339395523, 0.1426292359828949, 0.004442423582077026, 0.02402813918888569, 0.040738340467214584, 0.0796147808432579, 0.046568989753723145, 0.2578122019767761, 0.07190333306789398, 0.007577984128147364, 0.023571886122226715, 0.005061654839664698, 0.001507391920313239, 0.005758358631283045, 0.06387095898389816, 0.0007890726556070149, 0.0009662735392339528, 0.020650343969464302], [0.00045532823423855007, 0.018918892368674278, 0.06552838534116745, 0.01280877087265253, 0.0904427170753479, 0.0009210738935507834, 0.010816787369549274, 0.005649819038808346, 0.017898360267281532, 0.03966270014643669, 0.15233534574508667, 0.4964343011379242, 0.03879391774535179, 0.010644960217177868, 0.00790637731552124, 0.0017356912139803171, 0.005432655103504658, 0.014160774648189545, 0.003222663886845112, 0.003423880785703659, 0.0028065661899745464], [0.009583588689565659, 0.035206109285354614, 0.03669935092329979, 0.028590457513928413, 0.025298507884144783, 0.006354216020554304, 0.0098645044490695, 0.012647398747503757, 0.0726214274764061, 0.02980879694223404, 0.15336358547210693, 0.14724735915660858, 0.022242551669478416, 0.09196097403764725, 0.020610066130757332, 0.008937816135585308, 0.015836045145988464, 0.22734478116035461, 0.011048618704080582, 0.008406235836446285, 0.02632751688361168], [0.003102079266682267, 0.029833009466528893, 0.062279537320137024, 0.01367316022515297, 0.033508192747831345, 0.003150016302242875, 0.0043011982925236225, 0.005162328947335482, 0.034886088222265244, 0.02110516093671322, 0.10562847554683685, 0.22924520075321198, 0.04787072539329529, 0.12410955876111984, 0.04213318973779678, 0.012036612257361412, 0.010823000222444534, 0.14052997529506683, 0.026672590523958206, 0.022741932421922684, 0.02720799297094345], [0.0055467672646045685, 0.017157264053821564, 0.03717320039868355, 0.005700984504073858, 0.03499062359333038, 0.005824808496981859, 0.009630715474486351, 0.009091474115848541, 0.042110420763492584, 0.035124897956848145, 0.12614932656288147, 0.23751656711101532, 0.07988531142473221, 0.11762677878141403, 0.04546043649315834, 0.01911979168653488, 0.01896042376756668, 0.09319044649600983, 0.021253351122140884, 0.016537532210350037, 0.021949000656604767], [0.005383847281336784, 0.017806172370910645, 0.045825887471437454, 0.0060550738126039505, 0.024151107296347618, 0.0011364048114046454, 0.0022588816937059164, 0.004760554991662502, 0.04081934317946434, 0.019760556519031525, 0.15500539541244507, 0.23808088898658752, 0.05396690219640732, 0.16189423203468323, 0.02133588120341301, 0.01011232752352953, 0.014806537888944149, 0.13944454491138458, 0.006565583869814873, 0.009561077691614628, 0.021268755197525024], [0.0209761131554842, 0.02643049694597721, 0.020056074485182762, 0.018989162519574165, 0.014954894781112671, 0.008614610880613327, 0.007393233012408018, 0.008471776731312275, 0.0509522445499897, 0.017163025215268135, 0.06206223741173744, 0.04224622622132301, 0.030868040397763252, 0.15165969729423523, 0.037761516869068146, 0.01755390502512455, 0.026469754055142403, 0.3625034689903259, 0.016399100422859192, 0.0122218644246459, 0.046252526342868805], [0.006135852076113224, 0.008640892803668976, 0.005273583345115185, 0.0007224088767543435, 0.0025072558782994747, 0.0031178819481283426, 0.011740898713469505, 0.003780630649998784, 0.02914820984005928, 0.02940257079899311, 0.06791780889034271, 0.04873471334576607, 0.06323621422052383, 0.15782314538955688, 0.18417571485042572, 0.05694345757365227, 0.03141690418124199, 0.10363645106554031, 0.11625141650438309, 0.042983051389455795, 0.026410989463329315], [0.003472475567832589, 0.014658614061772823, 0.007329678162932396, 0.002856259001418948, 0.005513051059097052, 0.005615240894258022, 0.013362355530261993, 0.006574014667421579, 0.02737532928586006, 0.023277752101421356, 0.1729246973991394, 0.0839521661400795, 0.0759301483631134, 0.1600399613380432, 0.1002952978014946, 0.08008697628974915, 0.03660723194479942, 0.06878609955310822, 0.0459546335041523, 0.03938150405883789, 0.026006560772657394], [0.004971393849700689, 0.023896601051092148, 0.004518432077020407, 0.023987486958503723, 0.010510649532079697, 0.00613083690404892, 0.004237680695950985, 0.006751150358468294, 0.030835187062621117, 0.012256002984941006, 0.3502442538738251, 0.10676117241382599, 0.07790298759937286, 0.09796054661273956, 0.027874669060111046, 0.013076464645564556, 0.03612932562828064, 0.10020650923252106, 0.020564693957567215, 0.011455142870545387, 0.029728803783655167]], [[0.009173714555799961, 0.027763471007347107, 0.028113259002566338, 0.038620661944150925, 0.018782878294587135, 0.01043904572725296, 0.022716520354151726, 0.02150203287601471, 0.042545564472675323, 0.12857964634895325, 0.04016508162021637, 0.04242882877588272, 0.0322689488530159, 0.04478780925273895, 0.06771688908338547, 0.01916171982884407, 0.016279129311442375, 0.06722316145896912, 0.19405655562877655, 0.04384462162852287, 0.08383031189441681], [0.04179294779896736, 0.12301044911146164, 0.014662976376712322, 0.07858867198228836, 0.019433578476309776, 0.007172925863415003, 0.017794016748666763, 0.07073622196912766, 0.029293451458215714, 0.08457768708467484, 0.11179384589195251, 0.019095737487077713, 0.01446844357997179, 0.0455918051302433, 0.031147217378020287, 0.009821366518735886, 0.03268700838088989, 0.05685144290328026, 0.06915438175201416, 0.019807584583759308, 0.10251826792955399], [0.024459490552544594, 0.07216174155473709, 0.02145974710583687, 0.009644092991948128, 0.01542740035802126, 0.00923041719943285, 0.016356203705072403, 0.029133329167962074, 0.02510506846010685, 0.3268396258354187, 0.07786975055932999, 0.04600546136498451, 0.020139306783676147, 0.04032725840806961, 0.03261350095272064, 0.0025496957823634148, 0.006038349121809006, 0.05015884339809418, 0.04360702633857727, 0.02190486527979374, 0.1089688315987587], [0.007733540143817663, 0.10566752403974533, 0.02625512331724167, 0.24652083218097687, 0.024575049057602882, 0.001637545763514936, 0.0026841587387025356, 0.1854177862405777, 0.023809289559721947, 0.05043594539165497, 0.05950640141963959, 0.023903504014015198, 0.014749955385923386, 0.02854122593998909, 0.009545513428747654, 0.017206551507115364, 0.05245270952582359, 0.02947094850242138, 0.01895809732377529, 0.019886724650859833, 0.05104158818721771], [0.015021488070487976, 0.10444056987762451, 0.08396430313587189, 0.046339258551597595, 0.024356622248888016, 0.0024103240575641394, 0.0014320425689220428, 0.030147820711135864, 0.03152754157781601, 0.18380427360534668, 0.08449079841375351, 0.09253900498151779, 0.020124027505517006, 0.048043668270111084, 0.01967024616897106, 0.0048364452086389065, 0.018107276409864426, 0.07444417476654053, 0.04005424305796623, 0.03460671752691269, 0.0396391823887825], [0.027890058234333992, 0.0385918989777565, 0.022502662613987923, 0.041010089218616486, 0.035400792956352234, 0.003888576989993453, 0.022029904648661613, 0.017980074509978294, 0.036119405180215836, 0.28296881914138794, 0.06435593962669373, 0.03006955049932003, 0.027712933719158173, 0.04772089421749115, 0.009658283554017544, 0.002952408278360963, 0.005427862983196974, 0.13612224161624908, 0.052324727177619934, 0.03296040743589401, 0.0623125396668911], [0.016732797026634216, 0.0024224647786468267, 0.0006950897513888776, 0.0008059022948145866, 0.0007918933988548815, 0.00011835477198474109, 0.011338590644299984, 0.002286298666149378, 0.0038655558601021767, 0.8757991790771484, 0.004027821123600006, 0.0017787414835765958, 0.0030696624889969826, 0.007283741608262062, 0.0019185692071914673, 0.00017027326975949109, 0.0008588755736127496, 0.015880655497312546, 0.023391276597976685, 0.006421559490263462, 0.020342616364359856], [0.05742416903376579, 0.03191402554512024, 0.0035894112661480904, 0.04458380490541458, 0.012193785980343819, 0.0024840431287884712, 0.01059337705373764, 0.04915639013051987, 0.017693448811769485, 0.21048834919929504, 0.06651835888624191, 0.006416586227715015, 0.009235402569174767, 0.04321257770061493, 0.013811187818646431, 0.007644861936569214, 0.08993871510028839, 0.06712663173675537, 0.12505125999450684, 0.01609312742948532, 0.11483054608106613], [0.08055181801319122, 0.05680548772215843, 0.020536202937364578, 0.038679201155900955, 0.016802622005343437, 0.010646466165781021, 0.028576277196407318, 0.06322026997804642, 0.07054176181554794, 0.07180994004011154, 0.0718531459569931, 0.02428421378135681, 0.01900496333837509, 0.09350892901420593, 0.01292403880506754, 0.011719982139766216, 0.02778059057891369, 0.14671394228935242, 0.04185843467712402, 0.02366514317691326, 0.06851653009653091], [0.014428064227104187, 0.010979329235851765, 0.0019582542590796947, 0.0017663032049313188, 0.004966240841895342, 0.002025516936555505, 0.029812365770339966, 0.0037001222372055054, 0.011048294603824615, 0.47388404607772827, 0.015640081837773323, 0.0026154816150665283, 0.01172165758907795, 0.03684138506650925, 0.026917358860373497, 0.0009638957562856376, 0.001535029150545597, 0.04620876535773277, 0.2248544991016388, 0.01980268396437168, 0.05833057686686516], [0.0356237031519413, 0.11831189692020416, 0.02572445757687092, 0.09936405718326569, 0.017002832144498825, 0.009747673757374287, 0.012740863487124443, 0.06187266483902931, 0.04598662629723549, 0.057575471699237823, 0.11575742810964584, 0.031010279431939125, 0.012343917973339558, 0.056788258254528046, 0.012708596885204315, 0.010516745038330555, 0.02331285923719406, 0.10331606864929199, 0.03982343524694443, 0.020564299076795578, 0.08990777283906937], [0.021573280915617943, 0.061961885541677475, 0.024490293115377426, 0.018323764204978943, 0.02077353745698929, 0.009965146891772747, 0.005722154397517443, 0.02759627066552639, 0.03564175218343735, 0.35014310479164124, 0.06887698173522949, 0.031100373715162277, 0.024073561653494835, 0.05403319373726845, 0.015698401257395744, 0.0037251533940434456, 0.007899057120084763, 0.10751790553331375, 0.028908178210258484, 0.03142097592353821, 0.05055501312017441], [0.025435280054807663, 0.04982379078865051, 0.0534941740334034, 0.020767679437994957, 0.015696272253990173, 0.0021490443032234907, 0.0037851089145988226, 0.019755100831389427, 0.02130093239247799, 0.33990517258644104, 0.044795289635658264, 0.0672922357916832, 0.01997924968600273, 0.032257575541734695, 0.02487611025571823, 0.00844912976026535, 0.01815759390592575, 0.04823966696858406, 0.10647610574960709, 0.04185975715517998, 0.035504646599292755], [0.057524699717760086, 0.05014599487185478, 0.018766777589917183, 0.024654680863022804, 0.024254893884062767, 0.013348693028092384, 0.01587776094675064, 0.03844800591468811, 0.07134286314249039, 0.05307265371084213, 0.06500379741191864, 0.02699746936559677, 0.025688830763101578, 0.09828845411539078, 0.021594079211354256, 0.01263729389756918, 0.02470296248793602, 0.1327091008424759, 0.11045811325311661, 0.043742455542087555, 0.07074040919542313], [0.030673274770379066, 0.033073537051677704, 0.006595714017748833, 0.010345458053052425, 0.02229725383222103, 0.008125203661620617, 0.0025138172786682844, 0.02299073524773121, 0.0303189717233181, 0.04135363548994064, 0.03680520877242088, 0.013113693334162235, 0.03341806307435036, 0.07159437984228134, 0.056821733713150024, 0.02089477702975273, 0.019242260605096817, 0.0781765803694725, 0.29641711711883545, 0.13147497177124023, 0.03375371918082237], [0.04013310745358467, 0.09624987095594406, 0.026180138811469078, 0.04325141757726669, 0.014981521293520927, 0.0020224296022206545, 0.006757804658263922, 0.04561241343617439, 0.01902872323989868, 0.08777309954166412, 0.06766001880168915, 0.029075825586915016, 0.015444598160684109, 0.030026061460375786, 0.07296650856733322, 0.011587136425077915, 0.03203408047556877, 0.03421982750296593, 0.2109997421503067, 0.03527555242180824, 0.07872004806995392], [0.013278289698064327, 0.08024005591869354, 0.013134226202964783, 0.06203008070588112, 0.0175129733979702, 0.0018660267814993858, 0.0010584760457277298, 0.04180261865258217, 0.017911272123456, 0.03223061561584473, 0.06927701085805893, 0.010643965564668179, 0.013563728891313076, 0.042016588151454926, 0.026937335729599, 0.018223989754915237, 0.2483319640159607, 0.04250777140259743, 0.16286039352416992, 0.012702153995633125, 0.07187042385339737], [0.052074503153562546, 0.05014590919017792, 0.028501411899924278, 0.02792903035879135, 0.026096388697624207, 0.019462965428829193, 0.02233254350721836, 0.03500282019376755, 0.07850790023803711, 0.04707489535212517, 0.06422607600688934, 0.03620261698961258, 0.03359067812561989, 0.10596959292888641, 0.02700522541999817, 0.01599080115556717, 0.02909143455326557, 0.13174596428871155, 0.07580569386482239, 0.041001107543706894, 0.052242379635572433], [0.026394926011562347, 0.023334428668022156, 0.0011199403088539839, 0.0032753776758909225, 0.0029536692891269922, 0.002350971568375826, 7.617336814291775e-05, 0.0032468230929225683, 0.017375478520989418, 0.0566103495657444, 0.0338512659072876, 0.0015445906901732087, 0.0043325419537723064, 0.043154533952474594, 0.003683466697111726, 0.0012529257219284773, 0.007158071734011173, 0.11232969164848328, 0.51793372631073, 0.027752898633480072, 0.11026814579963684], [0.02749999240040779, 0.011629513464868069, 0.0035030103754252195, 0.0025552294682711363, 0.003626258810982108, 0.0017284665955230594, 0.0038257266860455275, 0.004723880439996719, 0.011146985925734043, 0.11776057630777359, 0.017131095752120018, 0.006643717642873526, 0.0056580002419650555, 0.02192940190434456, 0.00631748978048563, 0.0023140977136790752, 0.0031031726393848658, 0.0320582240819931, 0.6020125150680542, 0.030125251039862633, 0.08470752090215683], [0.05062691122293472, 0.04335237294435501, 0.01151326484978199, 0.026730557903647423, 0.006671341601759195, 0.01311394665390253, 0.009312974289059639, 0.030385063961148262, 0.035660453140735626, 0.11960303038358688, 0.08253955096006393, 0.017479220405220985, 0.009861589409410954, 0.05156663805246353, 0.029473500326275826, 0.008606947958469391, 0.047171998769044876, 0.06879973411560059, 0.1867252141237259, 0.027179988101124763, 0.12362568080425262]], [[0.004862617235630751, 0.03424730524420738, 0.05445796996355057, 0.06500295549631119, 0.027612503618001938, 0.010133090429008007, 0.03680642321705818, 0.021296849474310875, 0.023491598665714264, 0.3185044825077057, 0.03293042257428169, 0.1132650151848793, 0.030189890414476395, 0.017656579613685608, 0.039309971034526825, 0.0038898263592272997, 0.019570568576455116, 0.022602668032050133, 0.08753940463066101, 0.016283703967928886, 0.020346136763691902], [0.12571097910404205, 0.035791974514722824, 0.02837727777659893, 0.01637878082692623, 0.028343845158815384, 0.03562851622700691, 0.012855845503509045, 0.022291773930191994, 0.05021044611930847, 0.026890993118286133, 0.08504904806613922, 0.035185325890779495, 0.027582738548517227, 0.06667403131723404, 0.028990577906370163, 0.012949193827807903, 0.030149240046739578, 0.12536633014678955, 0.03159001097083092, 0.025052640587091446, 0.1489303857088089], [0.08801044523715973, 0.047681234776973724, 0.00768497958779335, 0.025129353627562523, 0.04195209592580795, 0.03542826324701309, 0.009061304852366447, 0.008940628729760647, 0.03299549221992493, 0.016669094562530518, 0.061764802783727646, 0.012321466580033302, 0.053284529596567154, 0.0889577716588974, 0.03617208078503609, 0.013283602893352509, 0.03490687906742096, 0.21530795097351074, 0.0540938638150692, 0.021162763237953186, 0.09519144147634506], [0.07525289803743362, 0.03140806406736374, 0.023243771865963936, 0.011499403975903988, 0.10106679052114487, 0.0259591955691576, 0.0048955287784338, 0.0031924548093229532, 0.05559937283396721, 0.01783684454858303, 0.04054661840200424, 0.060833897441625595, 0.09896766394376755, 0.09750604629516602, 0.01706034317612648, 0.00629401532933116, 0.007821585983037949, 0.27818331122398376, 0.00917854718863964, 0.00351659650914371, 0.030137045308947563], [0.02478429488837719, 0.06770594418048859, 0.031163793057203293, 0.08716623485088348, 0.05850210040807724, 0.0128951920196414, 0.015669433400034904, 0.007711479905992746, 0.06945084035396576, 0.04984137415885925, 0.05235110595822334, 0.04232478514313698, 0.07281330972909927, 0.08986768871545792, 0.017972245812416077, 0.009562387131154537, 0.007089173886924982, 0.2119990885257721, 0.027977067977190018, 0.011825058609247208, 0.03132733330130577], [0.02891324833035469, 0.08073505014181137, 0.031134730204939842, 0.08695738762617111, 0.05034571886062622, 0.002599331783130765, 0.02052297629415989, 0.008984834887087345, 0.05356249213218689, 0.15072011947631836, 0.05252133309841156, 0.023683667182922363, 0.050835587084293365, 0.06448253244161606, 0.02167561836540699, 0.009145892225205898, 0.01631314307451248, 0.12108580023050308, 0.04859005659818649, 0.03536418452858925, 0.04182631894946098], [0.03625015169382095, 0.037298861891031265, 0.005057564936578274, 0.019016992300748825, 0.02385891042649746, 0.0197775699198246, 0.0018419749103486538, 0.007100599817931652, 0.09930871427059174, 0.07130014896392822, 0.05996295437216759, 0.0079546719789505, 0.023725321516394615, 0.15643388032913208, 0.00667574955150485, 0.004308411851525307, 0.008087522350251675, 0.23612146079540253, 0.05524872615933418, 0.007329283282160759, 0.11334054917097092], [0.053005825728178024, 0.020955536514520645, 0.005723315291106701, 0.005588257685303688, 0.012337366119027138, 0.008823700249195099, 0.0258465688675642, 0.002665765816345811, 0.054299529641866684, 0.1270616203546524, 0.048351362347602844, 0.01133655570447445, 0.02370692975819111, 0.0944705531001091, 0.00997568666934967, 0.0022947893012315035, 0.0032435806933790445, 0.21042752265930176, 0.1305037885904312, 0.027055397629737854, 0.1223263144493103], [0.04012268781661987, 0.07151591032743454, 0.027630846947431564, 0.04281630739569664, 0.04183590039610863, 0.022648155689239502, 0.043322257697582245, 0.03345610201358795, 0.05248367413878441, 0.04316146299242973, 0.08178544789552689, 0.0322282500565052, 0.04322034865617752, 0.06980696320533752, 0.025993525981903076, 0.017169233411550522, 0.041655030101537704, 0.11152052879333496, 0.03907425329089165, 0.0349004864692688, 0.08365266025066376], [0.08592840284109116, 0.024278786033391953, 0.004401393700391054, 0.011481243185698986, 0.010874711908400059, 0.01098113227635622, 0.012866276316344738, 0.03459157794713974, 0.07421087473630905, 0.028367633000016212, 0.036879751831293106, 0.010539358481764793, 0.023123126477003098, 0.1048940122127533, 0.02511695958673954, 0.005312066059559584, 0.029404057189822197, 0.19287988543510437, 0.12211962044239044, 0.040754545480012894, 0.11099444329738617], [0.07571028918027878, 0.061640676110982895, 0.04219000041484833, 0.05259613320231438, 0.046064864844083786, 0.012735797092318535, 0.021892158314585686, 0.01880483143031597, 0.046646032482385635, 0.04756134748458862, 0.06500714272260666, 0.030329464003443718, 0.030319668352603912, 0.05913369730114937, 0.013223156332969666, 0.007269627880305052, 0.021935686469078064, 0.10303077101707458, 0.019973255693912506, 0.02551530860364437, 0.1984201967716217], [0.09306243807077408, 0.0637643039226532, 0.011283035390079021, 0.061962030827999115, 0.06273127347230911, 0.023571815341711044, 0.011509427800774574, 0.009865389205515385, 0.0450541190803051, 0.03728595748543739, 0.054427292197942734, 0.005275392904877663, 0.04708351194858551, 0.08566371351480484, 0.020581208169460297, 0.01055025216192007, 0.027529655024409294, 0.177709698677063, 0.02690119668841362, 0.017570113763213158, 0.10661819577217102], [0.018935363739728928, 0.05638708919286728, 0.03292381390929222, 0.10362568497657776, 0.07165806740522385, 0.027351725846529007, 0.027290545403957367, 0.0198737233877182, 0.06571803241968155, 0.0693822130560875, 0.04310862720012665, 0.034904442727565765, 0.05486883968114853, 0.06536795198917389, 0.03157375007867813, 0.014035731554031372, 0.016733407974243164, 0.14337685704231262, 0.04840467870235443, 0.026626504957675934, 0.027852850034832954], [0.027404967695474625, 0.061792194843292236, 0.03868350759148598, 0.04400305822491646, 0.041790056973695755, 0.03398702293634415, 0.035054292529821396, 0.04449605196714401, 0.051339924335479736, 0.04240529239177704, 0.06863522529602051, 0.03473909571766853, 0.0382259264588356, 0.05675526708364487, 0.03870341181755066, 0.023876385763287544, 0.05417961627244949, 0.09421756118535995, 0.05298638343811035, 0.06267557293176651, 0.05404910445213318], [0.02588706463575363, 0.01878170482814312, 0.019932027906179428, 0.026681624352931976, 0.05958014726638794, 0.014785629697144032, 0.00432622991502285, 0.007331490982323885, 0.0459662526845932, 0.06147384271025658, 0.02137780748307705, 0.030336875468492508, 0.10653655230998993, 0.10247968137264252, 0.01703202910721302, 0.011158487759530544, 0.014711350202560425, 0.2573379576206207, 0.10382453352212906, 0.0376184917986393, 0.01284024864435196], [0.030951660126447678, 0.025429032742977142, 0.008233124390244484, 0.01733090914785862, 0.03031405434012413, 0.024966856464743614, 0.009183239191770554, 0.006740119308233261, 0.05560529977083206, 0.029090477153658867, 0.05094391107559204, 0.015644337981939316, 0.05404304340481758, 0.10472097992897034, 0.029044009745121002, 0.006377450190484524, 0.01954968087375164, 0.2701452672481537, 0.11606743931770325, 0.053887989372015, 0.04173113778233528], [0.05441766604781151, 0.025177570059895515, 0.02042713575065136, 0.010871954262256622, 0.025701461359858513, 0.021431349217891693, 0.019193582236766815, 0.004974480718374252, 0.06579448282718658, 0.07638351619243622, 0.040428318083286285, 0.022410480305552483, 0.046522945165634155, 0.10479229688644409, 0.02652105502784252, 0.00865259114652872, 0.004007653798907995, 0.22227954864501953, 0.09335654973983765, 0.06997355073690414, 0.036681823432445526], [0.031037796288728714, 0.0670589804649353, 0.03855973854660988, 0.05218401551246643, 0.04114421457052231, 0.0338757187128067, 0.033427391201257706, 0.04980064183473587, 0.048011817038059235, 0.04288403317332268, 0.06500129401683807, 0.03612697869539261, 0.03171117976307869, 0.05263237655162811, 0.043892450630664825, 0.02464235946536064, 0.06144655495882034, 0.0717044547200203, 0.05665050074458122, 0.049794383347034454, 0.06841316819190979], [0.0357663668692112, 0.03800208121538162, 0.013728214427828789, 0.014570937491953373, 0.014621783047914505, 0.011024685576558113, 0.02231602743268013, 0.05266573652625084, 0.06526705622673035, 0.15228767693042755, 0.022948401048779488, 0.011778273619711399, 0.02185938134789467, 0.09996979683637619, 0.048088278621435165, 0.009631572291254997, 0.037847425788640976, 0.2210777997970581, 0.028638185933232307, 0.041452936828136444, 0.03645738214254379], [0.030184395611286163, 0.021762998774647713, 0.016950391232967377, 0.010399585589766502, 0.02498428337275982, 0.009979341179132462, 0.01405879482626915, 0.023071805015206337, 0.029546992853283882, 0.10112053155899048, 0.01217689085751772, 0.02180081605911255, 0.04731607064604759, 0.09270384907722473, 0.04769359901547432, 0.016279296949505806, 0.059765174984931946, 0.1324576735496521, 0.16884274780750275, 0.062478166073560715, 0.05642658472061157], [0.053490638732910156, 0.0290024783462286, 0.018068045377731323, 0.027669336646795273, 0.012815174646675587, 0.008455469273030758, 0.051984310150146484, 0.025541840121150017, 0.046390704810619354, 0.14693740010261536, 0.07168126106262207, 0.03088112734258175, 0.019230766221880913, 0.03553490340709686, 0.044740770012140274, 0.007475889287889004, 0.02474447526037693, 0.06259389221668243, 0.09672444313764572, 0.02749602496623993, 0.15854103863239288]], [[0.014628642238676548, 0.18425294756889343, 0.09365590661764145, 0.1422271728515625, 0.026817727833986282, 0.014221523888409138, 0.017761247232556343, 0.005214077420532703, 0.028973817825317383, 0.02004317194223404, 0.16578306257724762, 0.051899246871471405, 0.017278244718909264, 0.07079709321260452, 0.014810577034950256, 0.010277616791427135, 0.004286062903702259, 0.07816655933856964, 0.005515524186193943, 0.007923065684735775, 0.025466736406087875], [0.0036990426015108824, 0.03340587392449379, 0.10212049633264542, 0.22201210260391235, 0.23423291742801666, 0.012218417599797249, 0.04186045750975609, 0.04411102458834648, 0.05570506304502487, 0.06795735657215118, 0.04171757027506828, 0.01240738295018673, 0.009253268130123615, 0.018295040354132652, 0.008154766634106636, 0.0009198218467645347, 0.002354295924305916, 0.04548788443207741, 0.004153427667915821, 0.004021701402962208, 0.035911962389945984], [0.0035451266448944807, 0.012915516272187233, 0.031225474551320076, 0.11764834821224213, 0.4322369396686554, 0.026148458942770958, 0.08764554560184479, 0.06961584836244583, 0.029919734224677086, 0.03795864060521126, 0.027450527995824814, 0.027313653379678726, 0.0164501816034317, 0.014107760973274708, 0.014954609796404839, 0.0012466200860217214, 0.002030938398092985, 0.02778516709804535, 0.002293267985805869, 0.0025401937309652567, 0.014967459253966808], [0.0028159311041235924, 0.008877990767359734, 0.013010998256504536, 0.04145924001932144, 0.2749171257019043, 0.03601245954632759, 0.07334882020950317, 0.12596866488456726, 0.10793177783489227, 0.17660166323184967, 0.036726322025060654, 0.0079420180991292, 0.01582588069140911, 0.019139064475893974, 0.017477165907621384, 0.001645876793190837, 0.0023269192315638065, 0.024027202278375626, 0.0015124240890145302, 0.0012266418198123574, 0.011205757036805153], [0.002465927740558982, 0.0062187896110117435, 0.002752127358689904, 0.01236198004335165, 0.04590069130063057, 0.013178310357034206, 0.08786866068840027, 0.17163494229316711, 0.10308237373828888, 0.2516080141067505, 0.16205568611621857, 0.020589973777532578, 0.01030066516250372, 0.017815206199884415, 0.027721107006072998, 0.0036719623021781445, 0.00804952159523964, 0.037903573364019394, 0.003376987762749195, 0.0017447801074013114, 0.009698649868369102], [0.009006238542497158, 0.013516919687390327, 0.01154640968888998, 0.007211035117506981, 0.022166626527905464, 0.01303897239267826, 0.02318800985813141, 0.08522520214319229, 0.09102155268192291, 0.4714025855064392, 0.06322869658470154, 0.020654894411563873, 0.010281741619110107, 0.013745816424489021, 0.025789499282836914, 0.004704410210251808, 0.008167539723217487, 0.03752611577510834, 0.034916337579488754, 0.007711181882768869, 0.025950105860829353], [0.009112578816711903, 0.015941079705953598, 0.012528428807854652, 0.013331432826817036, 0.022844329476356506, 0.01064976304769516, 0.026367953047156334, 0.027155516669154167, 0.05033203959465027, 0.42046815156936646, 0.18397794663906097, 0.053999293595552444, 0.012723350897431374, 0.019687408581376076, 0.022793753072619438, 0.0030452830251306295, 0.004686533939093351, 0.042371802031993866, 0.024446306750178337, 0.004121334757655859, 0.019415568560361862], [0.01877804473042488, 0.012531175278127193, 0.008193360641598701, 0.0045738425105810165, 0.00884497445076704, 0.0030731698498129845, 0.007290315348654985, 0.010484359227120876, 0.09337892383337021, 0.18177585303783417, 0.2742147147655487, 0.04514746367931366, 0.01278191339224577, 0.05830101668834686, 0.00788769219070673, 0.002516373759135604, 0.00393708748742938, 0.20338678359985352, 0.014764641411602497, 0.006004177499562502, 0.0221340823918581], [0.028866736218333244, 0.013286370784044266, 0.008052260614931583, 0.015296580269932747, 0.008000529371201992, 0.004973245784640312, 0.009651961736381054, 0.016420846804976463, 0.09508614987134933, 0.10457167029380798, 0.12049870938062668, 0.036987774074077606, 0.03353455662727356, 0.1099187582731247, 0.01504781935364008, 0.005111626349389553, 0.017239432781934738, 0.2876894474029541, 0.008997241966426373, 0.009322685189545155, 0.05144559219479561], [0.016114139929413795, 0.01818598061800003, 0.010604028590023518, 0.01120087131857872, 0.017414486035704613, 0.003373944666236639, 0.008469490334391594, 0.010822074487805367, 0.06628720462322235, 0.11379459500312805, 0.21479687094688416, 0.08468638360500336, 0.06558173149824142, 0.10949762165546417, 0.013674410060048103, 0.003866784041747451, 0.006682860665023327, 0.18863172829151154, 0.011039412580430508, 0.009569520130753517, 0.015705930069088936], [0.0075831045396625996, 0.002924455562606454, 0.002026432892307639, 0.0025883333291858435, 0.0010179913369938731, 0.0006132860435172915, 0.00047007741522975266, 0.0005325382226146758, 0.0020947353914380074, 0.00295272096991539, 0.025033466517925262, 0.07937510311603546, 0.3522605001926422, 0.11502596735954285, 0.09620953351259232, 0.016452860087156296, 0.02501995861530304, 0.025262748822569847, 0.0333922803401947, 0.04189193248748779, 0.16727210581302643], [0.002716564107686281, 0.0014737825840711594, 0.0005042831762693822, 0.0007283146260306239, 0.0004904206143692136, 0.000383320584660396, 0.0005107428296469152, 0.0003483719192445278, 0.00046667311107739806, 0.000665685860440135, 0.01533260103315115, 0.08621042966842651, 0.28534775972366333, 0.06913379579782486, 0.23644566535949707, 0.03474579006433487, 0.04154125973582268, 0.009593737311661243, 0.04689464345574379, 0.0683581754565239, 0.09810813516378403], [0.005671315360814333, 0.0032917254138737917, 0.0006473683752119541, 0.0004110522859264165, 0.0007169672753661871, 0.00022235256619751453, 0.00023210416838992387, 0.0003866179031319916, 0.0012006546603515744, 0.000681934820022434, 0.005907848943024874, 0.0071209389716386795, 0.06340672075748444, 0.09632248431444168, 0.14678120613098145, 0.05315074324607849, 0.10568578541278839, 0.09253150224685669, 0.18213950097560883, 0.131262868642807, 0.10222826153039932], [0.028469249606132507, 0.018354469910264015, 0.007045548874884844, 0.007259949576109648, 0.0073563833720982075, 0.0027642797213047743, 0.003195537254214287, 0.00558839738368988, 0.01623816229403019, 0.008886920288205147, 0.015755243599414825, 0.012483949773013592, 0.057295095175504684, 0.1028720885515213, 0.05995972827076912, 0.030757758766412735, 0.08410805463790894, 0.2035689800977707, 0.07750272750854492, 0.09479959309101105, 0.15573783218860626], [0.014459772035479546, 0.007949604652822018, 0.004829060286283493, 0.0007582622347399592, 0.00430187676101923, 0.0005385883268900216, 0.0005362167139537632, 0.0011795187601819634, 0.00448174774646759, 0.0038609830662608147, 0.0049034771509468555, 0.005894250702112913, 0.025583410635590553, 0.05592779442667961, 0.03609859198331833, 0.017571618780493736, 0.0460333414375782, 0.20717158913612366, 0.276919424533844, 0.19803206622600555, 0.08296865969896317], [0.02748715877532959, 0.007840992882847786, 0.005493170581758022, 0.0012004162417724729, 0.0023340866900980473, 0.0005894992500543594, 0.0003778019454330206, 0.0003687264979816973, 0.002339509781450033, 0.0028531397692859173, 0.00451236916705966, 0.010029764845967293, 0.021541250869631767, 0.048226743936538696, 0.04345379397273064, 0.019540052860975266, 0.019614141434431076, 0.12653115391731262, 0.408578485250473, 0.15805590152740479, 0.08903173357248306], [0.02708749659359455, 0.009120646864175797, 0.005320756696164608, 0.002238802146166563, 0.0032219632994383574, 0.00038779215537942946, 0.00027988539659418166, 0.0002524351584725082, 0.0031142078805714846, 0.001506226253695786, 0.010073667392134666, 0.013476613909006119, 0.021657615900039673, 0.06634873896837234, 0.01396140456199646, 0.01228710450232029, 0.0086362324655056, 0.2755037546157837, 0.2391052395105362, 0.15524747967720032, 0.1311718374490738], [0.06717046350240707, 0.040333736687898636, 0.01945987343788147, 0.03267063945531845, 0.02407708391547203, 0.008040409535169601, 0.01186569593846798, 0.011655456386506557, 0.04992133751511574, 0.017609484493732452, 0.02375701442360878, 0.009845318272709846, 0.020124826580286026, 0.0996553897857666, 0.01548584271222353, 0.009000282734632492, 0.014756674878299236, 0.38327884674072266, 0.014859109185636044, 0.022430850192904472, 0.10400169342756271], [0.08394874632358551, 0.01100611500442028, 0.0044699134305119514, 0.00632278760895133, 0.014334877021610737, 0.0013707895996049047, 0.0016771120717749, 0.0016132858581840992, 0.012315060943365097, 0.0026519272942095995, 0.005250450223684311, 0.0037055995780974627, 0.01070743054151535, 0.09805050492286682, 0.007180567365139723, 0.003003319725394249, 0.003977723885327578, 0.5425980091094971, 0.03670986741781235, 0.02389705181121826, 0.12520892918109894], [0.06518756598234177, 0.005969802848994732, 0.0021169420797377825, 0.006768150720745325, 0.011319798417389393, 0.001465192879550159, 0.0024337635841220617, 0.003132603829726577, 0.011923723854124546, 0.004074390046298504, 0.012789387255907059, 0.0050117457285523415, 0.021463828161358833, 0.07637599110603333, 0.015296505764126778, 0.007422636728733778, 0.010599271394312382, 0.3501361012458801, 0.0567488856613636, 0.039858680218458176, 0.2899050712585449], [0.007567945867776871, 0.10215451568365097, 0.13080859184265137, 0.21282069385051727, 0.14330928027629852, 0.015438768081367016, 0.056000348180532455, 0.020456744357943535, 0.02426365576684475, 0.02466193027794361, 0.06841821223497391, 0.02309124730527401, 0.006452299654483795, 0.022758418694138527, 0.011768011376261711, 0.0022098340559750795, 0.0031749617774039507, 0.060920342803001404, 0.005000351928174496, 0.004362143110483885, 0.054361701011657715]], [[0.007105638738721609, 0.007890728302299976, 0.0022556371986865997, 0.0025328167248517275, 0.0027340324595570564, 0.0023319751489907503, 0.01671105995774269, 0.004479348659515381, 0.038759056478738785, 0.05524936318397522, 0.554013192653656, 0.0693226307630539, 0.013278144411742687, 0.00946992076933384, 0.016856636852025986, 0.002297822153195739, 0.002695683389902115, 0.01188330352306366, 0.03847077861428261, 0.0334651954472065, 0.10819698125123978], [0.012326584197580814, 0.03988085314631462, 0.006547539494931698, 0.0105515131726861, 0.016338974237442017, 0.006124693900346756, 0.0036911398638039827, 0.009222766384482384, 0.14064425230026245, 0.01211757306009531, 0.1245458722114563, 0.03001481667160988, 0.019502168521285057, 0.19586268067359924, 0.008538216352462769, 0.009664640761911869, 0.004766662605106831, 0.28114837408065796, 0.011511383578181267, 0.0139504699036479, 0.043049003928899765], [0.010443263687193394, 0.06919924169778824, 0.03677348420023918, 0.015002445317804813, 0.05697108060121536, 0.0037387763150036335, 0.006062446627765894, 0.005530456081032753, 0.07051224261522293, 0.029485562816262245, 0.05116090178489685, 0.06038033962249756, 0.060497719794511795, 0.1576741486787796, 0.008518913760781288, 0.004925454501062632, 0.0039083887822926044, 0.27077293395996094, 0.01252194494009018, 0.015430699102580547, 0.05048951506614685], [0.017321715131402016, 0.039226800203323364, 0.11308325827121735, 0.11395564675331116, 0.11319175362586975, 0.009956949390470982, 0.010625511407852173, 0.005320757161825895, 0.04404953494668007, 0.027635054662823677, 0.025705557316541672, 0.10738519579172134, 0.09505720436573029, 0.0694907084107399, 0.013397762551903725, 0.02088150382041931, 0.0038266389165073633, 0.10873599350452423, 0.01367960125207901, 0.01850256510078907, 0.028970275074243546], [0.00846177339553833, 0.04704922437667847, 0.03803982958197594, 0.1478421539068222, 0.23000910878181458, 0.002828613854944706, 0.0032186114694923162, 0.004094931297004223, 0.0280899740755558, 0.017114322632551193, 0.0415247343480587, 0.06413542479276657, 0.10147161036729813, 0.07614000886678696, 0.008693822659552097, 0.004805433098226786, 0.00450558215379715, 0.12934164702892303, 0.011624982580542564, 0.005267854779958725, 0.025740396231412888], [0.13592840731143951, 0.052371371537446976, 0.008164982311427593, 0.025585725903511047, 0.02882506512105465, 0.012256024405360222, 0.006387574132531881, 0.025881526991724968, 0.07739824056625366, 0.04866841062903404, 0.0965481698513031, 0.02860904484987259, 0.03428800776600838, 0.07761978358030319, 0.017613805830478668, 0.012629405595362186, 0.01045900210738182, 0.0935981273651123, 0.035195380449295044, 0.030337579548358917, 0.14163430035114288], [0.03340588137507439, 0.026974307373166084, 0.032180652022361755, 0.01626686006784439, 0.026039818301796913, 0.004019665066152811, 0.016368789598345757, 0.015574458986520767, 0.06966529786586761, 0.06479885429143906, 0.06786958128213882, 0.07940836250782013, 0.03048587404191494, 0.11257756501436234, 0.01781231164932251, 0.012491872534155846, 0.009870953857898712, 0.20847301185131073, 0.040278416126966476, 0.04528689756989479, 0.07015050202608109], [0.05654321610927582, 0.04982932657003403, 0.025268496945500374, 0.013886717148125172, 0.01392386108636856, 0.014886966906487942, 0.01142161339521408, 0.1632508486509323, 0.048962801694869995, 0.06175115332007408, 0.0666373074054718, 0.056118786334991455, 0.021832777187228203, 0.042389582842588425, 0.026459509506821632, 0.019440636038780212, 0.04436738044023514, 0.04684513807296753, 0.011239017359912395, 0.026942936703562737, 0.17800192534923553], [0.00965144019573927, 0.03190041333436966, 0.005286558531224728, 0.008472799323499203, 0.0044935317710042, 0.002184673910960555, 0.0005612665554508567, 0.0072045172564685345, 0.1372726559638977, 0.005377078894525766, 0.05964404717087746, 0.016004348173737526, 0.004896647296845913, 0.20166191458702087, 0.003880836069583893, 0.003449584124609828, 0.003785427426919341, 0.46112626791000366, 0.002574311336502433, 0.00511451018974185, 0.02545725181698799], [0.029185911640524864, 0.02838684432208538, 0.027994602918624878, 0.012195018120110035, 0.014219081960618496, 0.0036762466188520193, 0.02047276869416237, 0.021727338433265686, 0.04305000975728035, 0.17129375040531158, 0.08119972050189972, 0.060839977115392685, 0.031038034707307816, 0.052903275936841965, 0.023897754028439522, 0.010932397097349167, 0.01618555746972561, 0.06435927003622055, 0.054105330258607864, 0.10126666724681854, 0.1310703307390213], [0.024883421137928963, 0.05502923205494881, 0.008572990074753761, 0.02763551101088524, 0.012775540351867676, 0.0030352468602359295, 0.0037396978586912155, 0.0152180977165699, 0.11585690826177597, 0.0186170544475317, 0.18171830475330353, 0.04760110750794411, 0.01517043448984623, 0.09030318260192871, 0.006065618246793747, 0.006991447880864143, 0.006999460514634848, 0.20860141515731812, 0.005555999930948019, 0.011231050826609135, 0.13439828157424927], [0.01604776456952095, 0.04160766676068306, 0.03179210051894188, 0.04108338803052902, 0.03130440413951874, 0.0017589698545634747, 0.00432260287925601, 0.006904038600623608, 0.041718002408742905, 0.023995094001293182, 0.11431016772985458, 0.16401901841163635, 0.03556825965642929, 0.04654154181480408, 0.0037127132527530193, 0.004091999959200621, 0.005456572864204645, 0.13631652295589447, 0.008607061579823494, 0.011550159193575382, 0.2292918711900711], [0.01187247596681118, 0.055726658552885056, 0.026404215022921562, 0.08905404061079025, 0.13396711647510529, 0.0037070054095238447, 0.0035551530309021473, 0.009913140907883644, 0.053422629833221436, 0.02162294276058674, 0.05591830611228943, 0.050737183541059494, 0.07799684256315231, 0.10734497755765915, 0.009272042661905289, 0.0060827420093119144, 0.010438173078000546, 0.2011335790157318, 0.0131983682513237, 0.008411997929215431, 0.05022035166621208], [0.02196638658642769, 0.05466732010245323, 0.01105857826769352, 0.027111167088150978, 0.010453535243868828, 0.005603259429335594, 0.0013192353071644902, 0.00965631753206253, 0.10225944966077805, 0.010358700528740883, 0.06341428309679031, 0.022297360002994537, 0.010408014990389347, 0.1906910538673401, 0.012659493833780289, 0.00872472021728754, 0.008046235889196396, 0.3613640069961548, 0.008392572402954102, 0.005678155925124884, 0.053870171308517456], [0.026327593252062798, 0.04361870512366295, 0.027836406603455544, 0.006861339323222637, 0.026633545756340027, 0.0024494847748428583, 0.0023036764468997717, 0.006985023617744446, 0.07026912271976471, 0.018695365637540817, 0.03604121878743172, 0.043587714433670044, 0.03954567760229111, 0.1921825259923935, 0.013713684864342213, 0.018785320222377777, 0.01300263125449419, 0.2883136570453644, 0.022324783727526665, 0.01825486123561859, 0.08226767182350159], [0.09993446618318558, 0.0399414524435997, 0.018499769270420074, 0.011745411902666092, 0.028120050206780434, 0.010843172669410706, 0.00611912040039897, 0.02433222532272339, 0.0407717227935791, 0.05336911976337433, 0.06339412927627563, 0.05828750878572464, 0.054860979318618774, 0.05145842954516411, 0.06280485540628433, 0.026063429191708565, 0.02759520709514618, 0.05994977802038193, 0.07701146602630615, 0.021080847829580307, 0.16381676495075226], [0.06330309063196182, 0.061329297721385956, 0.026889238506555557, 0.008966297842562199, 0.019931524991989136, 0.01326829381287098, 0.005208287388086319, 0.07528906315565109, 0.0465003065764904, 0.02444499358534813, 0.029383642598986626, 0.025302419438958168, 0.03312103450298309, 0.08885858952999115, 0.012372552417218685, 0.024583734571933746, 0.029959531500935555, 0.11261008679866791, 0.009974084794521332, 0.019007058814167976, 0.26969674229621887], [0.015252138487994671, 0.05069257691502571, 0.010228128172457218, 0.014757199212908745, 0.007478675805032253, 0.003735337173566222, 0.0010451897978782654, 0.00820055603981018, 0.10459620505571365, 0.006563553120940924, 0.056282877922058105, 0.01727992668747902, 0.007583863567560911, 0.19040919840335846, 0.00651651993393898, 0.004368338733911514, 0.006317138671875, 0.43612417578697205, 0.004167517181485891, 0.004476325586438179, 0.04392445087432861], [0.03386925160884857, 0.034183625131845474, 0.010223164223134518, 0.008584899827837944, 0.011676809750497341, 0.007005422376096249, 0.005289224907755852, 0.01889425702393055, 0.060814954340457916, 0.03955557569861412, 0.06176743656396866, 0.01943863183259964, 0.02508619986474514, 0.12564916908740997, 0.013705991208553314, 0.015849262475967407, 0.012803795747458935, 0.1708105057477951, 0.04481301084160805, 0.09788329154253006, 0.18209555745124817], [0.037989482283592224, 0.037120502442121506, 0.023142989724874496, 0.0482737198472023, 0.030637791380286217, 0.013248572126030922, 0.009896008297801018, 0.022936830297112465, 0.02538210339844227, 0.11827601492404938, 0.05133063718676567, 0.036791279911994934, 0.027941877022385597, 0.05686255171895027, 0.08682272583246231, 0.009190727956593037, 0.018314190208911896, 0.07896751165390015, 0.04759672284126282, 0.036178845912218094, 0.18309900164604187], [0.015250923112034798, 0.029981350526213646, 0.006217229180037975, 0.02545979991555214, 0.014502947218716145, 0.012307959608733654, 0.03631246089935303, 0.05757154896855354, 0.08099314570426941, 0.08733858168125153, 0.2304675132036209, 0.06824678927659988, 0.020434509962797165, 0.05592899024486542, 0.04402888938784599, 0.008977105841040611, 0.03115943633019924, 0.089678093791008, 0.025996580719947815, 0.02929624170064926, 0.02984997257590294]], [[0.023045621812343597, 0.005391222424805164, 0.0033220904879271984, 0.01868739351630211, 0.003301930846646428, 0.0013451239792630076, 0.011635751463472843, 0.008702138438820839, 0.03139640763401985, 0.03701965883374214, 0.06119894981384277, 0.09411808103322983, 0.020269649103283882, 0.07999327033758163, 0.01712697744369507, 0.013139665126800537, 0.029532460495829582, 0.28239062428474426, 0.09246610850095749, 0.11768046766519547, 0.04823639243841171], [0.01200389675796032, 0.08935123682022095, 0.02812463790178299, 0.0011954024666920304, 0.00010497758921701461, 1.4567600373993628e-05, 0.0008060307009145617, 0.00015213628648780286, 0.007776841055601835, 0.0017321460181847215, 0.0007952069863677025, 0.000868555682245642, 0.0002767400583252311, 0.04304976016283035, 0.0030104017350822687, 0.0008861160022206604, 0.001510840025730431, 0.7183902263641357, 0.0020809066481888294, 0.003703705035150051, 0.08416564762592316], [0.012087110430002213, 0.4486885666847229, 0.07687702029943466, 0.00581797119230032, 0.0007730217184871435, 0.00015809221076779068, 0.002646208740770817, 0.00175875099375844, 0.002750095911324024, 0.004134166985750198, 0.0018097658175975084, 0.00011535913654370233, 0.00014844238467048854, 0.006010045763105154, 0.0011414876207709312, 0.00027145372587256134, 0.005813536699861288, 0.2820078730583191, 0.0008008190779946744, 0.0010019951732829213, 0.14518825709819794], [0.003065594471991062, 0.04744177311658859, 0.16366100311279297, 0.011728012003004551, 0.005322062876075506, 0.00021245336392894387, 0.0007711024372838438, 4.7235338570317253e-05, 0.0052175745368003845, 0.000472321204142645, 0.0007313473033718765, 0.0010124723194167018, 0.0002406252606306225, 0.036616675555706024, 0.00019013200653716922, 2.9155822630855255e-05, 6.229525024536997e-05, 0.6928825378417969, 0.0019775512628257275, 0.0017395091708749533, 0.026578586548566818], [0.000439980038208887, 0.015692714601755142, 0.12595407664775848, 0.735549807548523, 0.04130357503890991, 0.0001181047991849482, 0.0013920486671850085, 0.00011904734128620476, 0.0012701405212283134, 0.0001298122515436262, 0.00020834742463193834, 0.0024766360875219107, 4.0031474782153964e-05, 0.004379858262836933, 6.731141911586747e-05, 4.078454367117956e-06, 1.0178468983212952e-05, 0.05597737431526184, 0.00030789474840275943, 0.0003442916495259851, 0.01421479694545269], [0.0009031142108142376, 0.0023899890948086977, 0.004471818450838327, 0.02653115801513195, 0.8690711855888367, 0.0013468237593770027, 0.003697637002915144, 0.00011715873552020639, 0.0034483883064240217, 0.00026323081692680717, 0.00035901344381272793, 0.00035486428532749414, 0.0014757007593289018, 0.018221404403448105, 0.0009582414641045034, 1.7062766346498393e-05, 2.0122288333368488e-05, 0.05248004570603371, 9.555261203786358e-05, 0.00022217327204998583, 0.013555300422012806], [0.002447224920615554, 0.0025480648037046194, 0.008058481849730015, 0.017376765608787537, 0.8166648149490356, 0.017953354865312576, 0.004385222680866718, 0.0029084165580570698, 0.02066599391400814, 0.0036831048782914877, 0.0007442464702762663, 0.00041279298602603376, 0.0007019645418040454, 0.012092888355255127, 0.0007130331941880286, 5.62195637030527e-05, 6.790809129597619e-05, 0.05516813322901726, 8.993496157927439e-05, 0.00039747293340042233, 0.03286396339535713], [0.005302966572344303, 0.004428217653185129, 0.0019110151333734393, 0.023051979020237923, 0.18241330981254578, 0.1544838696718216, 0.3648527264595032, 0.010507732629776001, 0.061521049588918686, 0.037515923380851746, 0.0010761363664641976, 6.042207678547129e-05, 0.0001382937334710732, 0.00900549627840519, 0.01269487664103508, 0.0013664704747498035, 0.00027804894489236176, 0.05729534104466438, 0.0009055864647962153, 0.0013248909963294864, 0.06986568123102188], [0.017091374844312668, 0.005716889631003141, 0.005521521903574467, 0.01722945086658001, 0.025518538430333138, 0.00496423477306962, 0.3246234059333801, 0.04648434743285179, 0.12454252690076828, 0.04113886505365372, 0.0028453601989895105, 0.0014500267570838332, 0.0006567667587660253, 0.0171887818723917, 0.006568763870745897, 0.0012231761356815696, 0.0011423812247812748, 0.29529067873954773, 0.0019213041523471475, 0.0012227800907567143, 0.0576588399708271], [0.00516161136329174, 0.004795468412339687, 0.0012992238625884056, 0.0021401315461844206, 0.011001698672771454, 0.0018170397961512208, 0.32846158742904663, 0.14569063484668732, 0.24321138858795166, 0.07783591002225876, 0.005683073773980141, 0.00035095339990220964, 0.00018218929471913725, 0.003019027877599001, 0.004643341992050409, 0.0006024268222972751, 0.0029874411411583424, 0.07299100607633591, 0.000813222723081708, 0.000171813735505566, 0.08714071661233902], [0.008743319660425186, 0.0012241940712556243, 0.001386201591230929, 0.0005875584902241826, 0.00010866069351322949, 9.50577395997243e-06, 0.00250022835098207, 0.0019588242284953594, 0.09166831523180008, 0.04479211941361427, 0.05572609230875969, 0.02857781946659088, 0.000404280232032761, 0.022412234917283058, 0.001075664535164833, 0.0003724558337125927, 0.0011236551217734814, 0.7279921770095825, 0.0012273109750822186, 0.0006620707572437823, 0.007447266485542059], [0.010427640751004219, 0.002878723433241248, 0.003702443093061447, 0.0011854310287162662, 8.596443512942642e-05, 1.5599816833855584e-05, 0.0002163909375667572, 0.0004597978258971125, 0.0042078676633536816, 0.02738567441701889, 0.542473554611206, 0.11651510745286942, 0.0025929459370672703, 0.0164969339966774, 0.0010428312234580517, 0.0001893181906780228, 0.006764661520719528, 0.2606843411922455, 0.0003314404748380184, 0.0005854301853105426, 0.0017579327104613185], [0.00019397572032175958, 5.646048884955235e-05, 0.00023119170509744436, 0.0005335963214747608, 1.98173220269382e-05, 9.718103228806285e-07, 1.6120882719405927e-05, 2.3538625555374892e-06, 0.00012149287067586556, 0.00013773184036836028, 0.00798576045781374, 0.9267670512199402, 0.010166272521018982, 0.02692318521440029, 0.001643767929635942, 4.610865653376095e-05, 0.00013166638382244855, 0.02246931567788124, 0.0011845997069031, 0.0004966701380908489, 0.0008718828903511167], [0.006472963374108076, 0.003633275628089905, 0.0026914833579212427, 0.0017908193403854966, 0.0019950636196881533, 0.0011741998605430126, 0.0014292921405285597, 0.00034222155227325857, 0.013453041203320026, 0.002844988601282239, 0.023320386186242104, 0.055805884301662445, 0.2494075745344162, 0.3260651230812073, 0.04580928757786751, 0.00817103125154972, 0.005743281915783882, 0.19571717083454132, 0.011377868242561817, 0.01339000929147005, 0.02936507947742939], [0.0010487339459359646, 0.00029327685479074717, 8.694831922184676e-05, 0.00024050545471254736, 0.001376967877149582, 0.00034531945129856467, 0.0012062389869242907, 0.0001853760186349973, 0.0005550723290070891, 0.00027097135898657143, 0.0032038018107414246, 0.005898728966712952, 0.6476485729217529, 0.18017512559890747, 0.11649583280086517, 0.0034785233438014984, 0.008569191209971905, 0.01934388279914856, 0.000255386607022956, 0.001057652523741126, 0.008263974450528622], [0.0010814460692927241, 0.00026734371203929186, 5.4916268709348515e-05, 8.365916437469423e-05, 0.0047491006553173065, 0.0013435818254947662, 0.00026934908237308264, 0.00011420487862778828, 0.0005416362546384335, 7.827314402675256e-05, 0.0018369911704212427, 0.0010375981219112873, 0.5109853744506836, 0.3342934846878052, 0.06929559260606766, 0.006695009768009186, 0.017092596739530563, 0.03788462281227112, 0.00018657566397450864, 0.0008092221105471253, 0.011299364268779755], [0.00245133345015347, 0.0011225691996514797, 4.540731242741458e-05, 6.880968430778012e-05, 0.0004977505304850638, 0.002864134032279253, 0.004905655514448881, 0.00031041115289554, 0.0014573652297258377, 0.0007625285070389509, 0.0031431526876986027, 0.00036998128052800894, 0.04758868366479874, 0.08172444254159927, 0.6918066740036011, 0.077717624604702, 0.03689788281917572, 0.024202976375818253, 0.0028160561341792345, 0.003096477361395955, 0.016150102019309998], [0.025292817503213882, 0.017691094428300858, 0.016460131853818893, 0.006222827360033989, 0.0021500964649021626, 0.001530673005618155, 0.013375810347497463, 0.003700265660881996, 0.058194756507873535, 0.011228986084461212, 0.012890322133898735, 0.01804698072373867, 0.008941275998950005, 0.10087398439645767, 0.05244047939777374, 0.030524875968694687, 0.02897046133875847, 0.4504449665546417, 0.059458453208208084, 0.03666558489203453, 0.04489515349268913], [0.002174676861613989, 0.0026592568028718233, 0.0009709182195365429, 0.00013192949700169265, 7.448474207194522e-05, 5.8837544202106073e-05, 0.000629287853371352, 0.0005124519229866564, 0.0009811683557927608, 0.0035929593723267317, 0.003603860270231962, 0.004421932622790337, 0.010830993764102459, 0.025936514139175415, 0.2259030044078827, 0.04810716211795807, 0.45280978083610535, 0.14441531896591187, 0.04883089289069176, 0.007474090438336134, 0.015880519524216652], [0.0012005070457234979, 0.0006547467201016843, 9.096237045014277e-05, 3.684873809106648e-05, 8.04936425993219e-05, 8.396153134526685e-06, 9.636353934183717e-05, 0.00013987303827889264, 0.0003129687102045864, 0.0034398301504552364, 0.0016372493701055646, 0.0006942272884771228, 0.02519959956407547, 0.017334435135126114, 0.1892465353012085, 0.02445686049759388, 0.5631680488586426, 0.03840913623571396, 0.09259466826915741, 0.0122912572696805, 0.028907081112265587], [0.0066284132190048695, 0.0010584681294858456, 0.0007618830422870815, 0.0004921366926282644, 3.859790740534663e-05, 0.0002636029967106879, 0.0008944441797211766, 6.20737046119757e-05, 0.004937096498906612, 0.0012016540858894587, 0.0025569533463567495, 0.011261308565735817, 0.0013307265471667051, 0.10525082051753998, 0.023428739979863167, 0.019419727846980095, 0.0055932896211743355, 0.6647436618804932, 0.10117828100919724, 0.04196059703826904, 0.006937580183148384]], [[0.0006388904293999076, 0.44071632623672485, 0.2429698258638382, 0.003577473573386669, 0.0027771475724875927, 0.004783277865499258, 0.0034974589943885803, 0.003339551156386733, 0.004448218736797571, 0.02277621440589428, 0.11029835790395737, 0.11043555289506912, 0.0031811927910894156, 0.005313878878951073, 0.014788363128900528, 0.0006704191328026354, 0.007222320884466171, 0.002827610820531845, 0.006727976258844137, 0.0073348102159798145, 0.0016751267248764634], [0.001606539124622941, 0.26890602707862854, 0.2885963022708893, 0.1128043457865715, 0.13647393882274628, 0.0004976080963388085, 0.0023916256614029408, 0.006272505968809128, 0.013089053332805634, 0.0020245546475052834, 0.001679784618318081, 0.0007664504228159785, 0.0005036764196120203, 0.011478787288069725, 0.0006319032981991768, 0.00018622384232003242, 0.000767749676015228, 0.14604420959949493, 0.0008643426117487252, 0.0025045645888894796, 0.0019098048796877265], [0.00031941774068400264, 0.00718841515481472, 0.010047193616628647, 0.3402000963687897, 0.6108937859535217, 0.00014378961350303143, 0.0029374805744737387, 0.00031529326224699616, 0.002503762487322092, 0.00042782907257787883, 0.00115964247379452, 0.0003604804223868996, 0.0013167955912649632, 0.0017233415273949504, 0.0001672193466220051, 1.3462238712236285e-05, 1.4819948773947544e-05, 0.01836162619292736, 0.0005427057622000575, 0.0006134654395282269, 0.0007492778822779655], [0.0007243322907015681, 0.0017578662373125553, 0.003938616253435612, 0.03431190550327301, 0.8608483076095581, 0.008291291072964668, 0.05511065572500229, 0.014169895090162754, 0.008318496868014336, 0.0011852375464513898, 0.00032945803832262754, 0.0005239887395873666, 0.0005359540809877217, 0.002136919880285859, 0.001328767859376967, 9.722340473672375e-05, 2.240774847450666e-05, 0.005039071198552847, 7.111808372428641e-05, 5.259038516669534e-05, 0.0012057918356731534], [9.087903890758753e-05, 7.56990339141339e-05, 9.935799607774243e-05, 0.001448675524443388, 0.019648820161819458, 0.00330161489546299, 0.9359894394874573, 0.02146266959607601, 0.007800889667123556, 0.0020137159153819084, 0.00019695429364219308, 2.380549631197937e-05, 1.5455250832019374e-05, 0.001632002997212112, 0.0014776497846469283, 0.0006013685488142073, 6.757899245712906e-05, 0.003981287125498056, 1.2846438039559871e-05, 1.106079071178101e-05, 4.8298188630724326e-05], [0.00022059895854908973, 0.0019206077558919787, 0.0007494364981539547, 0.0013032659189775586, 0.007021239027380943, 0.03709706664085388, 0.2012156993150711, 0.4937068223953247, 0.10275190323591232, 0.10721810162067413, 0.0003693088365253061, 2.3637669073650613e-05, 4.449744665180333e-05, 0.003011382417753339, 0.0012223509838804603, 0.0002992069348692894, 0.0036675636656582355, 0.033030036836862564, 0.0008802639204077423, 0.00014528821338899434, 0.004101712256669998], [0.0006709836306981742, 0.00048541781143285334, 0.00032459586509503424, 6.788323662476614e-05, 0.0010288007324561477, 0.0041577876545488834, 0.0025929384864866734, 0.003396537620574236, 0.1864432841539383, 0.780698299407959, 0.0053544603288173676, 0.0006056108395569026, 4.070740033057518e-05, 0.0011034400667995214, 0.0014832444721832871, 1.7150905478047207e-05, 5.7059987739194185e-05, 0.010522549971938133, 0.000371360540157184, 8.208641520468518e-05, 0.0004956611664965749], [0.0006563109345734119, 0.0014098731335252523, 0.0027375253848731518, 0.0001241534628206864, 0.0003419714339543134, 0.0003550479596015066, 0.011603395454585552, 0.014589639380574226, 0.10693617910146713, 0.7861515283584595, 0.017186805605888367, 0.0024396423250436783, 2.9993032512720674e-05, 0.002178632654249668, 0.0013492798898369074, 0.00013749286881648004, 0.000844249501824379, 0.049394071102142334, 0.0009598150500096381, 0.00019823871843982488, 0.0003761924454011023], [0.008187706582248211, 0.008305056020617485, 0.0035937821958214045, 0.001964760944247246, 0.0034199324436485767, 0.0004364459600765258, 0.012003295123577118, 0.04581889137625694, 0.15008996427059174, 0.21380554139614105, 0.08577802032232285, 0.0074546365067362785, 0.00118632719386369, 0.02937241829931736, 0.0010194333735853434, 0.0006241342052817345, 0.0037283687852323055, 0.41952192783355713, 0.0007657137466594577, 0.0015498747816309333, 0.0013736735563725233], [0.010760338976979256, 0.009576326236128807, 0.0033023934811353683, 0.0033987637143582106, 0.0010551444720476866, 8.741379861021414e-05, 0.0035010897554457188, 0.008015342988073826, 0.0759572982788086, 0.0750107541680336, 0.43553513288497925, 0.034285321831703186, 0.001885236706584692, 0.02697833441197872, 0.0009245685068890452, 9.60653560468927e-05, 0.001096385414712131, 0.30273619294166565, 0.0013116929912939668, 0.0016439941246062517, 0.002842230722308159], [0.0033936977852135897, 0.0016947827534750104, 0.0008749431581236422, 0.0006113565759733319, 0.0010031062411144376, 3.292499604867771e-05, 7.506222027586773e-05, 0.0005152460653334856, 0.0021905465982854366, 0.0010609745513647795, 0.08746254444122314, 0.5199448466300964, 0.2325209677219391, 0.07141438871622086, 0.00355014787055552, 0.0011658734874799848, 0.003598327049985528, 0.060935135930776596, 0.0013879475882276893, 0.0025096628814935684, 0.004057544749230146], [8.898854139260948e-05, 4.740513759315945e-05, 6.0870765992149245e-06, 9.793128265300766e-05, 0.0004840833425987512, 3.583636271287105e-06, 2.1715393813792616e-05, 2.2346362129610498e-06, 4.6247463615145534e-05, 3.0255698220571503e-05, 0.0024529751390218735, 0.02011186257004738, 0.9557426571846008, 0.012811637483537197, 0.0029148252215236425, 0.00022779587015975267, 0.0001289224746869877, 0.0019080420024693012, 0.0012787401210516691, 0.0012375524966046214, 0.0003564055950846523], [0.0001608768361620605, 0.00010008065146394074, 2.2171579985297285e-05, 4.660411377699347e-06, 8.54845256981207e-06, 2.153323293896392e-05, 0.0008608493371866643, 3.415711034904234e-05, 3.8979229429969564e-05, 3.145656592096202e-05, 0.0002878195373341441, 0.00331305293366313, 0.013195089064538479, 0.11257238686084747, 0.7171819806098938, 0.09012345969676971, 0.046784739941358566, 0.004833961371332407, 0.004557229578495026, 0.005211796145886183, 0.0006551208207383752], [0.012302697636187077, 0.014822008088231087, 0.0016665109433233738, 0.0014304592041298747, 0.00223804684355855, 0.0009469083161093295, 0.005743027664721012, 0.007313137874007225, 0.007517047692090273, 0.0010729815112426877, 0.004736727569252253, 0.005182479973882437, 0.033371709287166595, 0.1583789438009262, 0.11581340432167053, 0.09045608341693878, 0.29165300726890564, 0.17936529219150543, 0.01437744777649641, 0.026905281469225883, 0.024706903845071793], [0.0016305367462337017, 0.002250672783702612, 0.0005176530103199184, 3.005111102538649e-05, 0.00010073711746372283, 5.084764416096732e-05, 0.0001179480750579387, 0.0002300891646882519, 0.000958795368205756, 0.0010246065212413669, 0.0006278882501646876, 0.0011647009523585439, 0.0076208035461604595, 0.011448902077972889, 0.10805084556341171, 0.006479116156697273, 0.15662814676761627, 0.04355556145310402, 0.5103868246078491, 0.1148352324962616, 0.0322900153696537], [0.0006175151211209595, 0.0012510353699326515, 0.0003523819032125175, 1.0494712114450522e-05, 1.7236992789548822e-05, 2.316338759555947e-05, 1.147482544183731e-05, 0.0002777110494207591, 0.0007225806475616992, 0.001642777700908482, 0.0010315998224541545, 0.001315749017521739, 0.0014659375883638859, 0.004065363202244043, 0.02355307899415493, 0.0011799016501754522, 0.12258195132017136, 0.02681993879377842, 0.7082476615905762, 0.09275846183300018, 0.01205400750041008], [0.000329258618876338, 0.0006190986023284495, 0.0015781550901010633, 1.488288035034202e-05, 1.1116654604848009e-05, 1.907757450680947e-06, 1.0281539289280772e-05, 2.4699178538867272e-05, 0.0001484570384491235, 0.001480970880948007, 0.0015634624287486076, 0.010313918814063072, 0.0012937847059220076, 0.0011282159248366952, 0.012568855658173561, 0.001648958888836205, 0.049477025866508484, 0.012485740706324577, 0.7342936396598816, 0.16644130647182465, 0.004566262010484934], [0.06910322606563568, 0.06437487155199051, 0.012303052470088005, 0.01448720321059227, 0.00927829835563898, 0.0023566174786537886, 0.0038607358001172543, 0.006110269110649824, 0.034328803420066833, 0.00793509092181921, 0.035454560071229935, 0.010215992107987404, 0.01318054087460041, 0.10792680084705353, 0.01028669998049736, 0.006079379003494978, 0.02352997474372387, 0.4519619047641754, 0.017675703391432762, 0.03430426865816116, 0.06524599343538284], [0.036279115825891495, 0.005223930813372135, 0.0003618398914113641, 0.001862205914221704, 0.0004114264447707683, 6.44252531856182e-06, 5.042704742663773e-06, 1.2028624951199163e-05, 0.0009021401056088507, 9.459668217459694e-05, 0.0021123350597918034, 0.0004148028092458844, 0.006962993182241917, 0.04056743532419205, 0.00027995920390821993, 7.099221693351865e-05, 0.0010730730136856437, 0.6743733286857605, 0.036500126123428345, 0.09298664331436157, 0.09949948638677597], [0.04385919123888016, 0.006903523579239845, 0.0024019081611186266, 0.006098459009081125, 0.0028003633487969637, 3.5019002098124474e-05, 0.0001363935152767226, 0.00014487396401818842, 0.0017444082768633962, 0.00011055432696593925, 0.004454275127500296, 0.0043127587996423244, 0.009871901012957096, 0.04756835103034973, 0.0024585004430264235, 0.0012239314382895827, 0.007095620036125183, 0.4895564913749695, 0.07878317683935165, 0.08223924040794373, 0.20820122957229614], [0.0007788132643327117, 0.353776216506958, 0.5184417366981506, 0.01510556135326624, 0.017202431336045265, 0.0005828490830026567, 0.005472155287861824, 0.006857283879071474, 0.0030624722130596638, 0.005064165685325861, 0.006431405432522297, 0.004807464312762022, 0.0015207963297143579, 0.011251303367316723, 0.00852040946483612, 0.0007558638462796807, 0.007484390866011381, 0.024729272350668907, 0.0013273549266159534, 0.004693357273936272, 0.0021345794666558504]], [[0.019607750698924065, 0.07190586626529694, 0.0740121454000473, 0.0619720034301281, 0.09945821017026901, 0.0034814788959920406, 0.012027422897517681, 0.03438795730471611, 0.06973805278539658, 0.05099768564105034, 0.031338535249233246, 0.012874494306743145, 0.026903552934527397, 0.07433399558067322, 0.08066951483488083, 0.0054496643133461475, 0.018022725358605385, 0.17215627431869507, 0.020003141835331917, 0.010550939477980137, 0.05010852962732315], [0.030476832762360573, 0.0488966666162014, 0.011997233144938946, 0.015968503430485725, 0.009231514297425747, 0.002475654473528266, 0.0011240721214562654, 0.008812091313302517, 0.0331299751996994, 0.006138375494629145, 0.23033985495567322, 0.17723974585533142, 0.035900745540857315, 0.1062903106212616, 0.012757053598761559, 0.014273909851908684, 0.03235810250043869, 0.15189360082149506, 0.002041624393314123, 0.0024902706500142813, 0.06616394221782684], [0.00023838460037950426, 0.003172782715409994, 0.013190604746341705, 0.0006272534374147654, 0.0012257103808224201, 9.15547352633439e-05, 1.3630646208184771e-05, 0.0002600965672172606, 0.0032668174244463444, 8.203493780456483e-05, 0.02368776686489582, 0.9222416877746582, 0.009691369719803333, 0.008153009228408337, 0.0006081282044760883, 0.0002806013508234173, 0.0015624051447957754, 0.010951039381325245, 8.146759500959888e-05, 7.109682337613776e-05, 0.0005025587161071599], [0.024898864328861237, 0.15867139399051666, 0.00873598176985979, 0.07137934863567352, 0.0031259835232049227, 0.000760924129281193, 1.8070506484946236e-05, 0.012256374582648277, 0.02964833937585354, 0.0005838961224071681, 0.13904666900634766, 0.04465102031826973, 0.007853369228541851, 0.12486572563648224, 0.007823699153959751, 0.005458443891257048, 0.03057476319372654, 0.24984292685985565, 0.0006774531211704016, 0.00038461401709355414, 0.07874225080013275], [0.0007426621741615236, 0.0052301096729934216, 0.006124886218458414, 0.0005171067896299064, 0.15576809644699097, 0.0002987400512211025, 4.13641391787678e-05, 0.0008400983060710132, 0.006560564506798983, 0.0013217382365837693, 0.012160739861428738, 0.07923002541065216, 0.6851541996002197, 0.012274769134819508, 0.001289629959501326, 0.0005707595264539123, 0.006107382010668516, 0.02179640345275402, 0.0018581274198368192, 0.0010210592299699783, 0.001091509941034019], [0.006738767959177494, 0.019187889993190765, 0.04255417361855507, 0.0019282217836007476, 0.055626872926950455, 0.09985821694135666, 0.002545228460803628, 0.00841737724840641, 0.03251885995268822, 0.01934986189007759, 0.04333607479929924, 0.0318036712706089, 0.02773158811032772, 0.1061217188835144, 0.01076405681669712, 0.006394159514456987, 0.027809234336018562, 0.3964756727218628, 0.004172222223132849, 0.008072114549577236, 0.04859389364719391], [0.0074500818736851215, 0.006702413782477379, 0.0003504593623802066, 0.00012033544044243172, 0.0003241413796786219, 0.0002817643980961293, 0.3155297338962555, 0.011556626297533512, 0.03109860233962536, 0.35614606738090515, 0.005994089413434267, 0.0007201833068393171, 0.0016139597864821553, 0.05897868797183037, 0.0013781554298475385, 0.000109359338239301, 0.0004882235371042043, 0.16743184626102448, 0.0006071779644116759, 0.0009679219801910222, 0.03215017914772034], [0.002421967452391982, 0.03396036848425865, 0.008415108546614647, 0.00491966400295496, 0.004930001217871904, 0.002386438427492976, 0.008845566771924496, 0.24190784990787506, 0.060219906270504, 0.038877759128808975, 0.03507377579808235, 0.012892323546111584, 0.0045300982892513275, 0.15267860889434814, 0.003759130835533142, 0.0029172892682254314, 0.0966087356209755, 0.26942527294158936, 0.0012662590015679598, 0.00042406696593388915, 0.013539728708565235], [0.038698192685842514, 0.044289711862802505, 0.009003746323287487, 0.016916830092668533, 0.007668746169656515, 0.010978970676660538, 0.023349637165665627, 0.030327172949910164, 0.04652319476008415, 0.07770135998725891, 0.04679063335061073, 0.012973901815712452, 0.01199482660740614, 0.15339629352092743, 0.02910645119845867, 0.019096916541457176, 0.025556126609444618, 0.2530773878097534, 0.017567306756973267, 0.017952552065253258, 0.10703007876873016], [0.009692477062344551, 0.012913575395941734, 0.000858454848639667, 0.0007917497423477471, 0.0012745994608849287, 0.00025168139836750925, 0.01785271242260933, 0.007025008089840412, 0.07164862006902695, 0.4443591237068176, 0.013132994063198566, 0.0015449034981429577, 0.00540791405364871, 0.1098736897110939, 0.008162771351635456, 0.0006804217118769884, 0.0017819211352616549, 0.2070722132921219, 0.00969255156815052, 0.004176023881882429, 0.07180660218000412], [0.02742816135287285, 0.1861531287431717, 0.06890586763620377, 0.0489673838019371, 0.026589466258883476, 0.006515819113701582, 0.0031803904566913843, 0.022272011265158653, 0.04184865206480026, 0.008283332921564579, 0.0444418340921402, 0.011616019532084465, 0.002585636917501688, 0.0766608864068985, 0.012819970026612282, 0.008338621817529202, 0.011365597136318684, 0.19650998711585999, 0.006889186799526215, 0.004406052641570568, 0.184222012758255], [0.0004482658114284277, 0.06075781211256981, 0.7493153214454651, 0.006274134386330843, 0.06473729014396667, 0.0003507981600705534, 7.282065780600533e-05, 0.0023918740916997194, 0.015093139372766018, 0.0005355400498956442, 0.005419024731963873, 0.024931756779551506, 0.0016118427738547325, 0.012295176275074482, 0.0011714679421857, 0.0002706288069020957, 0.0009651117725297809, 0.0502750426530838, 0.0010416196892037988, 0.00021432657376863062, 0.001827044296078384], [0.0002125179598806426, 0.011045503430068493, 0.040540896356105804, 0.0008223039330914617, 0.8799208998680115, 0.000340955302817747, 5.316172246239148e-05, 0.0005594821413978934, 0.004724191036075354, 0.0006727097788825631, 0.0011320074554532766, 0.001995872240513563, 0.03066599927842617, 0.003580808639526367, 0.0009890287183225155, 0.00030884461011737585, 0.0003299322270322591, 0.0158117413520813, 0.0048484778963029385, 0.0008987744222395122, 0.0005458332016132772], [0.022257043048739433, 0.0782967284321785, 0.02344336360692978, 0.02408393658697605, 0.027852730825543404, 0.018864482641220093, 0.01242348738014698, 0.022231202572584152, 0.05731477960944176, 0.06987110525369644, 0.05031392350792885, 0.010471581481397152, 0.014693583361804485, 0.08270883560180664, 0.07747919857501984, 0.03281398490071297, 0.027195580303668976, 0.14697252213954926, 0.07182935625314713, 0.05139714479446411, 0.07748544216156006], [0.001489378628320992, 0.07510340213775635, 0.019601676613092422, 0.014465305022895336, 0.005502981133759022, 0.0012318100780248642, 0.00020523316925391555, 0.012597145512700081, 0.040151700377464294, 0.00653250003233552, 0.027955051511526108, 0.005479339510202408, 0.002347377361729741, 0.07251283526420593, 0.4435538351535797, 0.04026554897427559, 0.06545677036046982, 0.1288243681192398, 0.018338723108172417, 0.006235230714082718, 0.012149764224886894], [0.0008235835121013224, 0.02520057186484337, 0.009857065044343472, 0.013243489898741245, 0.008710306137800217, 0.003442933317273855, 0.0008111583883874118, 0.02826719544827938, 0.02249351143836975, 0.003891848959028721, 0.016660558059811592, 0.0029440883081406355, 0.0019200933165848255, 0.06685248017311096, 0.06657271087169647, 0.5106180906295776, 0.05834531784057617, 0.12492749840021133, 0.007567684631794691, 0.009232163429260254, 0.017617691308259964], [0.0007348310900852084, 0.08604136854410172, 0.0573318712413311, 0.039915554225444794, 0.08015980571508408, 0.002609966089949012, 0.00014649542572442442, 0.09914281219244003, 0.033804554492235184, 0.004037645645439625, 0.01894855871796608, 0.007701814640313387, 0.0035869241692125797, 0.07422412931919098, 0.022655967622995377, 0.011847011744976044, 0.28521233797073364, 0.1577732115983963, 0.005659039597958326, 0.0005684004281647503, 0.00789779145270586], [0.03401428833603859, 0.058978576213121414, 0.010640784166753292, 0.02029257081449032, 0.013873210176825523, 0.016955867409706116, 0.011512481607496738, 0.028776589781045914, 0.08003132790327072, 0.05436873808503151, 0.06876740604639053, 0.009209898300468922, 0.015526385977864265, 0.12953539192676544, 0.04557157680392265, 0.020824257284402847, 0.02915787696838379, 0.17604349553585052, 0.05241234973073006, 0.04241247475147247, 0.0810944214463234], [0.0026858984492719173, 0.013950233347713947, 0.0015987014630809426, 0.0010891456622630358, 0.0034672280307859182, 0.000506933662109077, 3.061215829802677e-05, 0.0004164466226939112, 0.04749402776360512, 0.0059712850488722324, 0.024575134739279747, 0.0020919344387948513, 0.00778167275711894, 0.09381773322820663, 0.01203814335167408, 0.0022358582355082035, 0.0016874342691153288, 0.20062299072742462, 0.49552062153816223, 0.06632968038320541, 0.016088340431451797], [0.0018600781913846731, 0.01484540943056345, 0.004631734453141689, 0.0007644717115908861, 0.005172471981495619, 0.000938643526751548, 0.000702233868651092, 0.0004665220039896667, 0.044910747557878494, 0.015764448791742325, 0.01757587492465973, 0.003083222545683384, 0.0044723693281412125, 0.07665388286113739, 0.019628148525953293, 0.004282378125935793, 0.0003922147152479738, 0.17693549394607544, 0.2931869924068451, 0.3035137951374054, 0.010218899697065353], [0.025436140596866608, 0.06586067378520966, 0.0015121345641091466, 0.01240447536110878, 0.00407566549256444, 0.005000049248337746, 0.007915506139397621, 0.017066601663827896, 0.12341123819351196, 0.032026391476392746, 0.15345607697963715, 0.003437170758843422, 0.005593575071543455, 0.1760282963514328, 0.014410886913537979, 0.0029987357556819916, 0.00842087622731924, 0.24783305823802948, 0.007760958280414343, 0.0043819015845656395, 0.08096949756145477]], [[0.0526110976934433, 0.02576795592904091, 0.1065353974699974, 0.04745161533355713, 0.020132027566432953, 0.0008447961299680173, 0.006228625774383545, 0.0018998653395101428, 0.019298244267702103, 0.01676350273191929, 0.01773284189403057, 0.16793522238731384, 0.02666863054037094, 0.05401501804590225, 0.06236368790268898, 0.0020423654932528734, 0.010031870566308498, 0.22448696196079254, 0.018258020281791687, 0.011223820969462395, 0.1077084094285965], [0.0011278004385530949, 0.10613934695720673, 0.12422487139701843, 0.34731826186180115, 0.2170751541852951, 0.0023679547011852264, 0.01818356290459633, 0.008816318586468697, 0.01520687434822321, 0.01046446617692709, 0.009904014877974987, 0.007561331614851952, 0.01646190881729126, 0.023533247411251068, 0.010503184050321579, 0.0005013695918023586, 0.0028076921589672565, 0.06035995855927467, 0.0018757008947432041, 0.0018391216872259974, 0.013727829791605473], [0.0028633123729377985, 0.07456454634666443, 0.059980954974889755, 0.6002044081687927, 0.1104138046503067, 0.0004409905814100057, 0.008083043619990349, 0.0007456493331119418, 0.006306269206106663, 0.004397961776703596, 0.004941923078149557, 0.0010545991826802492, 0.0045531513169407845, 0.015322772786021233, 0.005867853295058012, 8.343898662133142e-05, 0.00047977373469620943, 0.08680826425552368, 0.0006730459863319993, 0.001049128593876958, 0.01116513554006815], [0.00897456519305706, 0.05973505228757858, 0.21408475935459137, 0.15487858653068542, 0.2538639307022095, 0.009555218741297722, 0.04401836544275284, 0.022001048550009727, 0.040615689009428024, 0.01656850427389145, 0.024728212505578995, 0.016543062403798103, 0.0029211854562163353, 0.0228166151791811, 0.004936646670103073, 0.0006201406358741224, 0.0015401376876980066, 0.07957028597593307, 0.0004707529442384839, 0.00047635132796131074, 0.02108084037899971], [0.002407187595963478, 0.0323692262172699, 0.15391041338443756, 0.5790347456932068, 0.10421770066022873, 0.009795885533094406, 0.007743557449430227, 0.00151259102858603, 0.02290063351392746, 0.007376446388661861, 0.017506999894976616, 0.008440015837550163, 0.0004031831631436944, 0.007542891427874565, 0.002925749635323882, 0.0001357519067823887, 0.00031377727282233536, 0.03324826434254646, 0.000371274451026693, 0.0003984333307016641, 0.007445195224136114], [0.0006053352262824774, 0.0018631737912073731, 0.0011164946481585503, 0.046198464930057526, 0.016765179112553596, 0.006248530000448227, 0.8513644337654114, 0.027263127267360687, 0.002340796636417508, 0.01880865916609764, 0.0020333004649728537, 0.003121577203273773, 0.000775636755861342, 0.0006005376926623285, 0.006684341002255678, 0.00020605267491191626, 0.0021181143820285797, 0.0026335834991186857, 0.004784168675541878, 0.0008659424493089318, 0.0036024737637490034], [0.0017129163024947047, 0.007936126552522182, 0.010803746059536934, 0.07365075498819351, 0.06774576753377914, 0.06701067835092545, 0.042692117393016815, 0.015164552256464958, 0.018956070765852928, 0.5884005427360535, 0.00586325116455555, 0.004139353986829519, 0.0016337912529706955, 0.007892749272286892, 0.01706281490623951, 0.00016777402197476476, 0.00038522924296557903, 0.054728809744119644, 0.004655627533793449, 0.0011256529251113534, 0.008271767757833004], [0.0006891052471473813, 0.008482804521918297, 0.015416291542351246, 0.18795257806777954, 0.03534300625324249, 0.2323160171508789, 0.3188168704509735, 0.011849788017570972, 0.01747778430581093, 0.07406425476074219, 0.009154784493148327, 0.015784800052642822, 0.0018742767861112952, 0.004996253177523613, 0.029834503307938576, 0.000266409624600783, 0.000396457762690261, 0.024458061903715134, 0.0039949617348611355, 0.0007010306580923498, 0.006129926536232233], [0.005064721684902906, 0.03800230100750923, 0.03546115383505821, 0.08213524520397186, 0.0962401032447815, 0.009595858864486217, 0.07205122709274292, 0.031082190573215485, 0.12874191999435425, 0.10990335792303085, 0.060652200132608414, 0.0537528358399868, 0.01860683783888817, 0.054044246673583984, 0.01156944502145052, 0.0014791488647460938, 0.004566245246678591, 0.13886575400829315, 0.007180850952863693, 0.0031136006582528353, 0.03789064660668373], [0.004436276387423277, 0.02458999678492546, 0.037944160401821136, 0.08281102776527405, 0.03911048173904419, 0.038037437945604324, 0.27002760767936707, 0.028083207085728645, 0.05064833536744118, 0.1680343598127365, 0.02562825195491314, 0.01627725176513195, 0.00557323032990098, 0.0276391189545393, 0.017621802166104317, 0.001009957049973309, 0.004106398206204176, 0.10858061909675598, 0.015457605011761189, 0.0027651917189359665, 0.03161778301000595], [0.0008017622167244554, 0.009068043902516365, 0.005606533493846655, 0.034345727413892746, 0.026636887341737747, 0.0005415997584350407, 0.00695196446031332, 0.002179600764065981, 0.011934841983020306, 0.002597239101305604, 0.11812840402126312, 0.5743447542190552, 0.11759018152952194, 0.032028112560510635, 0.014417084865272045, 0.0009399654227308929, 0.005113810766488314, 0.02333861030638218, 0.0013056911993771791, 0.0012134122662246227, 0.010915848426520824], [0.005569471511989832, 0.007925555109977722, 0.0033425369765609503, 0.038771096616983414, 0.008758245036005974, 0.00010110147559316829, 0.0002551560755819082, 0.00017771052080206573, 0.0062906164675951, 0.0007191268960013986, 0.19598276913166046, 0.35228824615478516, 0.2020917534828186, 0.08461204916238785, 0.014645607210695744, 0.0009328941814601421, 0.004108990076929331, 0.05785711854696274, 0.0007280594436451793, 0.0016688579926267266, 0.013173047453165054], [0.004270856734365225, 0.003897850401699543, 0.012559427879750729, 0.006737904157489538, 0.001436295104213059, 0.00019456019799690694, 0.0002646205248311162, 9.913044777931646e-05, 0.0028342041186988354, 0.0018511151429265738, 0.06350211054086685, 0.45943084359169006, 0.06152784824371338, 0.11104948818683624, 0.11038713157176971, 0.009093360975384712, 0.04318372160196304, 0.05879048630595207, 0.011907219886779785, 0.02292727679014206, 0.014054614119231701], [0.008430371060967445, 0.016532685607671738, 0.011078443378210068, 0.013191771693527699, 0.014228885993361473, 0.0042069959454238415, 0.009428956545889378, 0.006101200822740793, 0.014823125675320625, 0.016874214634299278, 0.03764035925269127, 0.09541137516498566, 0.19066348671913147, 0.10563957691192627, 0.13829773664474487, 0.04362514242529869, 0.05190112069249153, 0.0820050835609436, 0.06173837184906006, 0.04424729570746422, 0.033933769911527634], [0.0008041016990318894, 0.0011789476266130805, 0.00558158103376627, 0.0018854718655347824, 0.00528033496811986, 0.0006790307816118002, 0.0017250097589567304, 0.0014495849609375, 0.00044162035919725895, 0.00556730292737484, 0.0020878014620393515, 0.04574122279882431, 0.12468509376049042, 0.016323905438184738, 0.19563716650009155, 0.05333808809518814, 0.2786608040332794, 0.017686063423752785, 0.17116452753543854, 0.0662514939904213, 0.0038308370858430862], [3.98817501263693e-05, 0.00013817092985846102, 0.0005278047174215317, 0.0009021948790177703, 0.0002609976218082011, 0.0008731422713026404, 0.0005138074047863483, 5.1230475946795195e-05, 2.3525273718405515e-05, 0.00035262529854662716, 0.0004033826116938144, 0.009836317040026188, 0.01691645383834839, 0.0012847977923229337, 0.8732893466949463, 0.0023033255711197853, 0.018387695774435997, 0.0010841955663636327, 0.0523168183863163, 0.0198803897947073, 0.0006138330209068954], [0.00012924097245559096, 0.0006997673772275448, 0.005058765411376953, 0.003105457639321685, 0.0007702746661379933, 0.001412886194884777, 0.004251972306519747, 9.101957402890548e-05, 0.0001358959561912343, 0.000691175286192447, 0.0012061016168445349, 0.06982671469449997, 0.02675585448741913, 0.003906912170350552, 0.6955212950706482, 0.00973173975944519, 0.010533547960221767, 0.004648805130273104, 0.12762446701526642, 0.03249557688832283, 0.0014025135897099972], [0.03882072865962982, 0.04834399372339249, 0.035523876547813416, 0.03221449255943298, 0.034366074949502945, 0.005699303932487965, 0.012619846500456333, 0.008850876241922379, 0.04166535660624504, 0.02109692059457302, 0.044085707515478134, 0.061833836138248444, 0.06062982231378555, 0.09477055072784424, 0.07218612730503082, 0.016137758269906044, 0.01991923525929451, 0.17445966601371765, 0.04624326899647713, 0.02489236369729042, 0.10564029216766357], [0.006310789845883846, 0.004161940421909094, 0.007873425260186195, 0.002827082062140107, 0.0013645937433466315, 0.001221202197484672, 0.0012372032506391406, 0.00042224430944770575, 0.0030480525456368923, 0.002919520018622279, 0.008155591785907745, 0.0459064319729805, 0.019399061799049377, 0.059086717665195465, 0.3358263075351715, 0.018771015107631683, 0.02938619814813137, 0.1521669328212738, 0.20536629855632782, 0.06299764662981033, 0.03155182674527168], [0.000925292435567826, 0.0007453519501723349, 0.001965959556400776, 0.0009196893079206347, 0.00011477580846985802, 0.00047844418440945446, 0.001545499893836677, 4.1861603676807135e-05, 0.0005295644514262676, 0.001348260324448347, 0.0013853508280590177, 0.01614345982670784, 0.002438517287373543, 0.009327159263193607, 0.2123955339193344, 0.008088481612503529, 0.006933914963155985, 0.026645425707101822, 0.6867244839668274, 0.01195831224322319, 0.009344534017145634], [0.01306183636188507, 0.07227879017591476, 0.028668951243162155, 0.07509911805391312, 0.028495563194155693, 0.003732820972800255, 0.006855097599327564, 0.0033900123089551926, 0.045980460941791534, 0.008084896951913834, 0.07167774438858032, 0.07760792970657349, 0.036065489053726196, 0.09542497247457504, 0.08242319524288177, 0.004831036552786827, 0.013209417462348938, 0.23413415253162384, 0.023484081029891968, 0.00674589816480875, 0.06874855607748032]], [[0.01363279577344656, 0.07501369714736938, 0.026894593611359596, 0.011956186965107918, 0.013516227714717388, 0.013395551592111588, 0.007699448615312576, 0.011414446868002415, 0.037998225539922714, 0.012539839372038841, 0.0734381452202797, 0.05203121528029442, 0.039882004261016846, 0.12090794742107391, 0.02257811464369297, 0.018572911620140076, 0.041972529143095016, 0.28395119309425354, 0.024093683809041977, 0.057703897356987, 0.040807340294122696], [0.1201571449637413, 0.05013478174805641, 0.02126445807516575, 0.009475882165133953, 0.0011618982534855604, 0.0003790745104197413, 0.0015450920909643173, 0.0006789324688725173, 0.02142973430454731, 0.0033848627936095, 0.009639936499297619, 0.004407192580401897, 0.0005708298413082957, 0.0673186331987381, 0.002716578310355544, 0.001297995913773775, 0.0012862298171967268, 0.5843177437782288, 0.0021453555673360825, 0.0015691303415223956, 0.09511850029230118], [0.05639088526368141, 0.20167484879493713, 0.03724845126271248, 0.03751736506819725, 0.0030071651563048363, 0.0006754986825399101, 0.0056873769499361515, 0.0035243025049567223, 0.01940997503697872, 0.0077630323357880116, 0.008068213239312172, 0.0007993901963345706, 0.0004511179868131876, 0.031182391569018364, 0.002615872770547867, 0.0013293300289660692, 0.003997004125267267, 0.4518383741378784, 0.0028105159290134907, 0.0015726753044873476, 0.12243624031543732], [0.035185955464839935, 0.3769962191581726, 0.05386285111308098, 0.07710742205381393, 0.011511188000440598, 0.0007288104970939457, 0.002566020004451275, 0.0011393841123208404, 0.017968185245990753, 0.005232359282672405, 0.006031084340065718, 0.0005423797410912812, 0.00030121608870103955, 0.01766492798924446, 0.0003662311937659979, 0.00014985192683525383, 0.00037388800410553813, 0.16302451491355896, 0.002862491412088275, 0.002089195651933551, 0.22429579496383667], [0.0031140465289354324, 0.15266698598861694, 0.1863878220319748, 0.4939906895160675, 0.042043838649988174, 0.0003569875261746347, 0.002259571338072419, 0.00035054865293204784, 0.0022295736707746983, 0.0008455303614027798, 0.0017998628318309784, 0.0019279348198324442, 0.0002919815306086093, 0.004830202553421259, 0.00040816268301568925, 0.00014864993863739073, 0.0001478346239309758, 0.03864303603768349, 0.0010936404578387737, 0.0007077597547322512, 0.0657552108168602], [0.005640782415866852, 0.09558277577161789, 0.12024989724159241, 0.47548285126686096, 0.17116263508796692, 0.005916875321418047, 0.00749787874519825, 0.002853015437722206, 0.013886318542063236, 0.004170951899141073, 0.008186894468963146, 0.005196802318096161, 0.001071370905265212, 0.009959856048226357, 0.0021927785128355026, 0.00048066230374388397, 0.0003607975086197257, 0.02246934548020363, 0.001757885329425335, 0.001018379582092166, 0.044861167669296265], [0.0012365636648610234, 0.014089844189584255, 0.06836985796689987, 0.30143216252326965, 0.558178186416626, 0.007389206439256668, 0.0072036320343613625, 0.0012026251060888171, 0.003480105195194483, 0.0026035679038614035, 0.0012947877403348684, 0.00226596905849874, 0.00040103349601849914, 0.001155531732365489, 0.0015264034736901522, 0.00016705603047739714, 0.00018401398847345263, 0.004284367896616459, 0.0006360339466482401, 0.00017807085532695055, 0.022720951586961746], [0.0016160602681338787, 0.021155046299099922, 0.06809307634830475, 0.08711691945791245, 0.7389270067214966, 0.023776976391673088, 0.004539256915450096, 0.0010046794777736068, 0.01169987116008997, 0.005288565997034311, 0.002382555976510048, 0.0014005709672346711, 0.0003258576325606555, 0.005541949532926083, 0.00078048394061625, 0.00011289124086033553, 7.230353367049247e-05, 0.008222891949117184, 0.0005102973664179444, 0.0003725434362422675, 0.01706024818122387], [0.016585808247327805, 0.04079201817512512, 0.021269788965582848, 0.12227141112089157, 0.185977503657341, 0.04337520897388458, 0.04554355517029762, 0.008374378085136414, 0.13691385090351105, 0.010759416967630386, 0.010661615990102291, 0.003814142430201173, 0.0006621376960538328, 0.04533242806792259, 0.0014936752850189805, 0.0003739121893886477, 0.0002765663084574044, 0.2571307420730591, 0.0024412046186625957, 0.001847788691520691, 0.044102855026721954], [0.002275859471410513, 0.019830135628581047, 0.02432824857532978, 0.058556508272886276, 0.3853313624858856, 0.12029462307691574, 0.20560012757778168, 0.030794084072113037, 0.05521981045603752, 0.04620632529258728, 0.007566326763480902, 0.0018012186046689749, 0.00025782384909689426, 0.003017502138391137, 0.0009042657329700887, 0.00019084973610006273, 0.00029495294438675046, 0.01383309904485941, 0.000537990708835423, 0.00032896376796998084, 0.022829974070191383], [0.007849142886698246, 0.02311497926712036, 0.0039042311254888773, 0.014226838946342468, 0.02174447476863861, 0.006797304842621088, 0.008900411427021027, 0.014029955491423607, 0.23976434767246246, 0.01140133198350668, 0.19478236138820648, 0.030660223215818405, 0.0012949861120432615, 0.05803345888853073, 0.0009478432475589216, 0.0010007416130974889, 0.001621850999072194, 0.3280385732650757, 0.0008178520365618169, 0.0013448501704260707, 0.029724132269620895], [0.0031911320984363556, 0.01086698193103075, 0.0011538731632754207, 0.003216045442968607, 0.0011735382722690701, 0.00018947335775010288, 0.0019197118235751987, 0.0035736411809921265, 0.05354760214686394, 0.007109487894922495, 0.6444767713546753, 0.09496355801820755, 0.0024856035597622395, 0.030914785340428352, 0.0011162315495312214, 0.0010017622262239456, 0.0027735866606235504, 0.12625981867313385, 0.00026911907480098307, 0.00037816280382685363, 0.009419039823114872], [0.0002988834457937628, 0.001289870124310255, 0.000547914591152221, 0.0034192337188869715, 0.00042978901183232665, 5.0545884732855484e-05, 0.00036578919389285147, 0.00014087025192566216, 0.0024860904086381197, 0.0014532982604578137, 0.3372249901294708, 0.6094132661819458, 0.017908772453665733, 0.011618505232036114, 0.0024837467353791, 0.0008291960111819208, 0.0007964177057147026, 0.006837541237473488, 0.0005983809242025018, 0.0003157657338306308, 0.0014911600155755877], [0.015192746184766293, 0.008226065896451473, 0.004413052927702665, 0.017219766974449158, 0.004571344703435898, 0.0013384229969233274, 0.002381025580689311, 0.0017871321178972721, 0.03316517546772957, 0.0076765622943639755, 0.23954372107982635, 0.27999356389045715, 0.050625767558813095, 0.1303989142179489, 0.01207838486880064, 0.005152448546141386, 0.005092170089483261, 0.15461024641990662, 0.005759018007665873, 0.004285921808332205, 0.01648847945034504], [0.004309958312660456, 0.004695228300988674, 0.003371880389750004, 0.01613612100481987, 0.00957206729799509, 0.002785046584904194, 0.0068804859183728695, 0.002291714306920767, 0.010595791973173618, 0.007810184266418219, 0.19098149240016937, 0.36660054326057434, 0.22670336067676544, 0.07114040106534958, 0.026836734265089035, 0.006692106835544109, 0.005283537320792675, 0.02232537977397442, 0.0028214293997734785, 0.002918897196650505, 0.009247674606740475], [0.0020847171545028687, 0.002499592723324895, 0.002671648748219013, 0.0023107535671442747, 0.0045882961712777615, 0.0009727926808409393, 0.0015132002299651504, 0.001764960470609367, 0.0047030458226799965, 0.0039911698549985886, 0.11142545193433762, 0.46533480286598206, 0.23030437529087067, 0.08494244515895844, 0.026030028238892555, 0.006958812475204468, 0.01948287896811962, 0.013017077930271626, 0.0024306471459567547, 0.0028981035575270653, 0.010075214318931103], [0.0014329974073916674, 0.002517178189009428, 0.0013822508044540882, 0.002657239092513919, 0.011023507453501225, 0.002607356058433652, 0.0021398563403636217, 0.0019241111585870385, 0.006009448319673538, 0.004061559215188026, 0.10516513884067535, 0.2023835927248001, 0.4096831679344177, 0.11274708062410355, 0.08469679951667786, 0.011103830300271511, 0.01460826676338911, 0.013090894557535648, 0.0019168310100212693, 0.0034583848901093006, 0.00539043452590704], [0.025434410199522972, 0.02640586718916893, 0.007844284176826477, 0.016414809972047806, 0.00994633324444294, 0.006395041011273861, 0.003000162309035659, 0.004594627767801285, 0.05019461736083031, 0.0051359315402805805, 0.04114324599504471, 0.01967482455074787, 0.015481115318834782, 0.16958530247211456, 0.015004188753664494, 0.00944300927221775, 0.015227990224957466, 0.4988451600074768, 0.015266901813447475, 0.014191903173923492, 0.03077036328613758], [0.0010070387506857514, 0.004643062129616737, 0.0009855718817561865, 0.0005339141353033483, 0.0010902442736551166, 0.0024323961697518826, 0.0014675101265311241, 0.0026425740215927362, 0.0052519552409648895, 0.0021630185656249523, 0.09054987132549286, 0.1407555490732193, 0.1420172154903412, 0.09979235380887985, 0.18763460218906403, 0.07166517525911331, 0.16563741862773895, 0.05546359717845917, 0.012397142127156258, 0.006510491482913494, 0.005359280854463577], [0.0001429742551408708, 0.0014366649556905031, 0.0011691800318658352, 0.0004317753773648292, 0.000937925826292485, 0.00038034265162423253, 0.0001923527306644246, 0.0004212621715851128, 0.0005388130666688085, 0.000817878870293498, 0.028506703674793243, 0.2626258432865143, 0.24964316189289093, 0.02095617540180683, 0.19898971915245056, 0.02333146519958973, 0.19147276878356934, 0.005363678093999624, 0.0057505108416080475, 0.003095385618507862, 0.003795483848080039], [0.009002589620649815, 0.015186086297035217, 0.0015250678407028317, 0.0009052503737621009, 0.0005028578452765942, 0.0006587007665075362, 0.00022493881988339126, 0.000820784131065011, 0.01934615708887577, 0.0009392114006914198, 0.13716915249824524, 0.05685156583786011, 0.01911037601530552, 0.20008479058742523, 0.00960945338010788, 0.010931534692645073, 0.019015463069081306, 0.40078121423721313, 0.01814274862408638, 0.046176642179489136, 0.033015429973602295]]], [[[0.02565564028918743, 0.013346957974135876, 0.039321765303611755, 0.11574408411979675, 0.006621863692998886, 0.005207580514252186, 0.04701530188322067, 0.010319016873836517, 0.016962984576821327, 0.10946056246757507, 0.02275870367884636, 0.03216196224093437, 0.01086447387933731, 0.023392323404550552, 0.14594975113868713, 0.0679902583360672, 0.06058369576931, 0.026690330356359482, 0.1287398785352707, 0.04362368583679199, 0.04758920148015022], [0.026447143405675888, 0.10647187381982803, 0.03351116552948952, 0.07318364828824997, 0.043751057237386703, 0.022327499464154243, 0.026325708255171776, 0.020176047459244728, 0.11568976938724518, 0.03700055181980133, 0.043154556304216385, 0.020315662026405334, 0.020357869565486908, 0.13149511814117432, 0.04377664253115654, 0.01672852411866188, 0.02310844697058201, 0.13360993564128876, 0.015713293105363846, 0.016975613310933113, 0.029879925772547722], [0.025709880515933037, 0.1478203982114792, 0.04716358706355095, 0.054765306413173676, 0.10541372746229172, 0.0026256695855408907, 0.002711470238864422, 0.0045913695357739925, 0.13744430243968964, 0.008503870107233524, 0.026365606114268303, 0.014662628062069416, 0.008752432651817799, 0.15304164588451385, 0.019314343109726906, 0.003085534321144223, 0.009444931522011757, 0.17089535295963287, 0.003812370589002967, 0.00545209925621748, 0.04842348024249077], [0.04114622250199318, 0.21887166798114777, 0.0857066959142685, 0.0745498314499855, 0.0257682166993618, 0.002410846296697855, 0.002615268575027585, 0.00482907984405756, 0.11263198405504227, 0.003668568329885602, 0.030495205894112587, 0.008291994221508503, 0.0096210315823555, 0.12200561165809631, 0.003960123751312494, 0.0015348338056355715, 0.0031643921975046396, 0.13280485570430756, 0.003303946228697896, 0.009982602670788765, 0.10263697803020477], [0.02846444770693779, 0.1730916053056717, 0.052232369780540466, 0.20739474892616272, 0.06038259342312813, 0.0049429358914494514, 0.007178901229053736, 0.005329170264303684, 0.10027924180030823, 0.004799435380846262, 0.014773583970963955, 0.0046266778372228146, 0.009586537256836891, 0.12200125306844711, 0.002404593862593174, 0.0007005645893514156, 0.0015244415262714028, 0.14369408786296844, 0.0019644766580313444, 0.005672836676239967, 0.04895560070872307], [0.02881573885679245, 0.21466492116451263, 0.042917948216199875, 0.01211023610085249, 0.004796686582267284, 0.011464022099971771, 0.011706214398145676, 0.018918221816420555, 0.16007713973522186, 0.032423246651887894, 0.027378078550100327, 0.004459638614207506, 0.012053708545863628, 0.1719113141298294, 0.01561286672949791, 0.008046215400099754, 0.010633648373186588, 0.16539064049720764, 0.009498877450823784, 0.02075183019042015, 0.01636870764195919], [0.010537191294133663, 0.19218836724758148, 0.03871031478047371, 0.0637795478105545, 0.005922827869653702, 0.01103708054870367, 0.038711875677108765, 0.02575838565826416, 0.1731596291065216, 0.044368911534547806, 0.008933289907872677, 0.003689441829919815, 0.0034394292160868645, 0.158624529838562, 0.011000405997037888, 0.002451470820233226, 0.002201741561293602, 0.16869285702705383, 0.0030694117303937674, 0.00799219124019146, 0.025731032714247704], [0.010114936158061028, 0.1516106277704239, 0.06198178604245186, 0.05914944037795067, 0.02097305841743946, 0.02380594052374363, 0.04952368885278702, 0.03399919718503952, 0.13966982066631317, 0.04340603947639465, 0.0073828683234751225, 0.004392742644995451, 0.004393775016069412, 0.1494074910879135, 0.003758310806006193, 0.001592242275364697, 0.00932441744953394, 0.15746040642261505, 0.009366173297166824, 0.04674146696925163, 0.01194554939866066], [0.051052678376436234, 0.09595746546983719, 0.03703930601477623, 0.04271542280912399, 0.035157088190317154, 0.02791532501578331, 0.026183487847447395, 0.036590319126844406, 0.08816718310117722, 0.04728935658931732, 0.07210888713598251, 0.02746453508734703, 0.032636042684316635, 0.0896586924791336, 0.04200449213385582, 0.035656820982694626, 0.0428973026573658, 0.08851580321788788, 0.01999947801232338, 0.028370831161737442, 0.03261948004364967], [0.011301598511636257, 0.11805129796266556, 0.056914426386356354, 0.02214617282152176, 0.014915373176336288, 0.007325311191380024, 0.03285093978047371, 0.017707789316773415, 0.10143353044986725, 0.36212122440338135, 0.013488676398992538, 0.002802713308483362, 0.0024785781279206276, 0.07588397711515427, 0.008150319568812847, 0.0006980524631217122, 0.004958234261721373, 0.07999743521213531, 0.007077860180288553, 0.01223080325871706, 0.04746564105153084], [0.006601161323487759, 0.06409797817468643, 0.05699778348207474, 0.3726440668106079, 0.07859432697296143, 0.017362548038363457, 0.037329476326704025, 0.015190151520073414, 0.04343421012163162, 0.03891405463218689, 0.022112777456641197, 0.019701676443219185, 0.03125353157520294, 0.05616379156708717, 0.02072218991816044, 0.006267393007874489, 0.012526032514870167, 0.056493695825338364, 0.0068590096198022366, 0.01214988436549902, 0.024584291502833366], [0.011566146276891232, 0.11194204539060593, 0.04330645129084587, 0.04677077755331993, 0.0746515542268753, 0.0021269407588988543, 0.0014113113284111023, 0.00456382567062974, 0.12466386705636978, 0.005592872388660908, 0.0598922073841095, 0.057835254818201065, 0.03634047880768776, 0.1530299186706543, 0.0318903848528862, 0.005702505819499493, 0.00985688529908657, 0.16441446542739868, 0.004809761419892311, 0.011386614292860031, 0.038245730102062225], [0.009807951748371124, 0.0745360255241394, 0.026553455740213394, 0.09952102601528168, 0.023431390523910522, 0.0007768359500914812, 0.002684386447072029, 0.001341465045697987, 0.06711537390947342, 0.004409524612128735, 0.1621692180633545, 0.11881926655769348, 0.16509833931922913, 0.09467649459838867, 0.010613798163831234, 0.0017731816042214632, 0.0027313714381307364, 0.09503376483917236, 0.0036357571370899677, 0.01261092722415924, 0.02266053296625614], [0.052428267896175385, 0.08125300705432892, 0.03514653071761131, 0.03377138078212738, 0.03163701668381691, 0.022052694112062454, 0.02036016806960106, 0.03301232308149338, 0.07625313848257065, 0.03976142406463623, 0.0955786183476448, 0.042990464717149734, 0.047374431043863297, 0.07853022962808609, 0.049439020454883575, 0.04421231523156166, 0.04910693317651749, 0.0765383318066597, 0.022372355684638023, 0.033101215958595276, 0.035080090165138245], [0.004837615881115198, 0.07059800624847412, 0.07322053611278534, 0.005872571375221014, 0.013099086470901966, 0.0032105199061334133, 0.0013381671160459518, 0.0031914575956761837, 0.04444398358464241, 0.009241585619747639, 0.05422239378094673, 0.06362222880125046, 0.11053620278835297, 0.060470595955848694, 0.21281102299690247, 0.022423155605793, 0.023740343749523163, 0.05204301327466965, 0.06996022164821625, 0.08422495424747467, 0.01689232885837555], [0.013771094381809235, 0.07915151864290237, 0.0297650508582592, 0.008874839171767235, 0.009792966768145561, 0.001322679570876062, 0.0005932596977800131, 0.004500381648540497, 0.056672535836696625, 0.003575502196326852, 0.15388432145118713, 0.08135524392127991, 0.19188301265239716, 0.07717534154653549, 0.0882105827331543, 0.011393987573683262, 0.018431363627314568, 0.06786584109067917, 0.022367823868989944, 0.05901515111327171, 0.02039754018187523], [0.01774079166352749, 0.10574991255998611, 0.023734984919428825, 0.022490277886390686, 0.01107909344136715, 0.005703992675989866, 0.002621679101139307, 0.010606968775391579, 0.08463487029075623, 0.006627192255109549, 0.12037087976932526, 0.04418686032295227, 0.08641493320465088, 0.11142495274543762, 0.050486356019973755, 0.00904342532157898, 0.01978101022541523, 0.1010352224111557, 0.019707608968019485, 0.09873553365468979, 0.04782344400882721], [0.05635460838675499, 0.07849091291427612, 0.03524955362081528, 0.03432305529713631, 0.035729363560676575, 0.025361191481351852, 0.02203136496245861, 0.03774242848157883, 0.07387875020503998, 0.04068603366613388, 0.08409475535154343, 0.038467586040496826, 0.045393675565719604, 0.07503022998571396, 0.0495443195104599, 0.04949718713760376, 0.05308273062109947, 0.07336470484733582, 0.02234135940670967, 0.03341400623321533, 0.035922154784202576], [0.01845627650618553, 0.07653652131557465, 0.009348700754344463, 0.002217036671936512, 0.0018591765547171235, 0.00983744952827692, 0.0037233554758131504, 0.009105004370212555, 0.07287213206291199, 0.01681159809231758, 0.03923565894365311, 0.006872867234051228, 0.02399054914712906, 0.0949738398194313, 0.16667665541172028, 0.018161870539188385, 0.043380387127399445, 0.08641691505908966, 0.1583697348833084, 0.07172173261642456, 0.0694325789809227], [0.006236301269382238, 0.037875767797231674, 0.05496412143111229, 0.015281769447028637, 0.013594551011919975, 0.005119489971548319, 0.006604508031159639, 0.005013472866266966, 0.029112545773386955, 0.01738634891808033, 0.04200736805796623, 0.07148686051368713, 0.09969495236873627, 0.045394714921712875, 0.1318061798810959, 0.013002315536141396, 0.032529011368751526, 0.039665378630161285, 0.08515573292970657, 0.21848751604557037, 0.029581021517515182], [0.0024100411683321, 0.03712395578622818, 0.03444521874189377, 0.10121428966522217, 0.041564639657735825, 0.01687181368470192, 0.04914743825793266, 0.015832433477044106, 0.04600842297077179, 0.17886504530906677, 0.022044017910957336, 0.023307830095291138, 0.038932379335165024, 0.06808160990476608, 0.05496814474463463, 0.009295637719333172, 0.021534305065870285, 0.06685459613800049, 0.12037859112024307, 0.0376991406083107, 0.01342040952295065]], [[0.3809414803981781, 0.038792990148067474, 0.005109637975692749, 0.03360603377223015, 0.01161621417850256, 0.009872340597212315, 0.02665642648935318, 0.01628192700445652, 0.04349344223737717, 0.03135857358574867, 0.10543300211429596, 0.0042305923998355865, 0.007554442156106234, 0.042739663273096085, 0.017990313470363617, 0.025544000789523125, 0.017185945063829422, 0.04404257982969284, 0.02616468258202076, 0.03009520098567009, 0.08129054307937622], [0.060059383511543274, 0.06873191148042679, 0.04384626820683479, 0.05658377334475517, 0.03724560886621475, 0.022027265280485153, 0.03316238522529602, 0.033137474209070206, 0.07968582957983017, 0.029033465310931206, 0.09336026012897491, 0.028930097818374634, 0.03049510158598423, 0.09110274165868759, 0.030910896137356758, 0.019840596243739128, 0.03049417771399021, 0.09244979172945023, 0.026397651061415672, 0.025944063439965248, 0.06656134128570557], [0.028775999322533607, 0.09138599038124084, 0.02830343320965767, 0.07135628163814545, 0.13243022561073303, 0.007952996529638767, 0.05102773383259773, 0.033515576273202896, 0.0867241844534874, 0.009066598489880562, 0.0677911788225174, 0.016780072823166847, 0.04463789984583855, 0.10455749183893204, 0.03176083788275719, 0.015853889286518097, 0.008463961072266102, 0.10381955653429031, 0.01664911024272442, 0.01916222646832466, 0.029984675347805023], [0.06931328773498535, 0.07408487051725388, 0.09250793606042862, 0.06970308721065521, 0.09328678250312805, 0.0017324003856629133, 0.010922834277153015, 0.008890941739082336, 0.06748436391353607, 0.004794856999069452, 0.13349586725234985, 0.055796243250370026, 0.08681738376617432, 0.08611370623111725, 0.010504528880119324, 0.0037048470694571733, 0.0063080741092562675, 0.0884891077876091, 0.008073135279119015, 0.011350476182997227, 0.016625288873910904], [0.012683367356657982, 0.0507059320807457, 0.06969522684812546, 0.08976519107818604, 0.09649014472961426, 0.005613657180219889, 0.0063359434716403484, 0.006186157464981079, 0.06133497133851051, 0.007963721640408039, 0.12938030064105988, 0.09507780522108078, 0.11525523662567139, 0.08199404180049896, 0.022607607766985893, 0.00835415255278349, 0.011927878484129906, 0.08411861956119537, 0.016881655901670456, 0.01889132149517536, 0.008737022988498211], [0.02226867899298668, 0.07035403698682785, 0.018564466387033463, 0.019601380452513695, 0.024600930511951447, 0.007567978464066982, 0.018787970766425133, 0.005864356178790331, 0.11406934261322021, 0.008494161069393158, 0.14308719336986542, 0.07245244085788727, 0.04026612639427185, 0.15768367052078247, 0.02820131927728653, 0.006478512194007635, 0.01115050632506609, 0.16345520317554474, 0.026500077918171883, 0.016972707584500313, 0.023578865453600883], [0.018959863111376762, 0.05002623796463013, 0.02471371553838253, 0.010287581942975521, 0.016009101644158363, 0.013150853104889393, 0.04475797712802887, 0.013537777587771416, 0.09765861928462982, 0.026555165648460388, 0.17773114144802094, 0.15077762305736542, 0.018690597265958786, 0.13158372044563293, 0.017600664868950844, 0.005454989615827799, 0.007994450628757477, 0.1450369954109192, 0.012916235253214836, 0.00704085873439908, 0.009515832178294659], [0.04271741211414337, 0.07253739982843399, 0.02116497792303562, 0.015200587920844555, 0.013683415949344635, 0.03232787176966667, 0.08439996838569641, 0.06298033148050308, 0.10036826878786087, 0.03643395006656647, 0.12038826197385788, 0.02330627478659153, 0.013903823681175709, 0.11103922128677368, 0.012437351047992706, 0.006087265443056822, 0.015586048364639282, 0.11602332442998886, 0.01923408918082714, 0.05458640307188034, 0.025593746453523636], [0.06365536898374557, 0.06005152687430382, 0.03352245315909386, 0.039327796548604965, 0.024217216297984123, 0.03728177770972252, 0.02409789152443409, 0.032984573394060135, 0.0846787542104721, 0.05224248766899109, 0.07679691910743713, 0.04555631801486015, 0.026891523972153664, 0.09150246530771255, 0.026201827451586723, 0.0261126309633255, 0.03628525510430336, 0.09447366744279861, 0.035470571368932724, 0.024853339418768883, 0.06379558145999908], [0.07278097420930862, 0.06888092309236526, 0.01890297792851925, 0.0049734520725905895, 0.008590386249125004, 0.007624783553183079, 0.1009291335940361, 0.0274769626557827, 0.10614324361085892, 0.07696183770895004, 0.14975561201572418, 0.038939934223890305, 0.011778498999774456, 0.12120595574378967, 0.009573852643370628, 0.004145173821598291, 0.005509550217539072, 0.126809760928154, 0.013037449680268764, 0.013570494018495083, 0.01240905374288559], [0.037277135998010635, 0.05798490718007088, 0.07371244579553604, 0.08656851202249527, 0.026125431060791016, 0.012445618398487568, 0.02645934373140335, 0.01003105565905571, 0.06335976719856262, 0.008504229597747326, 0.028389761224389076, 0.03636952489614487, 0.09131322801113129, 0.0925477147102356, 0.08178091049194336, 0.023131851106882095, 0.04269898310303688, 0.08912636339664459, 0.0353836864233017, 0.04823729395866394, 0.028552262112498283], [0.054461248219013214, 0.07523398101329803, 0.023148737847805023, 0.037431493401527405, 0.02191326953470707, 0.00163584656547755, 0.029792681336402893, 0.006701549515128136, 0.09696850180625916, 0.004469350446015596, 0.013664685189723969, 0.017856622114777565, 0.08006151020526886, 0.16507205367088318, 0.06481926143169403, 0.029476789757609367, 0.020798904821276665, 0.1603168547153473, 0.027435967698693275, 0.040190719068050385, 0.02855008654296398], [0.02243797294795513, 0.04751228168606758, 0.030697235837578773, 0.057802505791187286, 0.03160347044467926, 0.001230462919920683, 0.004090120084583759, 0.0019949551206082106, 0.048428282141685486, 0.002653907286003232, 0.03983055055141449, 0.05620002746582031, 0.2464282214641571, 0.08506526052951813, 0.06704899668693542, 0.024140294641256332, 0.03868769854307175, 0.07999864220619202, 0.04440343752503395, 0.05174209177494049, 0.018003566190600395], [0.06004314869642258, 0.05946221947669983, 0.03504626080393791, 0.04165748134255409, 0.02740524150431156, 0.03451737016439438, 0.021039756014943123, 0.027630919590592384, 0.07929352670907974, 0.042971089482307434, 0.06891568750143051, 0.04753275215625763, 0.03363114595413208, 0.08689505606889725, 0.031859733164310455, 0.030348844826221466, 0.04004004970192909, 0.08936778455972672, 0.04285870119929314, 0.030674492940306664, 0.06880880147218704], [0.06040223687887192, 0.06614012271165848, 0.024967093020677567, 0.007898314855992794, 0.013734114356338978, 0.004110955633223057, 0.022072039544582367, 0.0034525287337601185, 0.1050754263997078, 0.0053696702234447, 0.04994555935263634, 0.04402611404657364, 0.03770807385444641, 0.1441769003868103, 0.05019961670041084, 0.015898676589131355, 0.013239196501672268, 0.1570248156785965, 0.08226878941059113, 0.07034018635749817, 0.021949604153633118], [0.057167600840330124, 0.06858710944652557, 0.031058378517627716, 0.013768577948212624, 0.017578670755028725, 0.0032551928889006376, 0.00841315183788538, 0.009422420524060726, 0.11200593411922455, 0.004601645283401012, 0.04028501361608505, 0.04071357846260071, 0.037742745131254196, 0.14904436469078064, 0.05181914195418358, 0.024278445169329643, 0.0313156433403492, 0.16210374236106873, 0.03738420084118843, 0.07781761884689331, 0.02163688652217388], [0.06025177985429764, 0.06900319457054138, 0.02955537661910057, 0.017226295545697212, 0.01541315857321024, 0.007134618237614632, 0.012364045716822147, 0.013759191147983074, 0.10586917400360107, 0.013514106161892414, 0.02918841689825058, 0.015511215664446354, 0.025982268154621124, 0.13207706809043884, 0.04283447936177254, 0.02400350198149681, 0.020910676568746567, 0.13709314167499542, 0.05944620817899704, 0.14063769578933716, 0.0282244011759758], [0.06151001155376434, 0.05956648290157318, 0.03558336943387985, 0.042663753032684326, 0.028786510229110718, 0.037918705493211746, 0.021740423515439034, 0.03049834445118904, 0.07761172205209732, 0.04878849536180496, 0.0689234808087349, 0.04730283468961716, 0.03179799020290375, 0.08291249722242355, 0.03025452047586441, 0.030044062063097954, 0.03797154128551483, 0.08529298007488251, 0.041495539247989655, 0.029104840010404587, 0.07023195177316666], [0.06243688985705376, 0.05787520110607147, 0.008544079028069973, 0.010818391107022762, 0.005129653960466385, 0.007090775296092033, 0.040722206234931946, 0.009445940144360065, 0.12283090502023697, 0.03952901437878609, 0.01597003825008869, 0.010586939752101898, 0.007206976879388094, 0.16152134537696838, 0.06339505314826965, 0.026184622198343277, 0.03788623586297035, 0.17494668066501617, 0.08579102158546448, 0.0350336916744709, 0.017054330557584763], [0.06956566870212555, 0.04585355147719383, 0.008246950805187225, 0.013541624881327152, 0.008991544134914875, 0.004739750642329454, 0.02496846206486225, 0.02583315595984459, 0.08676495403051376, 0.01837332174181938, 0.030562466010451317, 0.016700780019164085, 0.016245849430561066, 0.11281338334083557, 0.06680653244256973, 0.0596601739525795, 0.12554270029067993, 0.11810770630836487, 0.056804198771715164, 0.06318313628435135, 0.026694009080529213], [0.07600653171539307, 0.05352374166250229, 0.019253171980381012, 0.021384039893746376, 0.015859510749578476, 0.011732485145330429, 0.17858487367630005, 0.04045344889163971, 0.051014602184295654, 0.09755822271108627, 0.057594701647758484, 0.006588072050362825, 0.00859338603913784, 0.05870923772454262, 0.03399786353111267, 0.007934626191854477, 0.03130028024315834, 0.06256981939077377, 0.04783264547586441, 0.06721176952123642, 0.052297092974185944]], [[0.016956768929958344, 0.01728978008031845, 0.0866297259926796, 0.07251410186290741, 0.012946811504662037, 0.008632441982626915, 0.03236901015043259, 0.010155787691473961, 0.0128620071336627, 0.11576476693153381, 0.009934486821293831, 0.05092753469944, 0.010685829445719719, 0.01457978319376707, 0.17085403203964233, 0.06270473450422287, 0.029923783615231514, 0.014821825549006462, 0.17229989171028137, 0.05406956002116203, 0.023077331483364105], [0.0592241995036602, 0.12455525249242783, 0.007334803696721792, 0.0385427288711071, 0.0067280735820531845, 0.006792048458009958, 0.0050664437003433704, 0.00793974194675684, 0.135592520236969, 0.010196843184530735, 0.060358479619026184, 0.021767474710941315, 0.010797180235385895, 0.1530151665210724, 0.0138260992243886, 0.004746866878122091, 0.01060244906693697, 0.16723798215389252, 0.01568109355866909, 0.006070866249501705, 0.1339236944913864], [0.06141079217195511, 0.10064420849084854, 0.030074743553996086, 0.0454724095761776, 0.019384250044822693, 0.004019748419523239, 0.004170308355242014, 0.003227550070732832, 0.14190280437469482, 0.00565683376044035, 0.04541618749499321, 0.09283606708049774, 0.03262526914477348, 0.16529840230941772, 0.010735844261944294, 0.014944059774279594, 0.008409115485846996, 0.19142362475395203, 0.0032291696406900883, 0.0029457185883075, 0.016172975301742554], [0.060280293226242065, 0.0940147265791893, 0.017205191776156425, 0.18473009765148163, 0.044914159923791885, 0.002820930676534772, 0.004557513166218996, 0.0261982511729002, 0.06154142692685127, 0.0029327792581170797, 0.08508039265871048, 0.08521995693445206, 0.06560882180929184, 0.0697995200753212, 0.008532408624887466, 0.03100445307791233, 0.03230791911482811, 0.07348962128162384, 0.0007990087033249438, 0.00390210235491395, 0.04506031051278114], [0.03439175337553024, 0.13200002908706665, 0.017638055607676506, 0.1063259169459343, 0.033725954592227936, 0.004164358600974083, 0.006914373021572828, 0.01866116002202034, 0.10797541588544846, 0.0020970685873180628, 0.05676412582397461, 0.08581853657960892, 0.055980999022722244, 0.11983880400657654, 0.009758220054209232, 0.027006709948182106, 0.019723394885659218, 0.134922593832016, 0.001056542037986219, 0.004063213709741831, 0.021172836422920227], [0.05864200368523598, 0.12392149865627289, 0.045705318450927734, 0.03051467426121235, 0.00673770671710372, 0.015989575535058975, 0.056195396929979324, 0.061714839190244675, 0.08859152346849442, 0.02992890402674675, 0.023062365129590034, 0.035559531301259995, 0.00799754448235035, 0.09505140036344528, 0.05803735926747322, 0.03705764561891556, 0.017026258632540703, 0.09696924686431885, 0.03775410354137421, 0.022648358717560768, 0.05089472606778145], [0.05795368552207947, 0.1065363809466362, 0.013194840401411057, 0.004953852389007807, 0.0009356404189020395, 0.012519508600234985, 0.2060249298810959, 0.0513240247964859, 0.14917849004268646, 0.026452332735061646, 0.008973551914095879, 0.015154954046010971, 0.0014171949587762356, 0.1412387490272522, 0.0073704794049263, 0.005927968770265579, 0.0010692275827750564, 0.16211530566215515, 0.00895825494080782, 0.014072200283408165, 0.004628402646631002], [0.0561528354883194, 0.10274800658226013, 0.013531561009585857, 0.026605548337101936, 0.003637425135821104, 0.007259730715304613, 0.023168154060840607, 0.34780704975128174, 0.05118497833609581, 0.016919216141104698, 0.034588590264320374, 0.027684463188052177, 0.004028365481644869, 0.0498107373714447, 0.02590148150920868, 0.016784271225333214, 0.0694127306342125, 0.050097912549972534, 0.00785838533192873, 0.008071168325841427, 0.056747399270534515], [0.048944029957056046, 0.10865237563848495, 0.010629653930664062, 0.023540480062365532, 0.008592830039560795, 0.019974222406744957, 0.015077083371579647, 0.011233467608690262, 0.15895405411720276, 0.018536198884248734, 0.033855754882097244, 0.01541841309517622, 0.012330548837780952, 0.17207324504852295, 0.018930206075310707, 0.006481054238975048, 0.010016501881182194, 0.18642880022525787, 0.028684835880994797, 0.010964732617139816, 0.08068138360977173], [0.12899962067604065, 0.06477738171815872, 0.014683390036225319, 0.015196274034678936, 0.0031524065416306257, 0.007627241779118776, 0.03545650839805603, 0.009163197129964828, 0.1407334804534912, 0.05926088988780975, 0.019685938954353333, 0.035661254078149796, 0.006026285234838724, 0.15928584337234497, 0.02041587419807911, 0.010906042531132698, 0.004256510175764561, 0.18600255250930786, 0.021216081455349922, 0.02076699025928974, 0.03672623261809349], [0.08459386974573135, 0.10993555188179016, 0.014367122203111649, 0.08738791197538376, 0.008048278279602528, 0.0025428200606256723, 0.0034106075763702393, 0.021350804716348648, 0.06731801480054855, 0.009388062171638012, 0.09043552726507187, 0.06060003861784935, 0.013470137491822243, 0.07623303681612015, 0.02087763138115406, 0.017018413171172142, 0.033031340688467026, 0.0790872722864151, 0.008111757226288319, 0.00795651599764824, 0.18483521044254303], [0.037418704479932785, 0.09548862278461456, 0.014242513105273247, 0.02197706326842308, 0.009919763542711735, 0.002020255196839571, 0.002002790803089738, 0.0029251491650938988, 0.19433768093585968, 0.001312093809247017, 0.019450917840003967, 0.04923957586288452, 0.018614185974001884, 0.22544284164905548, 0.0054831127636134624, 0.013249575160443783, 0.007390313781797886, 0.2682712972164154, 0.001224770792759955, 0.0018770445603877306, 0.008111713454127312], [0.025231393054127693, 0.11248927563428879, 0.00885181874036789, 0.06902534514665604, 0.017136218026280403, 0.003980450332164764, 0.004599501378834248, 0.005896928254514933, 0.15730172395706177, 0.0015704130055382848, 0.04620470851659775, 0.054003115743398666, 0.04256740212440491, 0.18122746050357819, 0.009640670381486416, 0.02342223934829235, 0.012584553100168705, 0.20762692391872406, 0.0012912346282973886, 0.005531445145606995, 0.009817153215408325], [0.04672977328300476, 0.1083475723862648, 0.011791062541306019, 0.024974724277853966, 0.010508725419640541, 0.02278664894402027, 0.013750871643424034, 0.010998055338859558, 0.15993162989616394, 0.016405221074819565, 0.03484301269054413, 0.01624394953250885, 0.014387342147529125, 0.17282694578170776, 0.01965782418847084, 0.00814697053283453, 0.011322625912725925, 0.18651962280273438, 0.027102718129754066, 0.01105071883648634, 0.07167407870292664], [0.07385008037090302, 0.1090167835354805, 0.01718119904398918, 0.021734485402703285, 0.002341628074645996, 0.004025880713015795, 0.005918886512517929, 0.012104210443794727, 0.16563884913921356, 0.026670970022678375, 0.014066234230995178, 0.02219189889729023, 0.004838380962610245, 0.17164677381515503, 0.04135395959019661, 0.04117099940776825, 0.0300747137516737, 0.1932811737060547, 0.017659075558185577, 0.016121478751301765, 0.009112359024584293], [0.0740576907992363, 0.12450524419546127, 0.040192861109972, 0.02855600416660309, 0.0028054139111191034, 0.0016736456891521811, 0.0034769431222230196, 0.01524922251701355, 0.06628011167049408, 0.022706901654601097, 0.03241705149412155, 0.053700972348451614, 0.006680577527731657, 0.07010043412446976, 0.08159341663122177, 0.18864013254642487, 0.05888623744249344, 0.07254905998706818, 0.017353525385260582, 0.014092556200921535, 0.02448197640478611], [0.05537812411785126, 0.16103437542915344, 0.017738979309797287, 0.03175760805606842, 0.005463202018290758, 0.003785621840506792, 0.0024823553394526243, 0.0588991753757, 0.07384084165096283, 0.005281883757561445, 0.044555116444826126, 0.02576364390552044, 0.005136751104146242, 0.07844440639019012, 0.052008263766765594, 0.04929633438587189, 0.21208113431930542, 0.07461679726839066, 0.009145529940724373, 0.006179902236908674, 0.027109995484352112], [0.04578157141804695, 0.1048470139503479, 0.012576840817928314, 0.026177536696195602, 0.013006333261728287, 0.02658151648938656, 0.015477742999792099, 0.012275408953428268, 0.15654633939266205, 0.017050232738256454, 0.035810377448797226, 0.016721324995160103, 0.016864750534296036, 0.16826851665973663, 0.019745685160160065, 0.008576763793826103, 0.011849614791572094, 0.18115021288394928, 0.02721536159515381, 0.01150540355592966, 0.07197137922048569], [0.13519549369812012, 0.05969064682722092, 0.007459512911736965, 0.0099762212485075, 0.0032536182552576065, 0.004309059586375952, 0.003947522025555372, 0.0024090076331049204, 0.13739602267742157, 0.02596285380423069, 0.016526231542229652, 0.016376635059714317, 0.009148158133029938, 0.15838950872421265, 0.03658036142587662, 0.017578694969415665, 0.009435496293008327, 0.1772729456424713, 0.1015707403421402, 0.03489971160888672, 0.032621633261442184], [0.06406347453594208, 0.05607611685991287, 0.038343071937561035, 0.015338542871177197, 0.0045785801485180855, 0.005457836203277111, 0.004342021886259317, 0.002297076163813472, 0.07726312428712845, 0.023982318118214607, 0.01784414052963257, 0.07072671502828598, 0.011553255841135979, 0.09786482155323029, 0.18523883819580078, 0.04889819025993347, 0.007150885183364153, 0.10507302731275558, 0.05584118515253067, 0.07427139580249786, 0.033795446157455444], [0.050595276057720184, 0.06334611773490906, 0.02262980304658413, 0.08186879009008408, 0.018744494765996933, 0.02005663327872753, 0.013954670168459415, 0.025555608794093132, 0.0493038147687912, 0.039459437131881714, 0.07743380963802338, 0.0603085495531559, 0.031396105885505676, 0.055203188210725784, 0.08919797837734222, 0.03932248055934906, 0.04270097240805626, 0.053945142775774, 0.029354553669691086, 0.019245175644755363, 0.11637742817401886]], [[0.010822062380611897, 0.004476502072066069, 0.0006925990455783904, 0.005650034174323082, 0.001246964791789651, 0.00017207744531333447, 0.02222689613699913, 0.006497182883322239, 0.013678724877536297, 0.08434079587459564, 0.009396256878972054, 0.0019473172724246979, 0.002227775752544403, 0.013878882862627506, 0.03593292832374573, 0.0038008939009159803, 0.008112975396215916, 0.016098691150546074, 0.13418753445148468, 0.0468321219086647, 0.5777807831764221], [0.03023083508014679, 0.1043064147233963, 0.012301059439778328, 0.008284443989396095, 0.005288528744131327, 0.0015215035527944565, 0.018241100013256073, 0.003865279257297516, 0.18093538284301758, 0.005193051416426897, 0.005015116650611162, 0.0024655035231262445, 0.0023414308670908213, 0.23247002065181732, 0.009035198949277401, 0.00292561249807477, 0.00724406260997057, 0.285398006439209, 0.009807981550693512, 0.005351656582206488, 0.06777774542570114], [0.005642274394631386, 0.39418700337409973, 0.01800733432173729, 0.009097202681005001, 0.0021279631182551384, 2.78275092568947e-05, 0.000638253171928227, 0.0010160404490306973, 0.16594839096069336, 0.0009990474209189415, 0.00726938946172595, 0.0007819195161573589, 0.0002610989904496819, 0.15950390696525574, 0.0006415424286387861, 0.0002733573201112449, 0.0023463896941393614, 0.19932086765766144, 0.0008805810939520597, 0.00044700285070575774, 0.030582506209611893], [0.007350664120167494, 0.17178282141685486, 0.34179404377937317, 0.017119696363806725, 0.008931784890592098, 0.0017255006823688745, 0.007270327303558588, 0.00092871900415048, 0.1004021093249321, 0.004131050780415535, 0.002262962982058525, 0.002859982429072261, 0.0002180768206017092, 0.13107506930828094, 0.0007064938545227051, 0.0003175140591338277, 0.0008815819746814668, 0.17102797329425812, 0.004329407121986151, 0.002439767587929964, 0.022444510832428932], [0.0015337126096710563, 0.048131346702575684, 0.36606186628341675, 0.4499838948249817, 0.025440838187932968, 0.0005185487098060548, 0.012968616560101509, 9.288160072173923e-05, 0.020544545724987984, 0.00040476518915966153, 0.0005766827962361276, 0.0030366857536137104, 9.498443978372961e-05, 0.026237960904836655, 0.0001820429170038551, 3.025719524885062e-05, 4.001536944997497e-05, 0.03630480542778969, 0.0009450875804759562, 0.00030171903199516237, 0.006568684708327055], [0.00300592090934515, 0.067644402384758, 0.029873725026845932, 0.03813280165195465, 0.22597070038318634, 0.0015654921298846602, 0.0408017635345459, 0.0032034318428486586, 0.1434660255908966, 0.007098971400409937, 0.0010543788084760308, 0.0021237770561128855, 0.005118921399116516, 0.1908806562423706, 0.0027077565900981426, 0.0005618951981887221, 0.0008282008930109441, 0.21878574788570404, 0.0011471760226413608, 0.0009856049437075853, 0.015042608603835106], [0.0027382690459489822, 0.14131608605384827, 0.023150194436311722, 0.08832287043333054, 0.04593224078416824, 0.005408133380115032, 0.03298337012529373, 0.005524338688701391, 0.19513623416423798, 0.003604946890845895, 0.004031731281429529, 0.0012008395278826356, 0.0003746810834854841, 0.19007954001426697, 0.0012190366396680474, 0.0007018912001512945, 0.0008895918144844472, 0.2464367151260376, 0.0007411405676975846, 0.0005547805922105908, 0.009653444401919842], [0.009027098305523396, 0.03664761036634445, 0.00788814015686512, 0.06890738010406494, 0.045788977295160294, 0.014636002480983734, 0.5463791489601135, 0.01318313553929329, 0.06996408104896545, 0.01781453751027584, 0.003486656118184328, 0.0004812234838027507, 0.0001597121445229277, 0.06136561930179596, 0.010150078684091568, 0.0019090338610112667, 0.0016942168585956097, 0.08037146180868149, 0.0027540456503629684, 0.0009756148210726678, 0.006416289135813713], [0.03137415647506714, 0.09349623322486877, 0.014951560646295547, 0.025844858959317207, 0.0326908677816391, 0.01682710088789463, 0.033237945288419724, 0.013722384348511696, 0.17517292499542236, 0.011730103753507137, 0.018643971532583237, 0.007872694171965122, 0.01106036826968193, 0.1952371746301651, 0.02580547146499157, 0.009055771864950657, 0.013027861714363098, 0.21813392639160156, 0.016519734635949135, 0.010321895591914654, 0.025273004546761513], [0.000771096209064126, 0.15780024230480194, 0.0021501840092241764, 0.006013185251504183, 0.043243538588285446, 0.00044238753616809845, 0.04201063513755798, 0.017518827691674232, 0.26356416940689087, 0.04682230204343796, 0.00591263547539711, 0.00013015624426770955, 0.0001935284526553005, 0.15817791223526, 0.001091936370357871, 0.0002444521232973784, 0.0006520678871311247, 0.20829489827156067, 0.0007596506038680673, 0.00018304069817531854, 0.04402308538556099], [0.01582987792789936, 0.031253427267074585, 0.045437417924404144, 0.027164217084646225, 0.018101966008543968, 0.0117035498842597, 0.21225745975971222, 0.04340497776865959, 0.07578504830598831, 0.28275108337402344, 0.015524640679359436, 0.011280683800578117, 0.0008127902983687818, 0.06249185651540756, 0.006216675043106079, 0.0029065588023513556, 0.005610192194581032, 0.08356060087680817, 0.013864508830010891, 0.011446971446275711, 0.022595474496483803], [0.004874545149505138, 0.11166055500507355, 0.0028897197917103767, 0.001674397150054574, 0.0003820355050265789, 7.058344635879621e-06, 0.00032183731673285365, 0.000904690707102418, 0.19869723916053772, 0.0033842031843960285, 0.18214809894561768, 0.03665005415678024, 0.0027829045429825783, 0.19985051453113556, 0.0009188026306219399, 0.0003892468230333179, 0.0034885555505752563, 0.24088223278522491, 0.001227053115144372, 0.0009421512368135154, 0.005924227647483349], [0.0011662573087960482, 0.010110809467732906, 0.005383587907999754, 0.005026825703680515, 0.0001987835275940597, 7.328762876568362e-05, 0.0009359708637930453, 3.228678906452842e-05, 0.020220672711730003, 0.0005238072481006384, 0.07581023126840591, 0.7755428552627563, 0.021044619381427765, 0.037100814282894135, 0.004927222616970539, 0.0008728168322704732, 0.0007291364599950612, 0.03686773404479027, 0.0016859908355399966, 0.000814329890999943, 0.0009320569224655628], [0.03557707741856575, 0.09419386088848114, 0.014487532898783684, 0.023890307173132896, 0.024290436878800392, 0.012593263760209084, 0.017985258251428604, 0.010173244401812553, 0.16249684989452362, 0.007418938912451267, 0.03430987522006035, 0.019819699227809906, 0.027819974347949028, 0.19378304481506348, 0.027454880997538567, 0.011547086760401726, 0.015141456387937069, 0.2072765976190567, 0.01845853216946125, 0.013292471878230572, 0.02798967994749546], [0.001109737902879715, 0.04806201159954071, 0.0005635992856696248, 0.0010429293615743518, 0.004196573048830032, 0.0006457724375650287, 0.0008525513112545013, 0.0008616052800789475, 0.17623291909694672, 0.0003623097436502576, 0.011748827062547207, 0.023423295468091965, 0.09444175660610199, 0.3133026659488678, 0.04654809087514877, 0.0147026302292943, 0.009375132620334625, 0.2435910403728485, 0.000986789702437818, 0.0013557759812101722, 0.006594034377485514], [0.002272841287776828, 0.03872928023338318, 0.0015794679056853056, 0.0027041826397180557, 0.0028017263393849134, 0.0006434863316826522, 0.010988077148795128, 0.001676816027611494, 0.1213376522064209, 0.001958402805030346, 0.009731286205351353, 0.04114293307065964, 0.07889560610055923, 0.21938876807689667, 0.1676422506570816, 0.024475354701280594, 0.050928995013237, 0.19454477727413177, 0.015964994207024574, 0.007751816418021917, 0.004841316491365433], [0.002010077005252242, 0.02246691659092903, 0.0006226325640454888, 0.0006001590518280864, 0.0009078813600353897, 0.0004621894040610641, 0.002486859681084752, 0.00026045928825624287, 0.056582044810056686, 0.001572690554894507, 0.007743361406028271, 0.008432288654148579, 0.019770674407482147, 0.08960329741239548, 0.4537457525730133, 0.17341169714927673, 0.06914997845888138, 0.07753685116767883, 0.007502750493586063, 0.00393314566463232, 0.0011983126169070601], [0.04005357623100281, 0.09275057166814804, 0.01658535934984684, 0.02624647691845894, 0.025980539619922638, 0.015428257174789906, 0.022802313789725304, 0.0134056955575943, 0.15902872383594513, 0.009664821438491344, 0.028906431049108505, 0.015823788940906525, 0.01977384462952614, 0.18316690623760223, 0.03042065165936947, 0.013360549695789814, 0.018261658027768135, 0.19907422363758087, 0.023505352437496185, 0.01575617492198944, 0.030004028230905533], [0.0009072548127733171, 0.03857399523258209, 0.00034733666689135134, 0.0001563674013596028, 0.00014572430518455803, 4.031691423733719e-05, 0.0007727781194262207, 0.0006498398724943399, 0.12496663630008698, 0.0024327258579432964, 0.0016280250856652856, 0.0009180674096569419, 0.0027866866439580917, 0.1901903599500656, 0.23447296023368835, 0.05106959864497185, 0.10662072896957397, 0.19862139225006104, 0.02773328311741352, 0.008180657401680946, 0.008785292506217957], [0.00108842714689672, 0.026098862290382385, 0.0002335937024326995, 9.831810893956572e-05, 9.972791303880513e-05, 1.111091023631161e-05, 0.0006018993444740772, 0.0002037551166722551, 0.09277713298797607, 0.003128738608211279, 0.0015038130804896355, 0.0013038150500506163, 0.0033275929745286703, 0.1573304533958435, 0.31491801142692566, 0.039536189287900925, 0.09974519163370132, 0.166488379240036, 0.0596633180975914, 0.0242779403924942, 0.007563684601336718], [0.08759750425815582, 0.027438515797257423, 0.0013750104699283838, 0.006686054170131683, 0.001550712389871478, 0.0025016432628035545, 0.03073069266974926, 0.007120825350284576, 0.08670932799577713, 0.005707016214728355, 0.013652753084897995, 0.0024019116535782814, 0.0038363283965736628, 0.14649765193462372, 0.025428378954529762, 0.010673336684703827, 0.04075728356838226, 0.16491954028606415, 0.09898398071527481, 0.138719379901886, 0.09671211987733841]], [[0.030850015580654144, 0.05340120568871498, 0.00888868048787117, 0.026969194412231445, 0.004207184072583914, 0.011603490449488163, 0.003953779116272926, 0.006348504219204187, 0.1556011140346527, 0.03963147848844528, 0.014443431049585342, 0.017517535015940666, 0.004262661561369896, 0.19821901619434357, 0.029538748785853386, 0.008375451900064945, 0.024765754118561745, 0.23772487044334412, 0.09243772178888321, 0.01751244068145752, 0.0137476846575737], [0.023570677265524864, 0.166139617562294, 0.023981058970093727, 0.024584386497735977, 0.006775667890906334, 0.0011137891560792923, 0.001992123434320092, 0.0031784868333488703, 0.170742005109787, 0.002668034518137574, 0.010167506523430347, 0.006599877495318651, 0.0022554025053977966, 0.23982395231723785, 0.0034926848020404577, 0.0028892012778669596, 0.004592027980834246, 0.27008289098739624, 0.0049382164143025875, 0.001725118956528604, 0.028687160462141037], [0.02073725499212742, 0.2579886317253113, 0.1675952672958374, 0.05272988975048065, 0.007241316605359316, 0.00015926247579045594, 0.000423261895775795, 0.0007082548690959811, 0.08789197355508804, 0.000794177467469126, 0.006378852296620607, 0.00880657508969307, 0.001993203070014715, 0.1410677284002304, 0.0015879165148362517, 0.001426509814336896, 0.0036883847787976265, 0.16685663163661957, 0.001014617388136685, 0.0012386706657707691, 0.06967159360647202], [0.006207895465195179, 0.3320947289466858, 0.17945586144924164, 0.06761467456817627, 0.006911169737577438, 0.0005062310956418514, 0.0003783376014325768, 0.00034364164457656443, 0.08775363117456436, 0.0002894560166168958, 0.001844568527303636, 0.0011646680068224669, 0.00019283886649645865, 0.12798666954040527, 0.000445997720817104, 0.00014846267004031688, 0.00019899086328223348, 0.1687241941690445, 0.0006136371521279216, 0.000314912322210148, 0.016809409484267235], [0.0002369331195950508, 0.03816057741641998, 0.16185086965560913, 0.7064183354377747, 0.010453466325998306, 6.231426232261583e-05, 0.00019397854339331388, 0.00010697954712668434, 0.01534662488847971, 2.2473950593848713e-05, 0.00015611041453666985, 0.0008821962401270866, 7.248932524817064e-05, 0.026721475645899773, 0.00016258213145192713, 0.00011373098095646128, 5.257290104054846e-05, 0.03512883186340332, 0.00011163689487148076, 0.0010514574823901057, 0.0026944626588374376], [0.001680770074017346, 0.025995170697569847, 0.009137487038969994, 0.059981752187013626, 0.6629260182380676, 0.0016725265886634588, 0.005895733367651701, 0.0013367662904784083, 0.05148165673017502, 0.0001999350351979956, 0.0013073652517050505, 0.0014587988844141364, 0.0027821650728583336, 0.07449471205472946, 0.001363925519399345, 0.0005738826002925634, 0.00019291536591481417, 0.09104941785335541, 0.0007224977598525584, 0.0005123683949932456, 0.005234202835708857], [0.0020735354628413916, 0.0726827010512352, 0.12623213231563568, 0.08771886676549911, 0.4157029986381531, 0.0267634280025959, 0.0026209456846117973, 0.0035121969413012266, 0.06144450604915619, 0.0011585729662328959, 0.003722101915627718, 0.005334538407623768, 0.0005827243439853191, 0.08178305625915527, 0.0017352727008983493, 0.00032221077708527446, 0.000258957123151049, 0.10071462392807007, 0.0014135949313640594, 0.0002874000638257712, 0.0039355880580842495], [0.0012535292189568281, 0.05017557367682457, 0.013259230181574821, 0.03277122601866722, 0.21680618822574615, 0.12935730814933777, 0.19618114829063416, 0.017410874366760254, 0.08656562119722366, 0.013057970441877842, 0.0009215290192514658, 0.0003305741702206433, 0.00029435750911943614, 0.10305695980787277, 0.0023659365251660347, 0.0006347537855617702, 0.00021517991262953728, 0.12834331393241882, 0.003788790199905634, 0.001275236252695322, 0.0019347519846633077], [0.04770423471927643, 0.11493519693613052, 0.025852959603071213, 0.03640232980251312, 0.04472741112112999, 0.023049388080835342, 0.017581138759851456, 0.03075958602130413, 0.14552783966064453, 0.02275196462869644, 0.043916426599025726, 0.011278651654720306, 0.009126353077590466, 0.15375997126102448, 0.01307801716029644, 0.01130667980760336, 0.019244281575083733, 0.15867474675178528, 0.0190349780023098, 0.012698313221335411, 0.03858966380357742], [0.001955496147274971, 0.012730185873806477, 0.0028847865760326385, 0.023365840315818787, 0.054026827216148376, 0.019157886505126953, 0.668239414691925, 0.04122946411371231, 0.04471607878804207, 0.018617402762174606, 0.0003211993316654116, 0.0004142812977079302, 0.0003032736130990088, 0.04349912330508232, 0.001534311450086534, 0.0005977250402793288, 0.0006959933671168983, 0.058600589632987976, 0.001434125704690814, 0.0002004246780415997, 0.005475539714097977], [0.005135588813573122, 0.07141309976577759, 0.017145123332738876, 0.046068571507930756, 0.01081113237887621, 0.000566649017855525, 0.016738278791308403, 0.005999492947012186, 0.21353420615196228, 0.017811035737395287, 0.005205693654716015, 0.001805052743293345, 0.000807248696219176, 0.24525581300258636, 0.0018561473116278648, 0.0012004250893369317, 0.003443047869950533, 0.3174169063568115, 0.0031405340414494276, 0.0005845814011991024, 0.014061440713703632], [0.007549743168056011, 0.10175487399101257, 0.011470643803477287, 0.009982302784919739, 0.0005468634772114456, 2.2175667254487053e-05, 0.00015668162086512893, 0.0002310275158379227, 0.15725985169410706, 0.0014518602984026074, 0.07116875052452087, 0.024654917418956757, 0.006560844834893942, 0.27648109197616577, 0.000976627808995545, 0.0014440453378483653, 0.004323353059589863, 0.3096560835838318, 0.0007193175260908902, 0.0004393159761093557, 0.013149619102478027], [0.0006472758832387626, 0.022210458293557167, 0.012153703719377518, 0.012026146985590458, 5.138110282132402e-05, 8.186559171008412e-06, 9.87190014711814e-06, 2.0830701032537036e-05, 0.037254903465509415, 3.310037209303118e-05, 0.042969003319740295, 0.6495800018310547, 0.014752723276615143, 0.10069828480482101, 0.003476687241345644, 0.0014381918590515852, 0.0009610566194169223, 0.09768793731927872, 0.00024802942061796784, 0.002157810376957059, 0.0016144461696967483], [0.056758008897304535, 0.11156806349754333, 0.02515110746026039, 0.03191101551055908, 0.03288554027676582, 0.012714406475424767, 0.0064925397746264935, 0.017284180968999863, 0.13099081814289093, 0.011982522904872894, 0.08520177006721497, 0.02477392368018627, 0.02081388793885708, 0.14952543377876282, 0.016496751457452774, 0.015546816401183605, 0.02350492775440216, 0.14709721505641937, 0.01886315830051899, 0.016924096271395683, 0.043513864278793335], [0.005314868874847889, 0.03185829520225525, 0.0072760069742798805, 0.003158262697979808, 0.002867578063160181, 0.0015993433771654963, 0.0014973672805354, 0.0007367633515968919, 0.05640823394060135, 0.0004360913299024105, 0.04049934819340706, 0.2761993408203125, 0.23657576739788055, 0.13808824121952057, 0.03391595557332039, 0.01399530190974474, 0.009782476350665092, 0.11834122985601425, 0.007106877397745848, 0.0073646302334964275, 0.0069780535995960236], [0.003367385594174266, 0.016962647438049316, 0.010599933564662933, 0.004961428232491016, 0.007040356285870075, 0.0022481943015009165, 0.003730917815119028, 0.001479785656556487, 0.03222506120800972, 0.000891595147550106, 0.0064482614398002625, 0.15784241259098053, 0.4709221124649048, 0.08983968943357468, 0.05022651329636574, 0.011521758511662483, 0.010397694073617458, 0.08143904060125351, 0.012167870998382568, 0.011072222143411636, 0.014615107327699661], [0.002958417870104313, 0.046402398496866226, 0.003077143570408225, 0.0026193850208073854, 0.007195658516138792, 0.007123549934476614, 0.019867338240146637, 0.0029019855428487062, 0.08305522054433823, 0.0012436810648068786, 0.01596178114414215, 0.039044324308633804, 0.18675968050956726, 0.18815630674362183, 0.14431849122047424, 0.037549491971731186, 0.012104032561182976, 0.1674298197031021, 0.013680022209882736, 0.012398524209856987, 0.006152731832116842], [0.06343746930360794, 0.11613092571496964, 0.02719932422041893, 0.032444849610328674, 0.038904376327991486, 0.01775265485048294, 0.008859077468514442, 0.023839376866817474, 0.1259298175573349, 0.016819331794977188, 0.07757792621850967, 0.018043868243694305, 0.015695005655288696, 0.13483935594558716, 0.016580477356910706, 0.01695130206644535, 0.026468465104699135, 0.13329550623893738, 0.022256214171648026, 0.019557368010282516, 0.047417230904102325], [0.003270722460001707, 0.02398030087351799, 0.0021637906320393085, 0.0008234056294895709, 0.0004921231302432716, 0.0010616076178848743, 0.0017260645981878042, 0.0009890776127576828, 0.07024186849594116, 0.0002239509194623679, 0.002404812490567565, 0.01272306777536869, 0.0202623400837183, 0.14519129693508148, 0.2712351977825165, 0.15029993653297424, 0.10280467569828033, 0.15034405887126923, 0.01735375076532364, 0.015507793985307217, 0.006900222040712833], [0.0035019649658352137, 0.010512949898838997, 0.001728647854179144, 0.0012480823788791895, 0.003316567512229085, 0.00016290819621644914, 0.00032720534363761544, 0.0009917431743815541, 0.03387197107076645, 4.175350477453321e-05, 0.0015761328395456076, 0.03528347238898277, 0.16809587180614471, 0.0966365709900856, 0.10842669755220413, 0.09420639276504517, 0.2932766079902649, 0.09272617846727371, 0.0071482788771390915, 0.023735487833619118, 0.02318449690937996], [0.023343412205576897, 0.0648403987288475, 0.0019593171309679747, 0.018608512356877327, 0.0006025502807460725, 0.00011615423863986507, 0.00010178679804084823, 8.466570579912513e-05, 0.1642170399427414, 0.0015420889249071479, 0.01677181012928486, 0.007582422345876694, 0.0014545280719175935, 0.2958301603794098, 0.01097562164068222, 0.0024643954820930958, 0.00989055447280407, 0.32447654008865356, 0.04522058367729187, 0.004920255392789841, 0.004997273441404104]], [[0.0038570533506572247, 0.015065696090459824, 0.025105740875005722, 0.07174159586429596, 0.029300186783075333, 0.001873518107458949, 0.01717486046254635, 0.008558781817555428, 0.02070779912173748, 0.05812385305762291, 0.02233591303229332, 0.1615253984928131, 0.15427975356578827, 0.030429130420088768, 0.063545823097229, 0.024669261649250984, 0.07529814541339874, 0.031229326501488686, 0.08992297947406769, 0.081186942756176, 0.014068204909563065], [0.02214798331260681, 0.13681933283805847, 0.019742023199796677, 0.018939897418022156, 0.012813812121748924, 0.0025864369235932827, 0.004409679211676121, 0.009372626431286335, 0.1814049631357193, 0.008580021560192108, 0.010128961876034737, 0.00959512498229742, 0.0070525603368878365, 0.2309841364622116, 0.006713496055454016, 0.003726423252373934, 0.01359529048204422, 0.2571150064468384, 0.003799036145210266, 0.0015491185477003455, 0.03892412409186363], [0.003920403309166431, 0.19452932476997375, 0.04156392067670822, 0.022402672097086906, 0.02438737452030182, 0.0006022803718224168, 0.004022759385406971, 0.003681013360619545, 0.15504227578639984, 0.002156284637749195, 0.0028929784893989563, 0.0078599127009511, 0.014912581071257591, 0.23000884056091309, 0.0035607991740107536, 0.003203400643542409, 0.005888086743652821, 0.2528213560581207, 0.000752582389395684, 0.0007645516307093203, 0.025026580318808556], [0.011162392795085907, 0.30479246377944946, 0.3193446695804596, 0.026134835556149483, 0.004688255023211241, 0.00019011995755136013, 0.000495665764901787, 0.0017890878953039646, 0.07371097803115845, 0.0019501022761687636, 0.019136080518364906, 0.01213818695396185, 0.0011731614358723164, 0.08941719681024551, 0.001167213311418891, 0.0015365300932899117, 0.004600611515343189, 0.09758280217647552, 0.0003900723240803927, 0.0002072025090456009, 0.028392594307661057], [0.0045172986574471, 0.1228243038058281, 0.7320530414581299, 0.017682991921901703, 0.0026212637312710285, 2.9997556339367293e-05, 8.094985241768882e-05, 0.00019718024122994393, 0.01760675571858883, 0.00030424565193243325, 0.007136023603379726, 0.02740420028567314, 0.00040099749458022416, 0.019367201253771782, 0.00017297799058724195, 0.00026901037199422717, 0.0009560139151290059, 0.021556859835982323, 0.0006932872347533703, 0.0001559706433909014, 0.023969478905200958], [0.014233548194169998, 0.21860629320144653, 0.0609547384083271, 0.02386115863919258, 0.014966879040002823, 0.013375354930758476, 0.021267792209982872, 0.014086151495575905, 0.1453128159046173, 0.02977822534739971, 0.012831548228859901, 0.012405640445649624, 0.003588135587051511, 0.1622752547264099, 0.005499204155057669, 0.00695794727653265, 0.006053643766790628, 0.18303444981575012, 0.0062559801153838634, 0.005172601900994778, 0.039482634514570236], [0.029528237879276276, 0.16769644618034363, 0.07959213107824326, 0.08339279145002365, 0.05543957278132439, 0.01702551729977131, 0.03978709504008293, 0.0253201425075531, 0.11298231780529022, 0.05299465358257294, 0.012983715161681175, 0.0040761507116258144, 0.0017446802230551839, 0.12086561322212219, 0.0023729177191853523, 0.003809355664998293, 0.005942089483141899, 0.13437995314598083, 0.003752544755116105, 0.001274288515560329, 0.04503980651497841], [0.05214293673634529, 0.16792944073677063, 0.05508565902709961, 0.08772706240415573, 0.06363002210855484, 0.02927495911717415, 0.029731301590800285, 0.019921066239476204, 0.1106787696480751, 0.03550887480378151, 0.00405766349285841, 0.0007868337561376393, 0.001314187073148787, 0.1289195418357849, 0.004956345073878765, 0.0023586773313581944, 0.007625263649970293, 0.1437544822692871, 0.005727451294660568, 0.0012586265802383423, 0.04761091247200966], [0.05721297115087509, 0.10638420283794403, 0.02123001404106617, 0.024977609515190125, 0.027580182999372482, 0.014643974602222443, 0.012255003675818443, 0.023804571479558945, 0.16137604415416718, 0.02238609455525875, 0.021765802055597305, 0.01358126848936081, 0.013356818817555904, 0.17821380496025085, 0.013610883615911007, 0.01054712850600481, 0.02071145549416542, 0.19072973728179932, 0.014125440269708633, 0.006456371862441301, 0.045050621032714844], [0.022084936499595642, 0.10220210999250412, 0.0837259590625763, 0.18773968517780304, 0.1723998785018921, 0.02070791833102703, 0.10412117838859558, 0.023528145626187325, 0.06802362203598022, 0.010875459760427475, 0.004369243048131466, 0.001772936200723052, 0.001696837367489934, 0.07241902500391006, 0.002672836882993579, 0.0025528734549880028, 0.0019867660012096167, 0.08350493758916855, 0.001332057174295187, 0.000525193172506988, 0.03175836428999901], [0.01863505318760872, 0.0622236430644989, 0.3665468990802765, 0.25087469816207886, 0.1257811188697815, 0.004567922558635473, 0.019942084327340126, 0.010743090882897377, 0.0160642359405756, 0.008413402363657951, 0.00824693962931633, 0.018847143277525902, 0.005278878845274448, 0.018507663160562515, 0.0055342018604278564, 0.0018788445740938187, 0.005378220696002245, 0.02052907831966877, 0.0012281412491574883, 0.0009322899277321994, 0.029846476390957832], [0.02975107915699482, 0.14930689334869385, 0.08035317063331604, 0.032709427177906036, 0.060658201575279236, 0.0009640738135203719, 0.004407193977385759, 0.004210016690194607, 0.09715237468481064, 0.0013397213770076632, 0.024157654494047165, 0.06774546205997467, 0.06908711791038513, 0.14621834456920624, 0.009034245274960995, 0.006936580408364534, 0.012125290930271149, 0.15245123207569122, 0.0008758775074966252, 0.0007636739173904061, 0.04975241422653198], [0.0032133080530911684, 0.02324051782488823, 0.06609242409467697, 0.0024784256238490343, 0.0008249932434409857, 7.251881470438093e-06, 2.5958868718589656e-05, 6.181742355693132e-05, 0.012581725604832172, 0.00025335923419333994, 0.0821414515376091, 0.7535053491592407, 0.01413910835981369, 0.017913363873958588, 0.00043954592547379434, 0.0002060767583316192, 0.0007895022281445563, 0.01843372732400894, 0.0003407573967706412, 7.109959551598877e-05, 0.0032402854412794113], [0.06139130890369415, 0.09615250676870346, 0.017780831083655357, 0.01863495446741581, 0.02059452421963215, 0.011062119156122208, 0.008753483183681965, 0.02101733349263668, 0.1570328176021576, 0.021623719483613968, 0.03569577634334564, 0.02347363904118538, 0.02258368209004402, 0.17605771124362946, 0.015682514756917953, 0.013762162066996098, 0.02583702653646469, 0.18419155478477478, 0.015879064798355103, 0.008679240010678768, 0.04411416873335838], [0.012934285216033459, 0.0890103355050087, 0.01330916490405798, 0.012483973056077957, 0.009907033294439316, 0.0011178342392668128, 0.0015418389812111855, 0.004761046729981899, 0.12419459223747253, 0.006480050273239613, 0.05987372621893883, 0.06866810470819473, 0.053708646446466446, 0.18523387610912323, 0.05186140537261963, 0.02783123590052128, 0.037848033010959625, 0.1819450855255127, 0.026007147505879402, 0.008257422596216202, 0.02302526868879795], [0.03440004214644432, 0.04979950189590454, 0.010586777701973915, 0.015436549670994282, 0.01694280281662941, 0.004483948927372694, 0.0030027194879949093, 0.003968096803873777, 0.08554037660360336, 0.005132587626576424, 0.1073826402425766, 0.1280139535665512, 0.11434314399957657, 0.1339128464460373, 0.05561106279492378, 0.017745818942785263, 0.02353963814675808, 0.13121847808361053, 0.02304142154753208, 0.005261879414319992, 0.030635811388492584], [0.04746263474225998, 0.07462531328201294, 0.010788420215249062, 0.012525828555226326, 0.007931760512292385, 0.0012173914583399892, 0.000752574997022748, 0.00339575600810349, 0.11968440562486649, 0.008984468877315521, 0.07494917511940002, 0.02846258319914341, 0.041450466960668564, 0.19120721518993378, 0.05117448791861534, 0.016182390972971916, 0.07092390209436417, 0.1760108470916748, 0.020360473543405533, 0.004373691976070404, 0.03753618150949478], [0.06505708396434784, 0.09155790507793427, 0.01907474733889103, 0.021304678171873093, 0.025405168533325195, 0.014958101324737072, 0.01133777480572462, 0.02591857686638832, 0.14708027243614197, 0.026856793090701103, 0.03238065168261528, 0.020975856110453606, 0.02394162304699421, 0.1613376885652542, 0.018040543422102928, 0.016848454251885414, 0.029994983226060867, 0.16789773106575012, 0.020478013902902603, 0.01155825611203909, 0.04799516126513481], [0.018802886828780174, 0.07312579452991486, 0.007850633934140205, 0.002032223390415311, 0.002564030699431896, 0.001047527533955872, 0.0005733174039050937, 0.0005202855682000518, 0.08879608660936356, 0.0006890061777085066, 0.035167720168828964, 0.04185883328318596, 0.06381376087665558, 0.15966948866844177, 0.13203683495521545, 0.05692880228161812, 0.05186595022678375, 0.14416570961475372, 0.06937173753976822, 0.028314484283328056, 0.020804837346076965], [0.034082844853401184, 0.036577437072992325, 0.008830069564282894, 0.002263565780594945, 0.0030197317246347666, 0.0012307926081120968, 0.0009512116084806621, 0.0009153494029305875, 0.03359357267618179, 0.0013527884148061275, 0.07007353007793427, 0.11152425408363342, 0.15728819370269775, 0.061383720487356186, 0.18708065152168274, 0.10104450583457947, 0.048988956958055496, 0.05139468237757683, 0.03670414164662361, 0.023093506693840027, 0.0286064725369215], [0.017169974744319916, 0.028049355372786522, 0.02159053087234497, 0.021521851420402527, 0.008005170151591301, 0.0004945459077134728, 0.0010927480179816484, 0.001005191938020289, 0.023593472316861153, 0.002077211393043399, 0.07455601543188095, 0.39154988527297974, 0.11417528986930847, 0.04120206460356712, 0.03185964375734329, 0.015025734901428223, 0.0604468435049057, 0.039803795516490936, 0.030735855922102928, 0.023916322737932205, 0.05212851241230965]], [[0.039092037826776505, 0.003945772536098957, 0.036155372858047485, 0.07357285171747208, 0.011712799780070782, 0.009001405909657478, 0.030296390876173973, 0.00495451083406806, 0.009139323607087135, 0.14618201553821564, 0.013281634077429771, 0.11361196637153625, 0.010979252867400646, 0.013822616077959538, 0.11662506312131882, 0.030642032623291016, 0.01768076978623867, 0.015553902834653854, 0.23126135766506195, 0.05078352615237236, 0.02170550264418125], [0.04413697123527527, 0.09468413144350052, 0.02483016811311245, 0.021857785061001778, 0.012514567002654076, 0.0022669711615890265, 0.007970266044139862, 0.015908338129520416, 0.13222768902778625, 0.03251328691840172, 0.10002526640892029, 0.05542692169547081, 0.01606842689216137, 0.14453430473804474, 0.023960154503583908, 0.008356806822121143, 0.01673520728945732, 0.146837055683136, 0.014782269485294819, 0.02226541005074978, 0.062097981572151184], [0.002598443301394582, 0.014063753187656403, 0.12510627508163452, 0.44003984332084656, 0.04462079703807831, 0.002743580611422658, 0.01987640932202339, 0.003583352779969573, 0.01693955808877945, 0.07841936498880386, 0.010037247091531754, 0.14731287956237793, 0.015811461955308914, 0.024135636165738106, 0.00480488408356905, 0.0009091575047932565, 0.002050231210887432, 0.029413187876343727, 0.006108141504228115, 0.006147758569568396, 0.0052781011909246445], [0.0026856877375394106, 0.010280502960085869, 0.28878024220466614, 0.3130492866039276, 0.011613474227488041, 0.00035118547384627163, 0.002966392319649458, 0.0012939873849973083, 0.008636141195893288, 0.015610592439770699, 0.004735170863568783, 0.2705114483833313, 0.016989324241876602, 0.013244991190731525, 0.001767642330378294, 0.00046988410758785903, 0.0018285244004800916, 0.016428111121058464, 0.0022900376934558153, 0.0015379954129457474, 0.014929338358342648], [0.001909799175336957, 0.024593207985162735, 0.201237291097641, 0.36971160769462585, 0.04084939509630203, 0.000444492616225034, 0.0021430370397865772, 0.0011420431546866894, 0.030414024367928505, 0.004197811707854271, 0.00635167071595788, 0.16157080233097076, 0.023989416658878326, 0.0492074079811573, 0.0008372167940251529, 0.0002416738134343177, 0.0019653462804853916, 0.06390108913183212, 0.0025797919370234013, 0.003503837389871478, 0.00920905452221632], [0.023071669042110443, 0.0635918378829956, 0.09127422422170639, 0.07612384855747223, 0.023847375065088272, 0.002101111225783825, 0.012867486104369164, 0.010571125894784927, 0.06666625291109085, 0.05914365500211716, 0.03925815969705582, 0.10072492808103561, 0.013306627981364727, 0.09457222372293472, 0.02553599514067173, 0.004407474305480719, 0.018238428980112076, 0.10654973983764648, 0.06697718054056168, 0.025095032528042793, 0.0760757252573967], [0.0038235881365835667, 0.060373157262802124, 0.07077069580554962, 0.0725521519780159, 0.03577694296836853, 0.00521604809910059, 0.04607514664530754, 0.0068553779274225235, 0.0856536477804184, 0.09137671440839767, 0.014243273064494133, 0.11717252433300018, 0.01934710703790188, 0.12661480903625488, 0.0413808599114418, 0.00247646844945848, 0.006429556757211685, 0.14800727367401123, 0.023165076971054077, 0.012619907967746258, 0.010069670155644417], [0.006216017995029688, 0.07116192579269409, 0.0804147869348526, 0.08616732805967331, 0.034428566694259644, 0.0041080922819674015, 0.049529097974300385, 0.01091290544718504, 0.09049234539270401, 0.09349659085273743, 0.01592607982456684, 0.05343511328101158, 0.008269826881587505, 0.11971762776374817, 0.01884973794221878, 0.0013900358462706208, 0.007155662402510643, 0.14529117941856384, 0.0537547804415226, 0.010474256239831448, 0.03880801051855087], [0.10532539337873459, 0.11870136857032776, 0.005569671280682087, 0.00501012708991766, 0.010921060107648373, 0.00418436573818326, 0.005479311104863882, 0.023557310923933983, 0.17344938218593597, 0.010389474220573902, 0.07115423679351807, 0.008745064958930016, 0.013235924765467644, 0.16530583798885345, 0.018276188522577286, 0.014824975281953812, 0.019935719668865204, 0.16142651438713074, 0.00694689154624939, 0.01346577052026987, 0.04409542679786682], [0.0024629945401102304, 0.04564626142382622, 0.08184584230184555, 0.06445691734552383, 0.02311667799949646, 0.004074204713106155, 0.12721501290798187, 0.006275137420743704, 0.06307472288608551, 0.23170991241931915, 0.006340335123240948, 0.04196967929601669, 0.0073578376322984695, 0.08113495260477066, 0.06723421066999435, 0.0031799764838069677, 0.006468954961746931, 0.09905914217233658, 0.02299695461988449, 0.0032701303716748953, 0.011110156774520874], [0.0036516552790999413, 0.020614339038729668, 0.13349120318889618, 0.5642961263656616, 0.027959521859884262, 0.0016746389446780086, 0.010853555053472519, 0.002912411466240883, 0.015094755217432976, 0.03893361985683441, 0.006708503235131502, 0.07860921323299408, 0.012021898292005062, 0.022338775917887688, 0.002336613368242979, 0.0005395766929723322, 0.0018103037727996707, 0.026475071907043457, 0.007535440381616354, 0.0067361630499362946, 0.015406673774123192], [0.0014636027626693249, 0.013278478756546974, 0.07673329859972, 0.6901192665100098, 0.05475369840860367, 0.0011285565560683608, 0.007811473682522774, 0.0009673574240878224, 0.010942519642412663, 0.011533791199326515, 0.0024603158235549927, 0.06378725916147232, 0.017414560541510582, 0.01767575554549694, 0.0006847590557299554, 0.00020625170145649463, 0.0006301646353676915, 0.022485407069325447, 0.0010745084146037698, 0.0018613069551065564, 0.002987674903124571], [0.00027177008450962603, 0.006493990775197744, 0.11839339882135391, 0.6352142095565796, 0.02761877328157425, 0.0003977101296186447, 0.002326791873201728, 0.00028280768310651183, 0.0072549376636743546, 0.004397195763885975, 0.0009663779637776315, 0.12563428282737732, 0.034980371594429016, 0.012499148026108742, 0.0009716047206893563, 0.00011977594840573147, 0.0006699275691062212, 0.015881460160017014, 0.0018607954261824489, 0.0023087046574801207, 0.001455994206480682], [0.11344723403453827, 0.12013982981443405, 0.006647684145718813, 0.006428251508623362, 0.013981404714286327, 0.004957512021064758, 0.005205152090638876, 0.02721996046602726, 0.15744881331920624, 0.010093491524457932, 0.08521555364131927, 0.010589202865958214, 0.01731785759329796, 0.14880433678627014, 0.016997719183564186, 0.017429107800126076, 0.023441100493073463, 0.1440611183643341, 0.006360351108014584, 0.015403364785015583, 0.04881100356578827], [0.0021100882440805435, 0.01574585773050785, 0.16681386530399323, 0.08793354779481888, 0.01588335447013378, 0.004133133217692375, 0.05577268451452255, 0.004345910623669624, 0.01942823827266693, 0.23450511693954468, 0.0029846113175153732, 0.11865966767072678, 0.021811271086335182, 0.028689609840512276, 0.09556709975004196, 0.006686070933938026, 0.01136625837534666, 0.03312799707055092, 0.04098915308713913, 0.028191931545734406, 0.005254654213786125], [0.0015438892878592014, 0.009563853964209557, 0.1430118829011917, 0.18510666489601135, 0.013368525542318821, 0.0019551946315914392, 0.03001396544277668, 0.003132123500108719, 0.012256971560418606, 0.1820051223039627, 0.002432995941489935, 0.1904527097940445, 0.014585493132472038, 0.019037308171391487, 0.08350073546171188, 0.00368585716933012, 0.006898116320371628, 0.022317800670862198, 0.050801023840904236, 0.020320534706115723, 0.004009178373962641], [0.0025203232653439045, 0.03787396475672722, 0.041106950491666794, 0.1757926344871521, 0.030213505029678345, 0.005828965455293655, 0.06443223357200623, 0.008170357905328274, 0.056135665625333786, 0.17165641486644745, 0.004301698412746191, 0.028620844706892967, 0.013109157793223858, 0.07647350430488586, 0.0467577762901783, 0.0032178161200135946, 0.011227618902921677, 0.08916833251714706, 0.09009601920843124, 0.027673112228512764, 0.015623112209141254], [0.13225552439689636, 0.11522497236728668, 0.005825891625136137, 0.005417793057858944, 0.01379802729934454, 0.005666226614266634, 0.0051748366095125675, 0.03042018972337246, 0.15071599185466766, 0.009888666681945324, 0.09029190987348557, 0.009255588054656982, 0.01705685630440712, 0.13928410410881042, 0.017548812553286552, 0.019964320585131645, 0.025267556309700012, 0.13363662362098694, 0.006397224497050047, 0.01569516211748123, 0.05121373012661934], [0.007879489101469517, 0.027024654671549797, 0.0380963534116745, 0.059985868632793427, 0.006033279933035374, 0.00655248062685132, 0.056260887533426285, 0.004894925747066736, 0.03932778537273407, 0.33290860056877136, 0.005398365203291178, 0.020795797929167747, 0.0035333556588739157, 0.048463769257068634, 0.14728166162967682, 0.006109347101300955, 0.011842784471809864, 0.05517686530947685, 0.08046628534793854, 0.01190213393419981, 0.030065439641475677], [0.002439029049128294, 0.007682235445827246, 0.1640169471502304, 0.1262177675962448, 0.0122646763920784, 0.0008888888405635953, 0.03285573795437813, 0.001229403424076736, 0.0070190937258303165, 0.30420631170272827, 0.0019196015782654285, 0.12011289596557617, 0.0124219860881567, 0.010402215644717216, 0.07920460402965546, 0.001515314681455493, 0.004777965601533651, 0.012345652095973492, 0.0766955316066742, 0.008858287706971169, 0.012925893999636173], [0.0016643099952489138, 0.0022747498005628586, 0.04013744369149208, 0.12976136803627014, 0.004994711373001337, 0.0003536631411407143, 0.008114926517009735, 0.0015234890161082149, 0.001091504585929215, 0.3518125116825104, 0.015097005292773247, 0.18419694900512695, 0.0036441339179873466, 0.0013275041710585356, 0.024505337700247765, 0.001022437820211053, 0.004056601785123348, 0.001405811868607998, 0.18612754344940186, 0.012249037623405457, 0.02463892102241516]], [[0.007846632041037083, 0.07970956712961197, 0.32792651653289795, 0.06502249091863632, 0.03019167296588421, 0.004027192015200853, 0.011154930107295513, 0.008212832733988762, 0.06255654245615005, 0.01924183964729309, 0.00517305638641119, 0.09221385419368744, 0.019554967060685158, 0.08250885456800461, 0.02140791155397892, 0.007844600826501846, 0.022228000685572624, 0.0919158086180687, 0.025068381801247597, 0.013050391338765621, 0.003143902635201812], [0.005529241170734167, 0.12350500375032425, 0.03110181912779808, 0.06716480851173401, 0.03630755841732025, 0.0016729106428101659, 0.005750496406108141, 0.025836823508143425, 0.18819928169250488, 0.008685076609253883, 0.009465275332331657, 0.005071565508842468, 0.005945395678281784, 0.2039184868335724, 0.0018138174200430512, 0.0015187195967882872, 0.008034352213144302, 0.24875690042972565, 0.0033697334583848715, 0.0029657501727342606, 0.015387056395411491], [0.001205529784783721, 0.04355188086628914, 0.0767141804099083, 0.3245605230331421, 0.2608335018157959, 0.0028003277257084846, 0.013926051557064056, 0.0031861895695328712, 0.06162508949637413, 0.0023331090342253447, 0.001859461423009634, 0.0032440361101180315, 0.005439382046461105, 0.08627905696630478, 0.0006469992804341018, 0.00022955752501729876, 0.0003929126251023263, 0.10724589973688126, 0.001182259526103735, 0.0009117176523432136, 0.0018323562107980251], [0.002031192649155855, 0.03772750124335289, 0.018859857693314552, 0.025250721722841263, 0.5389999151229858, 0.012811590917408466, 0.026491442695260048, 0.01116745825856924, 0.0976116806268692, 0.004844683688133955, 0.0012707090936601162, 0.001116233179345727, 0.0017547386232763529, 0.10074605792760849, 0.0018460736609995365, 0.0002766101388260722, 0.00017709365056362003, 0.11248685419559479, 0.0003439343417994678, 0.00014509398897644132, 0.004040527623146772], [0.0016246442683041096, 0.013120366260409355, 0.005995974875986576, 0.008993278257548809, 0.07349412888288498, 0.12256672233343124, 0.38867631554603577, 0.09353144466876984, 0.0767998918890953, 0.06289409846067429, 0.00045256601879373193, 0.00016768100613262504, 0.0001779286831151694, 0.06120295077562332, 0.007859703153371811, 0.0006754458299838006, 0.0012739695375785232, 0.0731736421585083, 0.001805169740691781, 0.001267954707145691, 0.004246209282428026], [0.0019286605529487133, 0.027241352945566177, 0.008798673748970032, 0.004627851769328117, 0.03750744089484215, 0.008766071870923042, 0.1411171853542328, 0.18138611316680908, 0.17009299993515015, 0.06497680395841599, 0.0029493551701307297, 0.0009253363823518157, 0.0015870637726038694, 0.1324295997619629, 0.0036595172714442015, 0.0014126599999144673, 0.00861018430441618, 0.17902448773384094, 0.010683231987059116, 0.002646653214469552, 0.009628746658563614], [0.004487631376832724, 0.028169702738523483, 0.010331112891435623, 0.009516604244709015, 0.05130273476243019, 0.010915852151811123, 0.01599729061126709, 0.03165709227323532, 0.1391046643257141, 0.40174156427383423, 0.009948265738785267, 0.0038266871124505997, 0.0023204274475574493, 0.10993587225675583, 0.0025334476958960295, 0.0008287745295092463, 0.0008534512016922235, 0.14232082664966583, 0.01215713657438755, 0.003197804791852832, 0.008853093720972538], [0.0018664035014808178, 0.03610286861658096, 0.018607771024107933, 0.006525085773319006, 0.00907838437706232, 0.004447727929800749, 0.0062262569554150105, 0.012811511754989624, 0.22437870502471924, 0.18719817698001862, 0.01452156063169241, 0.005669751204550266, 0.0006631261203438044, 0.18799525499343872, 0.0008106000022962689, 0.0004890587879344821, 0.0015104193007573485, 0.2647584080696106, 0.009262521751224995, 0.002456923481076956, 0.004619503393769264], [0.026860158890485764, 0.08861044049263, 0.013430519960820675, 0.026482518762350082, 0.020851045846939087, 0.009001106023788452, 0.007990102283656597, 0.029687652364373207, 0.1811320036649704, 0.01883746311068535, 0.0386185497045517, 0.015074954368174076, 0.017246343195438385, 0.18502254784107208, 0.009319735690951347, 0.009140804409980774, 0.021669290959835052, 0.2067260593175888, 0.01576155796647072, 0.012835723347961903, 0.045701321214437485], [0.0024389182217419147, 0.045130956918001175, 0.0036365361884236336, 0.006916574202477932, 0.0008744728402234614, 0.0003256791387684643, 0.0015289172297343612, 0.0021523963660001755, 0.2559996247291565, 0.008372037671506405, 0.022801242768764496, 0.00638447143137455, 0.00038745702477172017, 0.26089292764663696, 7.224108412628993e-05, 0.00018811627523973584, 0.00022405499476008117, 0.3770943284034729, 0.0009915422415360808, 0.002003747969865799, 0.0015837163664400578], [0.002310378011316061, 0.008853244595229626, 0.009221270680427551, 0.003809527261182666, 0.003425618400797248, 0.00030986423371359706, 0.0012526680948212743, 0.0034249667078256607, 0.02773280069231987, 0.004859421867877245, 0.010006711818277836, 0.2922062575817108, 0.4804416298866272, 0.052868492901325226, 0.007365805096924305, 0.0030412226915359497, 0.027407808229327202, 0.049991026520729065, 0.004563343711197376, 0.0026105751749128103, 0.004297413397580385], [0.0007680705166421831, 0.007994214072823524, 0.001468752627260983, 0.0004655944649130106, 0.0015724794939160347, 0.0002970299974549562, 0.0002382784296059981, 3.883343015331775e-05, 0.02966369315981865, 8.301246998598799e-05, 0.000312016491079703, 0.02327321656048298, 0.7202475070953369, 0.10324950516223907, 0.015162249095737934, 0.003251529997214675, 0.002255704952403903, 0.08289120346307755, 0.0033480755519121885, 0.0018605983350425959, 0.0015585359651595354], [0.002244753995910287, 0.005686587654054165, 0.003587989369407296, 0.00013948313426226377, 0.0003218801284674555, 0.002324692439287901, 0.0022542900405824184, 0.00023326193331740797, 0.02563493140041828, 0.0003354407090228051, 4.875546073890291e-05, 0.010510746389627457, 0.052614014595746994, 0.07932787388563156, 0.5249057412147522, 0.04467826709151268, 0.06164480373263359, 0.060393307358026505, 0.03631844371557236, 0.08264386653900146, 0.004150880966335535], [0.03338911756873131, 0.08549287170171738, 0.014358934946358204, 0.024187928065657616, 0.021219739690423012, 0.009554248303174973, 0.007815134711563587, 0.02436557412147522, 0.15876361727714539, 0.0112979831174016, 0.030028939247131348, 0.017670784145593643, 0.026486558839678764, 0.17609506845474243, 0.01798339933156967, 0.01761399582028389, 0.03386210650205612, 0.1883634775876999, 0.021187178790569305, 0.021338729187846184, 0.058924589306116104], [0.003582709701731801, 0.00663729477673769, 0.0009483028552494943, 0.00023298156156670302, 0.0002896807563956827, 0.00010590848251013085, 0.00024184859648812562, 0.0020482805557549, 0.024459801614284515, 0.0006535141728818417, 0.0004013680445495993, 0.0015412246575579047, 0.004068748094141483, 0.037578072398900986, 0.025085212662816048, 0.019966229796409607, 0.266664057970047, 0.0442105308175087, 0.3119955062866211, 0.23327282071113586, 0.016015861183404922], [0.002677802462130785, 0.006441083736717701, 0.0021611819975078106, 0.00021443379228003323, 0.0007149889715947211, 0.00048155439435504377, 0.00012184103979961947, 0.00024483806919306517, 0.016095565631985664, 0.0009709698497317731, 0.00023500979295931756, 0.002014664001762867, 0.003746031317859888, 0.028538841754198074, 0.026151694357395172, 0.006239983718842268, 0.041732314974069595, 0.031815335154533386, 0.5210592746734619, 0.3001672029495239, 0.008175346069037914], [0.0024975119158625603, 0.010408145375549793, 0.007141560316085815, 0.0009116788860410452, 0.00037299064570106566, 0.00010725041647674516, 4.383539271657355e-05, 0.00015080887533258647, 0.025106804445385933, 0.0011221244931221008, 0.0011347471736371517, 0.009272541850805283, 0.002168531296774745, 0.03893393650650978, 0.005223073530942202, 0.002920864848420024, 0.028275420889258385, 0.04793311655521393, 0.38203078508377075, 0.4234829545021057, 0.01076135691255331], [0.03480049595236778, 0.09488862007856369, 0.01594582386314869, 0.029967350885272026, 0.026210548356175423, 0.01160899642854929, 0.008571210317313671, 0.02282998338341713, 0.1616314947605133, 0.012664606794714928, 0.039175450801849365, 0.01824154704809189, 0.024852460250258446, 0.17199407517910004, 0.014662581495940685, 0.014520210213959217, 0.0224677212536335, 0.1843867301940918, 0.018235772848129272, 0.018877336755394936, 0.05346709489822388], [0.009660252369940281, 0.057992272078990936, 0.002639407990500331, 0.0073742433451116085, 0.0025136913172900677, 0.0003368460456840694, 0.00023587484611198306, 0.0006216759793460369, 0.153316929936409, 0.0005395273910835385, 0.001669098506681621, 0.0012437261175364256, 0.0022014740388840437, 0.2347181737422943, 0.0013827537186443806, 0.0015645732637494802, 0.004076453857123852, 0.29424557089805603, 0.08047262579202652, 0.10077569633722305, 0.042419083416461945], [0.021680746227502823, 0.04933203384280205, 0.002673451090231538, 0.009224563837051392, 0.002854678314179182, 0.00028326819301582873, 0.0002493340289220214, 0.00037302233977243304, 0.14560717344284058, 0.00043110011029057205, 0.0023399912752211094, 0.002165488200262189, 0.0015217700274661183, 0.26852136850357056, 0.002104284707456827, 0.0024861921556293964, 0.002747276332229376, 0.33259347081184387, 0.05500907450914383, 0.036538541316986084, 0.06126320734620094], [0.0026730133686214685, 0.16631659865379333, 0.16160057485103607, 0.02552598901093006, 0.013663898222148418, 0.0011060582473874092, 0.00811461079865694, 0.00491842208430171, 0.14525873959064484, 0.009985264390707016, 0.0020699994638562202, 0.005678651388734579, 0.0008484123391099274, 0.1873442679643631, 0.003755113109946251, 0.0009860907448455691, 0.0034893101546913385, 0.2413395345211029, 0.005889349617063999, 0.007117690052837133, 0.002318397630006075]], [[0.014914234168827534, 0.03164742514491081, 0.007622595876455307, 0.009880509227514267, 0.003567699808627367, 0.0017228634096682072, 0.00494341691955924, 0.007890390232205391, 0.026582203805446625, 0.010032190009951591, 0.04041227698326111, 0.01088383886963129, 0.0030690699350088835, 0.02964332327246666, 0.014940797351300716, 0.0029952945187687874, 0.006534090731292963, 0.03253666311502457, 0.025091325864195824, 0.005128236021846533, 0.7099615335464478], [0.01964760757982731, 0.06511586159467697, 0.02195831574499607, 0.09638038277626038, 0.07416242361068726, 0.013088840059936047, 0.010591473430395126, 0.014064108021557331, 0.11784280091524124, 0.018204018473625183, 0.06564801931381226, 0.03802315890789032, 0.017924128100275993, 0.13460858166217804, 0.02002185769379139, 0.005380540620535612, 0.0200768131762743, 0.15322209894657135, 0.02042972855269909, 0.013561613857746124, 0.060047585517168045], [0.0010353692341595888, 0.016474314033985138, 0.016832059249281883, 0.30515241622924805, 0.450116366147995, 0.0027089796494692564, 0.007136795204132795, 0.004703710786998272, 0.020300202071666718, 0.0054307132959365845, 0.03982897475361824, 0.03829153627157211, 0.02704484947025776, 0.022310612723231316, 0.0032467166893184185, 0.0011498942039906979, 0.005642798263579607, 0.024761199951171875, 0.002313460921868682, 0.0009181544883176684, 0.004600951913744211], [0.007489639334380627, 0.0722726508975029, 0.03075004182755947, 0.027849847450852394, 0.039694588631391525, 0.016747809946537018, 0.014037583954632282, 0.03708116337656975, 0.12194280326366425, 0.049300942569971085, 0.2352009117603302, 0.0586022324860096, 0.003100090892985463, 0.11399123817682266, 0.018643666058778763, 0.0038441915530711412, 0.005261662416160107, 0.12968209385871887, 0.002255738712847233, 0.0015594311989843845, 0.010691645555198193], [0.007690703496336937, 0.06382165849208832, 0.059062011539936066, 0.016089171171188354, 0.008674994111061096, 0.006827239878475666, 0.015620577149093151, 0.014352208003401756, 0.1306082308292389, 0.03342313691973686, 0.2171197235584259, 0.12841930985450745, 0.0011877978686243296, 0.12209363281726837, 0.006997177843004465, 0.002730658743530512, 0.003431349527090788, 0.14441004395484924, 0.0018830741755664349, 0.0020408486016094685, 0.013516463339328766], [0.004991073161363602, 0.07532127946615219, 0.02360905334353447, 0.0031110544223338366, 0.002353370189666748, 0.0063798450864851475, 0.03737872838973999, 0.01634788140654564, 0.18575778603553772, 0.07542254030704498, 0.12578830122947693, 0.04173676669597626, 0.0011713049607351422, 0.17744408547878265, 0.005119771230965853, 0.0021484626922756433, 0.001775976619683206, 0.2009313702583313, 0.005127592943608761, 0.005493739154189825, 0.0025900457985699177], [0.006829479243606329, 0.051211874932050705, 0.009363116696476936, 0.0010934649035334587, 0.0009410178754478693, 0.013635342940688133, 0.12679588794708252, 0.028959006071090698, 0.1300121396780014, 0.2618994116783142, 0.08751962333917618, 0.01157352514564991, 0.00040097019518725574, 0.11934898048639297, 0.00446321489289403, 0.0022211072500795126, 0.0009531360119581223, 0.1389661729335785, 0.0006718570948578417, 0.0025230266619473696, 0.0006177013274282217], [0.007159166969358921, 0.08943281322717667, 0.00445580156520009, 0.004339500330388546, 0.0030791303142905235, 0.006324124522507191, 0.027734024450182915, 0.013999493792653084, 0.216928169131279, 0.08254515379667282, 0.0601298063993454, 0.006143954582512379, 0.0006167691317386925, 0.2120792716741562, 0.003380115609616041, 0.0016524000093340874, 0.002579237101599574, 0.2468847632408142, 0.003750164993107319, 0.003734329715371132, 0.003051787381991744], [0.036674629896879196, 0.07110775262117386, 0.014193873852491379, 0.02288738824427128, 0.035607289522886276, 0.020959822461009026, 0.01688840053975582, 0.014115575700998306, 0.13730667531490326, 0.03323270380496979, 0.036573801189661026, 0.02624231018126011, 0.027620894834399223, 0.15654072165489197, 0.023889975622296333, 0.013656344264745712, 0.028848307207226753, 0.17369791865348816, 0.03114965558052063, 0.030792852863669395, 0.04801314324140549], [0.022909360006451607, 0.07658156007528305, 0.002428805222734809, 0.003395535284653306, 0.001126895542256534, 0.006002578418701887, 0.016707248985767365, 0.014459365978837013, 0.22656622529029846, 0.03094276413321495, 0.04936257377266884, 0.0064752912148833275, 0.001834274735301733, 0.2457103133201599, 0.005552278365939856, 0.002876326674595475, 0.006006683222949505, 0.2718304693698883, 0.002327680354937911, 0.003067003795877099, 0.003836790332570672], [0.009893849492073059, 0.022957205772399902, 0.004104436840862036, 0.014314942061901093, 0.006895189173519611, 0.0010812152177095413, 0.0004796909634023905, 0.0005596798728220165, 0.0391731895506382, 0.0011704779462888837, 0.015545685775578022, 0.05884125828742981, 0.4015239179134369, 0.07272829115390778, 0.0739603042602539, 0.010182356461882591, 0.05017545074224472, 0.06340359896421432, 0.03847062215209007, 0.02629963867366314, 0.08823902904987335], [0.004223455674946308, 0.026920316740870476, 0.003362944582477212, 0.011656444519758224, 0.019411539658904076, 0.0004968000575900078, 0.0003915396227966994, 0.00012557361333165318, 0.056602850556373596, 0.0001760530867613852, 0.005129039753228426, 0.058201905339956284, 0.40321311354637146, 0.13453830778598785, 0.032015249133110046, 0.016070690006017685, 0.02607272006571293, 0.1265249252319336, 0.022120434790849686, 0.02093689702451229, 0.031809184700250626], [0.027498917654156685, 0.04039962589740753, 0.012230446562170982, 0.002443677745759487, 0.0006740698590874672, 0.0005674288840964437, 0.00042354638571850955, 0.0003803235595114529, 0.08644513040781021, 0.00040037574945017695, 0.00917081255465746, 0.09586691856384277, 0.017198197543621063, 0.17497587203979492, 0.047319695353507996, 0.028958942741155624, 0.02710827812552452, 0.17220333218574524, 0.04050108790397644, 0.07848218828439713, 0.13675114512443542], [0.039318766444921494, 0.06681276857852936, 0.016006147488951683, 0.027133218944072723, 0.03653639927506447, 0.020454779267311096, 0.01579362154006958, 0.014051411300897598, 0.11636774986982346, 0.0252616535872221, 0.030927307903766632, 0.027975674718618393, 0.03266303986310959, 0.13760848343372345, 0.031702395528554916, 0.02027588151395321, 0.038050081580877304, 0.150264710187912, 0.042399920523166656, 0.044867370277643204, 0.06552863121032715], [0.014242068864405155, 0.05739181861281395, 0.003818458877503872, 0.003647639648988843, 0.0015825324226170778, 0.000517109059728682, 0.00020849663997069, 0.0010426416993141174, 0.09978535771369934, 0.0028793190140277147, 0.010902968235313892, 0.007603489328175783, 0.004325079265981913, 0.15460726618766785, 0.052323468029499054, 0.023367658257484436, 0.028094610199332237, 0.1639515608549118, 0.13890603184700012, 0.18558476865291595, 0.045217692852020264], [0.022051852196455002, 0.04828416556119919, 0.00890275277197361, 0.008750091306865215, 0.003359205089509487, 0.00080799066927284, 0.00047302950406447053, 0.0012820622650906444, 0.09825821965932846, 0.003388896817341447, 0.011659703217446804, 0.017518606036901474, 0.004812585189938545, 0.1484193354845047, 0.030070511624217033, 0.01990583911538124, 0.025888914242386818, 0.1654297113418579, 0.16565878689289093, 0.18004922568798065, 0.03502853214740753], [0.009506397880613804, 0.08221911638975143, 0.004393572453409433, 0.006897532381117344, 0.002607319038361311, 0.0007686791941523552, 0.0006279885419644415, 0.0015115045243874192, 0.12549221515655518, 0.0022008626256138086, 0.01807415671646595, 0.014075680635869503, 0.002549414988607168, 0.188459113240242, 0.02086600847542286, 0.015137013979256153, 0.02300170622766018, 0.2144244760274887, 0.12822645902633667, 0.09887918829917908, 0.040081560611724854], [0.041728246957063675, 0.06753067672252655, 0.01813626103103161, 0.03153705224394798, 0.044654008001089096, 0.02561594732105732, 0.019964376464486122, 0.017292728647589684, 0.11105531454086304, 0.03056572936475277, 0.03444746881723404, 0.029822248965501785, 0.034949302673339844, 0.1264534294605255, 0.030244596302509308, 0.02053442969918251, 0.03634273260831833, 0.13813093304634094, 0.03886350989341736, 0.03906844183802605, 0.06306256353855133], [0.02615933306515217, 0.05709164962172508, 0.0018621777417138219, 0.0006325178546831012, 0.00043114396976307034, 0.0008683293126523495, 0.0012394036166369915, 0.000997085589915514, 0.18476223945617676, 0.0014188321074470878, 0.0035467559937387705, 0.0017144260928034782, 0.0003089740639552474, 0.2625947892665863, 0.014208094216883183, 0.005442480556666851, 0.002278700238093734, 0.31940048933029175, 0.03407904878258705, 0.0394376665353775, 0.04152585193514824], [0.08429954200983047, 0.052913784980773926, 0.002891186624765396, 0.0017044327687472105, 0.0009638479677960277, 0.0010684923036023974, 0.0005754940793849528, 0.0011945361038669944, 0.1375759094953537, 0.0006831502541899681, 0.008415319956839085, 0.006014698650687933, 0.0007301202858798206, 0.22529608011245728, 0.030910566449165344, 0.008969640359282494, 0.0047387657687067986, 0.25881150364875793, 0.02311839908361435, 0.03587741404771805, 0.11324718594551086], [0.019222121685743332, 0.09966377913951874, 0.027280867099761963, 0.10867433249950409, 0.01850980892777443, 0.012343518435955048, 0.020318295806646347, 0.020163631066679955, 0.10887285321950912, 0.03283114358782768, 0.08241572231054306, 0.04939582571387291, 0.003367340425029397, 0.12494196742773056, 0.021871715784072876, 0.008494768291711807, 0.012736986391246319, 0.14441746473312378, 0.0222341138869524, 0.011144236661493778, 0.05109957233071327]], [[0.006722983438521624, 0.0056745209731161594, 0.11903440952301025, 0.320346862077713, 0.01896405592560768, 0.008808591403067112, 0.029035750776529312, 0.03936474397778511, 0.0033733267337083817, 0.05849991738796234, 0.03593458607792854, 0.13092032074928284, 0.022721225395798683, 0.0043147848919034, 0.04959695041179657, 0.02602323330938816, 0.022468190640211105, 0.004331912379711866, 0.04077492654323578, 0.02598821558058262, 0.027100542560219765], [0.03381534293293953, 0.12215472757816315, 0.04317442327737808, 0.045833028852939606, 0.026226412504911423, 0.0077796028926968575, 0.02559872902929783, 0.025238242000341415, 0.13949310779571533, 0.030587246641516685, 0.028630848973989487, 0.025914844125509262, 0.01042638998478651, 0.15779653191566467, 0.037816036492586136, 0.007579846307635307, 0.013014271855354309, 0.17294874787330627, 0.011822156608104706, 0.009666482917964458, 0.02448279783129692], [0.0014800515491515398, 0.05483882874250412, 0.1522326022386551, 0.11108147352933884, 0.05122583359479904, 0.00949532724916935, 0.11526911705732346, 0.011058053933084011, 0.07409295439720154, 0.09573538601398468, 0.003230905393138528, 0.017687631770968437, 0.007233889773488045, 0.09184548258781433, 0.06944095343351364, 0.0024844666477292776, 0.0023007523268461227, 0.11056391149759293, 0.009117955341935158, 0.006437706295400858, 0.003146678674966097], [0.0018229251727461815, 0.020081179216504097, 0.10628130286931992, 0.06470426172018051, 0.2239840030670166, 0.013783457688987255, 0.3084701597690582, 0.055998895317316055, 0.018442189320921898, 0.06322882324457169, 0.008385667577385902, 0.022830933332443237, 0.009823987260460854, 0.019711682572960854, 0.01941966451704502, 0.002672814065590501, 0.0035642804577946663, 0.022744789719581604, 0.00309679820202291, 0.0052083637565374374, 0.005743800196796656], [0.002287687733769417, 0.011403411626815796, 0.040561579167842865, 0.04609990864992142, 0.03353287652134895, 0.04168228060007095, 0.3175714612007141, 0.0687050148844719, 0.01934138685464859, 0.2940825819969177, 0.005116560030728579, 0.013320249505341053, 0.0014518024399876595, 0.0221511572599411, 0.030716698616743088, 0.0024587807711213827, 0.004949192050844431, 0.025679683312773705, 0.0045529501512646675, 0.00966667290776968, 0.004668073728680611], [0.0058748554438352585, 0.02153126895427704, 0.07736942917108536, 0.07383067905902863, 0.03335736319422722, 0.008828673511743546, 0.17450930178165436, 0.025372331961989403, 0.039097968488931656, 0.29414603114128113, 0.0051667820662260056, 0.025966137647628784, 0.008469710126519203, 0.044970907270908356, 0.0395231693983078, 0.0020644720643758774, 0.005839935038238764, 0.05502517521381378, 0.03430049866437912, 0.0057372963055968285, 0.019018109887838364], [0.0050742835737764835, 0.030235713347792625, 0.0822172611951828, 0.08443479984998703, 0.010623607784509659, 0.008546138182282448, 0.014688549563288689, 0.015944113954901695, 0.04226372763514519, 0.5100040435791016, 0.006915842182934284, 0.014436455443501472, 0.003227452514693141, 0.04484712332487106, 0.03064967878162861, 0.0018097178544849157, 0.00948374718427658, 0.05113352835178375, 0.02160653844475746, 0.006829129531979561, 0.005028547719120979], [0.0038272759411484003, 0.037171561270952225, 0.06156967207789421, 0.1057230606675148, 0.012717493809759617, 0.01270807720720768, 0.10313878208398819, 0.006025339011102915, 0.05912920832633972, 0.24607759714126587, 0.009917504154145718, 0.032975614070892334, 0.004193834029138088, 0.07256292551755905, 0.10654403269290924, 0.0027268570847809315, 0.004877524450421333, 0.08813131600618362, 0.02114095352590084, 0.004444184713065624, 0.0043971906416118145], [0.10011981427669525, 0.11450742185115814, 0.012747176922857761, 0.006107998546212912, 0.01183528732508421, 0.011012818664312363, 0.010944467969238758, 0.016504298895597458, 0.175424724817276, 0.013530495576560497, 0.030243637040257454, 0.012071548961102962, 0.008908845484256744, 0.18355025351047516, 0.017799437046051025, 0.012273289263248444, 0.01950143836438656, 0.19435088336467743, 0.012060888111591339, 0.010169447399675846, 0.026335762813687325], [0.004074643831700087, 0.07965592294931412, 0.09665819257497787, 0.12603989243507385, 0.007845940068364143, 0.013460942544043064, 0.018780061975121498, 0.013009422458708286, 0.09599527716636658, 0.055503930896520615, 0.010722009465098381, 0.0432296022772789, 0.004976990167051554, 0.12481002509593964, 0.10636181384325027, 0.007047080434858799, 0.016652440652251244, 0.13847841322422028, 0.026902347803115845, 0.004238208755850792, 0.005556762684136629], [0.00479974877089262, 0.015726521611213684, 0.019506195560097694, 0.06081392243504524, 0.004738963674753904, 0.0023678638972342014, 0.014292189851403236, 0.0038071118760854006, 0.025806909427046776, 0.020413052290678024, 0.006969572976231575, 0.24119365215301514, 0.14002536237239838, 0.04946526885032654, 0.21380355954170227, 0.012013413943350315, 0.02052386850118637, 0.04918912053108215, 0.04010732099413872, 0.04240792989730835, 0.012028388679027557], [0.002252249512821436, 0.020209521055221558, 0.010130011476576328, 0.004046516492962837, 0.002350651891902089, 0.0018749102018773556, 0.008289293386042118, 0.0008356255129911005, 0.048814814537763596, 0.004710614215582609, 0.0012658553896471858, 0.045267097651958466, 0.16561642289161682, 0.10940416902303696, 0.33028820157051086, 0.015962805598974228, 0.014753014780580997, 0.10666017979383469, 0.034796468913555145, 0.06775567680597305, 0.004715904593467712], [0.0019378217402845621, 0.005278918892145157, 0.008326811715960503, 0.004182107746601105, 0.0006189254345372319, 0.00182104273699224, 0.004958546254783869, 0.0015820988919585943, 0.010366366244852543, 0.005663091316819191, 0.0013791194651275873, 0.10543849319219589, 0.03657972812652588, 0.02443493716418743, 0.43616196513175964, 0.022453855723142624, 0.05653540417551994, 0.0228476170450449, 0.08206541836261749, 0.16347317397594452, 0.0038944727275520563], [0.11758246272802353, 0.10918077826499939, 0.013460719957947731, 0.0050484901294112206, 0.011073754169046879, 0.010598517023026943, 0.009920293465256691, 0.014332788065075874, 0.1621730923652649, 0.010608305223286152, 0.03008425049483776, 0.014374851249158382, 0.01235762145370245, 0.174291729927063, 0.021367374807596207, 0.016300581395626068, 0.023424338549375534, 0.18159405887126923, 0.01647908054292202, 0.015217206440865993, 0.03052973374724388], [0.002296939492225647, 0.044093742966651917, 0.020292839035391808, 0.00331167527474463, 0.002582546789199114, 0.0021048313938081264, 0.006016517989337444, 0.0025181935634464025, 0.09848178923130035, 0.011917688883841038, 0.0018075143452733755, 0.037186332046985626, 0.016598574817180634, 0.17215903103351593, 0.14624030888080597, 0.015498925000429153, 0.02188284881412983, 0.19054760038852692, 0.13844335079193115, 0.058533549308776855, 0.007485213223844767], [0.004789032507687807, 0.022623611614108086, 0.04610319063067436, 0.0077992998994886875, 0.0020721734035760164, 0.004073415417224169, 0.019169388338923454, 0.0017781370552256703, 0.04147473722696304, 0.0164096150547266, 0.001447290531359613, 0.10530555993318558, 0.016541369259357452, 0.0753873735666275, 0.2485697865486145, 0.008685821667313576, 0.011699538677930832, 0.08569185435771942, 0.2261713594198227, 0.04763545095920563, 0.006572083104401827], [0.0027305674739181995, 0.03707324340939522, 0.02974226325750351, 0.004788048565387726, 0.004354268312454224, 0.0013775733532384038, 0.01252998597919941, 0.0007392597617581487, 0.06987857818603516, 0.005015229806303978, 0.0015297329518944025, 0.10485461354255676, 0.02402593567967415, 0.12626582384109497, 0.27589330077171326, 0.006816036533564329, 0.0058870818465948105, 0.15038692951202393, 0.09692247956991196, 0.03502293676137924, 0.004166039172559977], [0.13086964190006256, 0.11246469616889954, 0.014188216999173164, 0.005396304652094841, 0.012695567682385445, 0.012590423226356506, 0.010568978264927864, 0.016243524849414825, 0.16039922833442688, 0.01128622516989708, 0.03403758630156517, 0.013008772395551205, 0.011478840373456478, 0.16551558673381805, 0.018527137115597725, 0.016087738797068596, 0.021803639829158783, 0.1720377653837204, 0.015000993385910988, 0.013312133029103279, 0.03248702362179756], [0.0177213903516531, 0.07129234820604324, 0.027515804395079613, 0.00466528907418251, 0.0015418765833601356, 0.0049835629761219025, 0.012307959608733654, 0.006000043824315071, 0.1293969303369522, 0.010033134371042252, 0.0024783520493656397, 0.022036142647266388, 0.0037936868611723185, 0.19997332990169525, 0.12750673294067383, 0.0158259104937315, 0.029741542413830757, 0.22996395826339722, 0.05302676558494568, 0.015501058660447598, 0.014694186858832836], [0.0019462681375443935, 0.01252971775829792, 0.026260167360305786, 0.02341409958899021, 0.0014686553040519357, 0.006465892773121595, 0.05305815115571022, 0.002559568267315626, 0.022752510383725166, 0.014687172137200832, 0.0016893127467483282, 0.03709087520837784, 0.003425497328862548, 0.03787459433078766, 0.5032795667648315, 0.013958469033241272, 0.01288138423115015, 0.042856477200984955, 0.16849251091480255, 0.008951535448431969, 0.004357563331723213], [0.0006966502405703068, 0.007907168939709663, 0.10290927439928055, 0.44444459676742554, 0.008487984538078308, 0.0025717669632285833, 0.04134516045451164, 0.014940987341105938, 0.0041693528182804585, 0.040906354784965515, 0.01007130742073059, 0.12087981402873993, 0.008589951321482658, 0.006010152865201235, 0.13327425718307495, 0.00526202330365777, 0.009724228642880917, 0.006630783434957266, 0.017190273851156235, 0.008020960725843906, 0.0059669967740774155]], [[0.02304644137620926, 0.09078828990459442, 0.0015195300802588463, 0.00405464880168438, 0.0009163296199403703, 0.007948468439280987, 0.004399873781949282, 0.022672202438116074, 0.21668997406959534, 0.020554281771183014, 0.005347803700715303, 0.0012041990412399173, 0.000611867115367204, 0.2394142895936966, 0.003332724329084158, 0.004021867644041777, 0.014630043879151344, 0.2660292088985443, 0.02401658147573471, 0.014226716943085194, 0.03457454964518547], [0.016618026420474052, 0.22367466986179352, 0.008451968431472778, 0.0015762957045808434, 0.0022292393259704113, 0.001288013649173081, 0.0006875835824757814, 0.001414326368831098, 0.1938929557800293, 0.002940085483714938, 0.04815123230218887, 0.012871219776570797, 0.0018494698451831937, 0.2339271754026413, 0.0018459879793226719, 0.001542248297482729, 0.001972093479707837, 0.23040832579135895, 0.001905708690173924, 0.0015383893623948097, 0.01121495570987463], [0.00035486705019138753, 0.04079035297036171, 0.11380590498447418, 0.0004875061858911067, 6.909285002620891e-05, 1.5354668221334578e-06, 2.5452100089751184e-06, 1.8079535948345438e-05, 0.06576650589704514, 0.00012329366290941834, 0.002811395563185215, 0.5711482167243958, 0.00011455368803581223, 0.09750482439994812, 0.00010815688438015059, 8.911773329600692e-05, 0.0011253891279920936, 0.10518702864646912, 0.0002949492773041129, 0.00013565951667260379, 6.114356074249372e-05], [0.0007697276887483895, 0.08678750693798065, 0.004233141429722309, 0.13300476968288422, 0.0008167425403371453, 8.103143045445904e-06, 6.775948691029043e-07, 5.216059435042553e-06, 0.14771685004234314, 5.112493909109617e-06, 0.057231128215789795, 0.021413389593362808, 0.004198790993541479, 0.2711392045021057, 7.130620360840112e-05, 0.0013838597806170583, 0.007894734852015972, 0.2612913250923157, 0.00015446187171619385, 0.000276097358437255, 0.0015977239236235619], [0.00021236670727375895, 0.061726164072752, 0.0020286496728658676, 0.0022882819175720215, 0.5333669781684875, 4.2974817915819585e-05, 6.646745873695181e-07, 2.55237227975158e-06, 0.06497714668512344, 2.51256415140233e-06, 0.0018568567465990782, 0.004005789756774902, 0.1328192949295044, 0.1084815114736557, 0.0003129520046059042, 7.109778380254284e-05, 6.800865958211944e-05, 0.08647213876247406, 2.286684866703581e-05, 5.519244587048888e-05, 0.001186004956252873], [0.008051455952227116, 0.0860639289021492, 3.116113293799572e-05, 4.32674860348925e-05, 0.00015344667190220207, 0.034866511821746826, 0.0007608039886690676, 0.0001781762548489496, 0.25414708256721497, 0.0002480788098182529, 0.00020849081920459867, 2.273216705361847e-05, 2.49923668889096e-05, 0.32728517055511475, 0.00043236775672994554, 2.2129428543848917e-05, 8.377125050174072e-05, 0.2846471071243286, 0.0002501072594895959, 8.670410170452669e-05, 0.002392500638961792], [0.004554595798254013, 0.027926050126552582, 9.751563993631862e-06, 4.3536269913602155e-06, 2.5106586690526456e-05, 0.005515062715858221, 0.09481247514486313, 0.0006708889850415289, 0.25483667850494385, 0.00042205656063742936, 0.0002277898311149329, 2.461544136167504e-05, 2.466445766913239e-05, 0.32107532024383545, 0.000360777135938406, 0.0002743815421126783, 3.841078796540387e-05, 0.2882726490497589, 8.775672176852822e-05, 9.458560089115053e-05, 0.0007421366171911359], [0.0034198674838989973, 0.021674931049346924, 3.789238689932972e-05, 0.0001266908657271415, 0.00011380521027604118, 0.001036134664900601, 0.03499876707792282, 0.19131942093372345, 0.19585539400577545, 0.0030860251281410456, 0.0006683812825940549, 0.00017940590623766184, 0.00042693098657764494, 0.24835914373397827, 0.00014699032180942595, 0.0009901515441015363, 0.05537204071879387, 0.2351827472448349, 0.00019025099754799157, 0.0004975934862159193, 0.00631736172363162], [0.03675348311662674, 0.1058262288570404, 0.008721691556274891, 0.008446930907666683, 0.015052401460707188, 0.02278018370270729, 0.02524241991341114, 0.03308376669883728, 0.18102917075157166, 0.040474094450473785, 0.021094802767038345, 0.007061343640089035, 0.006655690725892782, 0.18794839084148407, 0.015045839361846447, 0.01259007677435875, 0.015049610286951065, 0.19532552361488342, 0.01702670380473137, 0.013045571744441986, 0.031746070832014084], [0.004325465299189091, 0.02472090907394886, 2.7515101464814506e-05, 1.4321881280920934e-05, 2.0667021090048365e-05, 0.00024000013945624232, 0.0001171422190964222, 0.0007620183750987053, 0.2721003293991089, 0.19828596711158752, 0.0008220609743148088, 2.817703534674365e-05, 3.171968273818493e-05, 0.2571427524089813, 0.0002767457044683397, 1.773794792825356e-05, 0.0004547443240880966, 0.2364404797554016, 0.0008268741075880826, 0.0007745446055196226, 0.002569810254499316], [0.009790265932679176, 0.44304150342941284, 0.11372298747301102, 0.12535922229290009, 0.003075722139328718, 0.00011987689504167065, 6.503003532998264e-05, 0.00016128229617606848, 0.06093459203839302, 0.0004735334950964898, 0.01102569792419672, 0.016900749877095222, 0.00031242347904480994, 0.0719676986336708, 6.992857379373163e-05, 4.561922833090648e-05, 7.951105362735689e-05, 0.09370338916778564, 0.0002747240650933236, 0.0003251330927014351, 0.04855109751224518], [0.0002648845547810197, 0.038599107414484024, 0.8170282244682312, 0.011233655735850334, 0.00034361906000413, 1.4573618045687908e-06, 1.1968146509389044e-06, 3.1347587992058834e-06, 0.01681087724864483, 8.339959094882943e-06, 0.0002524768060538918, 0.051422059535980225, 2.745005622273311e-05, 0.028939228504896164, 1.0734701390902046e-05, 1.1336233910697047e-05, 3.1220417440636083e-05, 0.034797389060258865, 2.06830954994075e-05, 8.25933602754958e-06, 0.00018457793339621276], [0.00020247942302376032, 0.040174003690481186, 0.0011931558838114142, 0.008765984326601028, 0.5442197322845459, 1.341512779617915e-05, 2.239343530163751e-06, 2.591491829662118e-05, 0.03225865215063095, 7.141066362237325e-06, 0.0004156720533501357, 0.00021414172078948468, 0.2852557301521301, 0.044120196253061295, 0.00013370711531024426, 3.869568899972364e-05, 0.00017599202692508698, 0.039290428161621094, 1.9972303562099114e-05, 3.8731537642888725e-05, 0.003434093901887536], [0.04001887887716293, 0.10784613341093063, 0.014238270930945873, 0.01565662957727909, 0.024207541719079018, 0.027101317420601845, 0.03023700974881649, 0.03887435048818588, 0.15814624726772308, 0.033427413552999496, 0.020402077585458755, 0.009607634507119656, 0.009406352415680885, 0.1711139678955078, 0.023639176040887833, 0.016717469319701195, 0.01762254536151886, 0.17514754831790924, 0.017703518271446228, 0.014510244131088257, 0.03437570482492447], [0.0027806370053440332, 0.06975173950195312, 0.0017835374455899, 0.00015145327779464424, 0.002652981085702777, 0.0010608751326799393, 0.0005527929752133787, 0.0004049531708005816, 0.11808902770280838, 0.001866910606622696, 0.0001816307776607573, 0.0001996882347157225, 0.0003249341098126024, 0.1646777093410492, 0.47799816727638245, 0.003727187868207693, 0.002542235190048814, 0.13885793089866638, 0.007189188152551651, 0.0033925315365195274, 0.001813916489481926], [0.006511703599244356, 0.057961199432611465, 0.004390409681946039, 0.0029128582682460546, 0.0032615605741739273, 0.00017429036961402744, 0.005913791246712208, 0.005273664835840464, 0.16996996104717255, 0.00014679660671390593, 0.0003354627115186304, 0.002444978803396225, 0.0020720474421977997, 0.2243041843175888, 0.0664273053407669, 0.17722375690937042, 0.01354240719228983, 0.23346365988254547, 0.0077661629766225815, 0.007313271053135395, 0.00859057530760765], [0.0011448913719505072, 0.017876844853162766, 0.0017712438711896539, 0.009469453245401382, 0.0008677535224705935, 6.862430018372834e-05, 0.00011092910426668823, 0.02046138420701027, 0.05355050042271614, 0.0006975647993385792, 0.0001999914093175903, 0.000989363412372768, 0.0018673633458092809, 0.06843262165784836, 0.0010154852643609047, 0.00022394345432985574, 0.7412291169166565, 0.06819544732570648, 0.0032912991009652615, 0.0020948799792677164, 0.006441337987780571], [0.04337821528315544, 0.10239815711975098, 0.013719053007662296, 0.016640150919556618, 0.021589990705251694, 0.024167338386178017, 0.02896139957010746, 0.039690449833869934, 0.15648137032985687, 0.03410927951335907, 0.02606261521577835, 0.01057475060224533, 0.009384620934724808, 0.16574999690055847, 0.020249923691153526, 0.020483219996094704, 0.02132928930222988, 0.17237041890621185, 0.019465411081910133, 0.016180120408535004, 0.03701416775584221], [0.0026124778669327497, 0.03547635301947594, 3.9406550058629364e-05, 5.876729846931994e-05, 2.2071748389862478e-05, 5.922025229665451e-05, 1.5492447346332483e-05, 1.7857497368822806e-05, 0.2516407370567322, 0.0002940557315014303, 0.00015776082000229508, 2.5915785954566672e-05, 3.666999191409559e-06, 0.2346925586462021, 0.00027156740543432534, 5.164607136975974e-05, 0.00013946328544989228, 0.2529568672180176, 0.20965462923049927, 0.010025549679994583, 0.0017840085783973336], [0.0018645080272108316, 0.04457925632596016, 9.590994159225374e-05, 0.0003436242986936122, 7.556029595434666e-05, 0.0001525905099697411, 4.6276385546661913e-05, 0.0003249312285333872, 0.2553797662258148, 0.0018011134816333652, 0.0003470778465270996, 4.544047260424122e-05, 2.8065609512850642e-05, 0.24354299902915955, 0.0016715055098757148, 0.00011475846986286342, 0.001546099316328764, 0.2487405240535736, 0.13612021505832672, 0.0600600503385067, 0.003119625151157379], [0.0100090391933918, 0.0691022202372551, 0.00017341546481475234, 0.0034699984826147556, 0.0011968977050855756, 0.0030614719726145267, 0.0023595651146024466, 0.02564494125545025, 0.23605933785438538, 0.015190024860203266, 0.009612729772925377, 0.0021864112932235003, 0.003711686935275793, 0.2661312520503998, 0.002475150628015399, 0.002447133418172598, 0.02199682779610157, 0.27351656556129456, 0.006535834167152643, 0.007068374194204807, 0.03805107623338699]], [[0.011015073396265507, 0.0004217612149659544, 0.013717242516577244, 0.013421064242720604, 0.0055756885558366776, 0.00251285289414227, 0.10032650828361511, 0.04887915402650833, 9.74681752268225e-05, 0.4012293219566345, 0.008219640702009201, 0.02009098418056965, 0.004912805277854204, 8.610367513028905e-05, 0.027065705507993698, 0.019337201490998268, 0.015009339898824692, 8.001762034837157e-05, 0.1353461593389511, 0.0234499741345644, 0.14920583367347717], [0.001927947043441236, 0.03498125076293945, 0.0006470982334576547, 0.004800733644515276, 0.00048313336446881294, 0.0007011438719928265, 0.0011006483109667897, 0.000970572407823056, 0.21945565938949585, 0.0026194024831056595, 0.0004143502446822822, 0.0010128957219421864, 0.0003966804360970855, 0.3155680298805237, 0.007594495080411434, 0.000980852055363357, 0.0020110218320041895, 0.40068507194519043, 0.001855390495620668, 0.00034603208769112825, 0.0014476340729743242], [0.010100362822413445, 0.03810664638876915, 0.013160382397472858, 0.05079333484172821, 0.0018866811878979206, 0.0012226994149386883, 0.004137342795729637, 0.0017871455056592822, 0.1378779411315918, 0.05663659796118736, 0.0010837342124432325, 0.008343049325048923, 0.001752201234921813, 0.2188563048839569, 0.10995734483003616, 0.0025732095818966627, 0.0047507076524198055, 0.2797447443008423, 0.042106736451387405, 0.0017279188614338636, 0.013394908048212528], [0.004974196664988995, 0.05331995710730553, 0.025020409375429153, 0.09820663183927536, 0.0069971573539078236, 0.0014406731352210045, 0.0038515827618539333, 0.005056124646216631, 0.16413453221321106, 0.01096037682145834, 0.0014319518813863397, 0.011518155224621296, 0.004126629792153835, 0.24532464146614075, 0.024510972201824188, 0.0018222100334241986, 0.007153145968914032, 0.3093957304954529, 0.009326334111392498, 0.004345525987446308, 0.007082989439368248], [0.0032466724514961243, 0.049513090401887894, 0.00677952915430069, 0.08029551804065704, 0.002927405061200261, 0.0004283925809431821, 0.0014564007287845016, 0.0029562923591583967, 0.16677811741828918, 0.005081309471279383, 0.0007510358118452132, 0.004064979963004589, 0.0011240564053878188, 0.27472108602523804, 0.01568813994526863, 0.0005993329687044024, 0.00403076596558094, 0.371107816696167, 0.0039706043899059296, 0.0009695347398519516, 0.00350986048579216], [0.033367592841386795, 0.04885576665401459, 0.0019383770413696766, 0.01674078032374382, 0.0024769699666649103, 0.009454721584916115, 0.009828436188399792, 0.015789387747645378, 0.19035255908966064, 0.026851410046219826, 0.004699602257460356, 0.0022823552135378122, 0.0011356952600181103, 0.2490280717611313, 0.032940782606601715, 0.0029379883781075478, 0.015135425142943859, 0.29301130771636963, 0.025318693369627, 0.0038790248800069094, 0.013975047506392002], [0.010768741369247437, 0.03612301126122475, 0.00402878550812602, 0.004684383049607277, 0.0015055547701194882, 0.007182001136243343, 0.03116566874086857, 0.005755708087235689, 0.17647963762283325, 0.07651162147521973, 0.0007207263843156397, 0.002017887309193611, 0.0008888188749551773, 0.24799524247646332, 0.025699077174067497, 0.0008870151941664517, 0.0028987163677811623, 0.3154200315475464, 0.03773355484008789, 0.006518466863781214, 0.005015410948544741], [0.11165359616279602, 0.022808749228715897, 0.003819047473371029, 0.03066961094737053, 0.0018186785746365786, 0.0160845834761858, 0.0659174844622612, 0.1002088263630867, 0.05827954784035683, 0.16645263135433197, 0.0028641177341341972, 0.002290932461619377, 0.000533171056304127, 0.07164953649044037, 0.06598261743783951, 0.0032681399025022984, 0.04767997935414314, 0.08519139885902405, 0.042050763964653015, 0.01305660605430603, 0.08772005885839462], [0.0018027866026386619, 0.030879966914653778, 0.00038767923251725733, 0.0016334831016138196, 0.0005402328097261488, 0.0013445945223793387, 0.0012820346746593714, 0.0010461282217875123, 0.23730994760990143, 0.0017043455736711621, 0.00038841512287035584, 0.0007196838851086795, 0.0005129691562615335, 0.3169378340244293, 0.0032394779846072197, 0.0008726578089408576, 0.0011653866386041045, 0.3957395553588867, 0.0011727097444236279, 0.0003697157371789217, 0.0009502876200713217], [0.01622876711189747, 0.018249228596687317, 0.00539067666977644, 0.009718737564980984, 0.0015123594785109162, 0.00483206519857049, 0.05351279675960541, 0.01610906980931759, 0.060561928898096085, 0.3562595248222351, 0.0013891822891309857, 0.0040497067384421825, 0.0016060094349086285, 0.07804936915636063, 0.06460541486740112, 0.0044721378944814205, 0.01269801240414381, 0.0928686261177063, 0.16720768809318542, 0.01434206124395132, 0.016336632892489433], [0.042077433317899704, 0.061786673963069916, 0.04184470698237419, 0.16661280393600464, 0.014118469320237637, 0.00452383840456605, 0.018660129979252815, 0.02826559916138649, 0.0727246105670929, 0.042060308158397675, 0.0214710533618927, 0.03800974041223526, 0.010621828958392143, 0.08878107368946075, 0.0561145544052124, 0.02051224187016487, 0.05286172777414322, 0.09926271438598633, 0.025399327278137207, 0.02407728135585785, 0.0702139139175415], [0.00910522136837244, 0.03928563371300697, 0.00664604501798749, 0.03232751786708832, 0.001581275719217956, 0.0010545054683461785, 0.001914800493977964, 0.0011226304341107607, 0.16573727130889893, 0.022366376593708992, 0.0011732325656339526, 0.009029083885252476, 0.0027425987645983696, 0.2680398225784302, 0.06127316877245903, 0.0029682558961212635, 0.004019910469651222, 0.33931636810302734, 0.021364912390708923, 0.0024244075175374746, 0.006506927311420441], [0.004217846319079399, 0.053839750587940216, 0.01249327976256609, 0.055812232196331024, 0.004267172422260046, 0.0011049940949305892, 0.0028809814248234034, 0.0040580215863883495, 0.15015412867069244, 0.020866243168711662, 0.0017823303351178765, 0.01923387683928013, 0.006766997743397951, 0.24332527816295624, 0.07637064158916473, 0.004417578689754009, 0.011943853460252285, 0.29676640033721924, 0.015464858151972294, 0.004634242970496416, 0.009599307551980019], [0.0017564744921401143, 0.03277851268649101, 0.0004186124715488404, 0.0017392141744494438, 0.0006411566282622516, 0.001473623444326222, 0.001210253918543458, 0.0010954126482829452, 0.23826450109481812, 0.0015277070924639702, 0.00045745493844151497, 0.0008481362601742148, 0.000654315110296011, 0.3168046176433563, 0.0033020242117345333, 0.000972873589489609, 0.001260010409168899, 0.3923355042934418, 0.001084982417523861, 0.000395966722862795, 0.0009786317823454738], [0.011709033511579037, 0.03174924477934837, 0.0025843505281955004, 0.011631854809820652, 0.0013636454241350293, 0.0029994703363627195, 0.009409025311470032, 0.012583988718688488, 0.12717217206954956, 0.06074659898877144, 0.002444690326228738, 0.0033571915701031685, 0.0019499220652505755, 0.1682775318622589, 0.24289527535438538, 0.020902428776025772, 0.03274024277925491, 0.19125911593437195, 0.04699350520968437, 0.008926580660045147, 0.008304058574140072], [0.021877482533454895, 0.04809175431728363, 0.00394195131957531, 0.04300414025783539, 0.002822424052283168, 0.004994256421923637, 0.007112307008355856, 0.023753978312015533, 0.11824403703212738, 0.04509411007165909, 0.004125522915273905, 0.003983200527727604, 0.0019929264672100544, 0.1476123183965683, 0.25302085280418396, 0.005914283450692892, 0.04968326911330223, 0.16036292910575867, 0.03799770027399063, 0.008072718977928162, 0.008297854103147984], [0.0204406026750803, 0.04023231565952301, 0.004672637674957514, 0.05160720273852348, 0.002979123266413808, 0.004475926980376244, 0.009196964092552662, 0.03855865076184273, 0.09492133557796478, 0.08341550827026367, 0.006638481747359037, 0.00552745396271348, 0.0019508233526721597, 0.11441804468631744, 0.22699515521526337, 0.012727273628115654, 0.07982422411441803, 0.12331806123256683, 0.04093126952648163, 0.014318564906716347, 0.022850414738059044], [0.0019100543577224016, 0.034999776631593704, 0.0005164071335457265, 0.0019452718552201986, 0.000802680675406009, 0.0017949751345440745, 0.001439146464690566, 0.0012698000064119697, 0.2405296117067337, 0.0016634514322504401, 0.0005528889014385641, 0.0010091176955029368, 0.00080008216900751, 0.31484702229499817, 0.003372760023921728, 0.001111492863856256, 0.0013744346797466278, 0.3873247802257538, 0.001205260050483048, 0.0004581145185511559, 0.0010729392524808645], [0.027337217703461647, 0.016262413933873177, 0.0029312625993043184, 0.008607746101915836, 0.0005572633817791939, 0.0027434120420366526, 0.030889257788658142, 0.016936080530285835, 0.05127356946468353, 0.2449379563331604, 0.0036612246185541153, 0.003106205491349101, 0.0006919485749676824, 0.059723593294620514, 0.16100992262363434, 0.005972699727863073, 0.018711891025304794, 0.06562414020299911, 0.2479085922241211, 0.008848034776747227, 0.022265497595071793], [0.043016400188207626, 0.01004116702824831, 0.002465397585183382, 0.02609945833683014, 0.0008053398341871798, 0.0018792720511555672, 0.03383488953113556, 0.018536776304244995, 0.023304754868149757, 0.3330543041229248, 0.0013680022675544024, 0.0026602158322930336, 0.0009249879512935877, 0.029942430555820465, 0.1579427272081375, 0.0021311365999281406, 0.024899354204535484, 0.03385418280959129, 0.2078859657049179, 0.009733660146594048, 0.03561970964074135], [0.026706675067543983, 0.0014248194638639688, 0.003683537943288684, 0.03056512214243412, 0.0019740171264857054, 0.002513257088139653, 0.06830637156963348, 0.04729080572724342, 0.0006430858629755676, 0.2917664349079132, 0.005098279099911451, 0.005512166768312454, 0.0011501730186864734, 0.0006500931922346354, 0.08833754062652588, 0.005843506660312414, 0.030605800449848175, 0.0006351343472488225, 0.25799545645713806, 0.009941445663571358, 0.11935625970363617]]], [[[0.034451600164175034, 0.002278644824400544, 0.11685401201248169, 0.04948962479829788, 0.01089990884065628, 0.004161246586591005, 0.004951313138008118, 0.015441227704286575, 0.001852637273259461, 0.026585714891552925, 0.022976839914917946, 0.10647489875555038, 0.03794535622000694, 0.0019157209899276495, 0.191459521651268, 0.09737221151590347, 0.021359071135520935, 0.0019267437746748328, 0.07176068425178528, 0.13580657541751862, 0.044036444276571274], [0.0020571427885442972, 0.24290162324905396, 0.002561557572335005, 0.0019904174841940403, 0.0004519835638348013, 0.00077218929072842, 0.0015090614324435592, 0.0007228205795399845, 0.24003465473651886, 0.004063821397721767, 0.0008536192472092807, 0.0026199945714324713, 0.0007212286000140011, 0.2422792911529541, 0.005129787139594555, 0.0006895512342453003, 0.001691167359240353, 0.24311310052871704, 0.0033141050953418016, 0.0006963131600059569, 0.0018266462720930576], [0.014485908672213554, 0.029836364090442657, 0.10859275609254837, 0.016471264883875847, 0.0020571148488670588, 0.0032771872356534004, 0.04941758140921593, 0.005954577121883631, 0.026043079793453217, 0.24945013225078583, 0.006683557294309139, 0.02123766951262951, 0.004351580515503883, 0.02636563964188099, 0.13930581510066986, 0.005644338671118021, 0.015287300571799278, 0.02640971727669239, 0.12947353720664978, 0.03998249024152756, 0.07967250049114227], [0.018073061481118202, 0.14527744054794312, 0.13895905017852783, 0.060140352696180344, 0.02344443090260029, 0.0024456907995045185, 0.011920523829758167, 0.008516952395439148, 0.12214333564043045, 0.019047413021326065, 0.03869883716106415, 0.0674562156200409, 0.02573087438941002, 0.12159595638513565, 0.01594250462949276, 0.002933633280918002, 0.00937559548765421, 0.12285512685775757, 0.007470820564776659, 0.007400875445455313, 0.030571348965168], [0.0007225546287372708, 0.2511022388935089, 0.01223827339708805, 0.00821318943053484, 0.004183546639978886, 0.0005905203870497644, 0.00537685165181756, 0.00044302016613073647, 0.230712428689003, 0.004336634650826454, 0.002493959618732333, 0.0063972435891628265, 0.001914044376462698, 0.23104985058307648, 0.002369360765442252, 0.0002634181291796267, 0.0008424100233241916, 0.23431098461151123, 0.00150400644633919, 0.0003580524062272161, 0.0005775238387286663], [0.010833569802343845, 0.11897299438714981, 0.025600548833608627, 0.013058162294328213, 0.01379062607884407, 0.024958863854408264, 0.03991292789578438, 0.016576318070292473, 0.11825866997241974, 0.1932692974805832, 0.008731969632208347, 0.019622182473540306, 0.014881083741784096, 0.11916273832321167, 0.06703837960958481, 0.007104991003870964, 0.01303841918706894, 0.1200489029288292, 0.02950880490243435, 0.008766240440309048, 0.01686437800526619], [0.016404099762439728, 0.06839122623205185, 0.022019272670149803, 0.0031174386385828257, 0.0019407595973461866, 0.0028275868389755487, 0.01752919889986515, 0.005637788213789463, 0.06618591398000717, 0.4210624098777771, 0.00382608431391418, 0.007232869975268841, 0.003402754431590438, 0.06633014231920242, 0.06515563279390335, 0.003210762282833457, 0.013087010011076927, 0.06653673201799393, 0.08037912100553513, 0.012525402009487152, 0.053197842091321945], [0.016996828839182854, 0.03241008147597313, 0.05968687683343887, 0.010908985510468483, 0.0045967018231749535, 0.004077962599694729, 0.024613406509160995, 0.03374893590807915, 0.027998048812150955, 0.32930803298950195, 0.006194089539349079, 0.027468204498291016, 0.00709098344668746, 0.028361180797219276, 0.058562979102134705, 0.00418442627415061, 0.026005294173955917, 0.028366807848215103, 0.13312913477420807, 0.046287551522254944, 0.09000346809625626], [0.0018238441552966833, 0.24229805171489716, 0.0019328242633491755, 0.0016470743576064706, 0.0004064556851517409, 0.0007216284866444767, 0.0012370587792247534, 0.000641126767732203, 0.24195054173469543, 0.0035020294599235058, 0.0007507381960749626, 0.002155719557777047, 0.000652070390060544, 0.2439921796321869, 0.004252915270626545, 0.0006245305412448943, 0.0015346858417615294, 0.24478588998317719, 0.0029202220030128956, 0.0006125228828750551, 0.0015578630845993757], [0.03856731206178665, 0.03220120817422867, 0.023493163287639618, 0.00995495356619358, 0.002338652266189456, 0.007495074067264795, 0.04079046845436096, 0.021338004618883133, 0.028608031570911407, 0.24507956206798553, 0.0032653426751494408, 0.005853767041116953, 0.003329475875943899, 0.028863826766610146, 0.07923436164855957, 0.005804726388305426, 0.019116690382361412, 0.0286861602216959, 0.13021937012672424, 0.024371081963181496, 0.22138866782188416], [0.02249462716281414, 0.08540023118257523, 0.18022820353507996, 0.04333767667412758, 0.013032769784331322, 0.002197006018832326, 0.004933019634336233, 0.007881738245487213, 0.06914694607257843, 0.024054810404777527, 0.02862119860947132, 0.15746411681175232, 0.03678017482161522, 0.06997086852788925, 0.03540945425629616, 0.0053297383710742, 0.011835705488920212, 0.07001751661300659, 0.019837498664855957, 0.03247160091996193, 0.07955507189035416], [0.014295280911028385, 0.06917267292737961, 0.05190419778227806, 0.009082205593585968, 0.0011747092939913273, 0.002015929203480482, 0.013706366531550884, 0.0020040867384523153, 0.0626930296421051, 0.05332532152533531, 0.009381428360939026, 0.10357580333948135, 0.024695372208952904, 0.06442693620920181, 0.23591168224811554, 0.012260074727237225, 0.017514729872345924, 0.06428360939025879, 0.10737136751413345, 0.04921373352408409, 0.031991489231586456], [0.002485731616616249, 0.16192474961280823, 0.018517326563596725, 0.004456337541341782, 0.000693237001542002, 0.0008690041722729802, 0.007929776795208454, 0.0006315827486105263, 0.1529686003923416, 0.02079014666378498, 0.003304224694147706, 0.07237571477890015, 0.01560524757951498, 0.15798871219158173, 0.11866562813520432, 0.010106263682246208, 0.01249074749648571, 0.15829803049564362, 0.059505362063646317, 0.017313605174422264, 0.003079972229897976], [0.0018181559862568974, 0.24209192395210266, 0.0018947336357086897, 0.0016485508531332016, 0.0003986038500443101, 0.0007209706236608326, 0.0012349047465249896, 0.0006338556995615363, 0.24207034707069397, 0.0034771570935845375, 0.0007460935739800334, 0.002140351803973317, 0.0006490889354608953, 0.24407131969928741, 0.004321366548538208, 0.0006225266261026263, 0.0015193942235782743, 0.24486926198005676, 0.002911423798650503, 0.0006139868055470288, 0.001545950653962791], [0.013083918951451778, 0.014980011619627476, 0.0050931391306221485, 0.0017274043057113886, 0.00016584977856837213, 0.0012954049743711948, 0.0021757599897682667, 0.0015299086226150393, 0.01441963855177164, 0.02581067569553852, 0.0014686129288747907, 0.007603011094033718, 0.0016676405211910605, 0.014749684371054173, 0.7279524207115173, 0.03575306013226509, 0.012772947549819946, 0.014682403765618801, 0.05912020057439804, 0.021415291354060173, 0.022532887756824493], [0.014843947254121304, 0.03830835968255997, 0.010279620997607708, 0.003059172537177801, 0.0002007572038564831, 0.0005334617453627288, 0.0011514013167470694, 0.0008099864353425801, 0.03607184439897537, 0.020149121060967445, 0.0023264612536877394, 0.02491607517004013, 0.0033640279434621334, 0.03670153021812439, 0.5907747745513916, 0.024781908839941025, 0.012941677123308182, 0.03669526427984238, 0.09779936075210571, 0.03006930835545063, 0.014221915043890476], [0.010722932405769825, 0.06491411477327347, 0.04700231924653053, 0.008943654596805573, 0.0013195760548114777, 0.0006655191536992788, 0.0016183434054255486, 0.0018544393824413419, 0.055627889931201935, 0.019738640636205673, 0.007425340823829174, 0.11115633696317673, 0.012434720993041992, 0.05653674528002739, 0.2956048548221588, 0.025617191568017006, 0.03380739688873291, 0.05611525848507881, 0.1117863655090332, 0.05107422173023224, 0.026034172624349594], [0.0018360071117058396, 0.24194812774658203, 0.0019192430190742016, 0.0016726115718483925, 0.00040569627890363336, 0.0007293971721082926, 0.0012483608443289995, 0.0006410094210878015, 0.24205856025218964, 0.0035536454524844885, 0.0007500458741560578, 0.0021469304338097572, 0.0006548402016051114, 0.24401451647281647, 0.0043372539803385735, 0.0006264387629926205, 0.001531050307676196, 0.2448129802942276, 0.0029340654145926237, 0.0006195693858899176, 0.0015596343437209725], [0.06729268282651901, 0.03289896249771118, 0.026515478268265724, 0.011818443424999714, 0.001301814103499055, 0.005472138058394194, 0.0162679310888052, 0.015127227641642094, 0.030563589185476303, 0.04755416885018349, 0.008597579784691334, 0.02904665283858776, 0.004080640152096748, 0.031272370368242264, 0.3063194453716278, 0.03620116785168648, 0.05799831077456474, 0.031032610684633255, 0.1093735322356224, 0.03272707015275955, 0.09853822737932205], [0.011620914563536644, 0.002535328734666109, 0.007552800700068474, 0.0029409851413220167, 0.00011039138189516962, 0.0006913896067999303, 0.007470729760825634, 0.00156192306894809, 0.002370363799855113, 0.04276401177048683, 0.0009424170712009072, 0.009264057502150536, 0.0012236336478963494, 0.002466268604621291, 0.6158990263938904, 0.014052284881472588, 0.013147542253136635, 0.0024490917567163706, 0.1934344321489334, 0.024204254150390625, 0.04329819604754448], [0.011414255015552044, 0.0013742913724854589, 0.06063082814216614, 0.038914866745471954, 0.0012284723343327641, 0.0032300271559506655, 0.03172961622476578, 0.009869146160781384, 0.0011249531526118517, 0.20895154774188995, 0.0034978333860635757, 0.01906552165746689, 0.003705155337229371, 0.0011603564489632845, 0.2716905474662781, 0.013578160665929317, 0.01099413726478815, 0.0011533217038959265, 0.15392383933067322, 0.06196872144937515, 0.09079445153474808]], [[0.12025777995586395, 0.008141451515257359, 0.02031220868229866, 0.07863988727331161, 0.027594417333602905, 0.012152501381933689, 0.013905797153711319, 0.015387450344860554, 0.008961587212979794, 0.08394517004489899, 0.08088068664073944, 0.034672483801841736, 0.02011030539870262, 0.009110156446695328, 0.03835513815283775, 0.023700572550296783, 0.013121552765369415, 0.009103035554289818, 0.11837255954742432, 0.0845458060503006, 0.17872945964336395], [0.012492302805185318, 0.22246958315372467, 0.003996469546109438, 0.010420070961117744, 0.002537743654102087, 0.0028370781801640987, 0.005538334604352713, 0.0037886048667132854, 0.2190573364496231, 0.0051908898167312145, 0.005360178649425507, 0.004019042477011681, 0.003953477833420038, 0.22265580296516418, 0.006769982632249594, 0.002642880892381072, 0.006509275175631046, 0.2236723005771637, 0.011729130521416664, 0.007334028370678425, 0.017025433480739594], [0.0016013971762731671, 0.03534114733338356, 0.0792839303612709, 0.2430700808763504, 0.11791263520717621, 0.004462416283786297, 0.033146053552627563, 0.01244648639112711, 0.033858876675367355, 0.027414284646511078, 0.015772288665175438, 0.05870770290493965, 0.12430190294981003, 0.034343939274549484, 0.035432957112789154, 0.008537118323147297, 0.020450299605727196, 0.03415444493293762, 0.033562447875738144, 0.03548341989517212, 0.010716182179749012], [0.026457803323864937, 0.06909630447626114, 0.0523538812994957, 0.0765276625752449, 0.018251067027449608, 0.011764217168092728, 0.03176157549023628, 0.019716637209057808, 0.06413915753364563, 0.04884681850671768, 0.17069301009178162, 0.06641288846731186, 0.031464315950870514, 0.06425900012254715, 0.0187698807567358, 0.004539701621979475, 0.010223675519227982, 0.06342259794473648, 0.01736142486333847, 0.028295010328292847, 0.1056433618068695], [0.0111936554312706, 0.12645216286182404, 0.022395823150873184, 0.16092026233673096, 0.06559381633996964, 0.01262231357395649, 0.031446993350982666, 0.016216250136494637, 0.10703027248382568, 0.015042277984321117, 0.044781412929296494, 0.027936292812228203, 0.07218411564826965, 0.10742614418268204, 0.009117205627262592, 0.002644435502588749, 0.01164455246180296, 0.10602326691150665, 0.00851468462496996, 0.00853244960308075, 0.03228146210312843], [0.016234591603279114, 0.05277545750141144, 0.017601588740944862, 0.038802698254585266, 0.017376599833369255, 0.03592946007847786, 0.07956460863351822, 0.15093950927257538, 0.048036277294158936, 0.09336604177951813, 0.012743135914206505, 0.02293359860777855, 0.01907537877559662, 0.04886685311794281, 0.08030577003955841, 0.01966272108256817, 0.06660141050815582, 0.04853469878435135, 0.05029185861349106, 0.03853755444288254, 0.04182017967104912], [0.010067803785204887, 0.06139986217021942, 0.037895239889621735, 0.01509771030396223, 0.0034902954939752817, 0.05406709760427475, 0.06682588160037994, 0.04795079305768013, 0.05000745505094528, 0.2898959517478943, 0.021906757727265358, 0.015480170026421547, 0.0065592192113399506, 0.05014722794294357, 0.05798685923218727, 0.01219238806515932, 0.014620191417634487, 0.04980756714940071, 0.06733782589435577, 0.02806340716779232, 0.0392003171145916], [0.011333519592881203, 0.05506237968802452, 0.04700559750199318, 0.035911258310079575, 0.005082568619400263, 0.0657513290643692, 0.08302945643663406, 0.048665713518857956, 0.045652590692043304, 0.14408916234970093, 0.02289687842130661, 0.033093590289354324, 0.013244794681668282, 0.04636136814951897, 0.09829933196306229, 0.010910922661423683, 0.02366054244339466, 0.045916713774204254, 0.09851580113172531, 0.031915899366140366, 0.0336005873978138], [0.0123218959197402, 0.22488847374916077, 0.003649819642305374, 0.008529269136488438, 0.0021803651470690966, 0.002830448793247342, 0.005191350355744362, 0.0035758481826633215, 0.22137191891670227, 0.004704881925135851, 0.0045198858715593815, 0.003469830611720681, 0.0035564748104661703, 0.22514432668685913, 0.006127947010099888, 0.002715714043006301, 0.006396968849003315, 0.22630110383033752, 0.010627536103129387, 0.00675450824201107, 0.015141415409743786], [0.017601659521460533, 0.09612464159727097, 0.03715497627854347, 0.03207418695092201, 0.004884206224232912, 0.01948663964867592, 0.03514697775244713, 0.02169637568295002, 0.08103065937757492, 0.0824294239282608, 0.03984156623482704, 0.02689528465270996, 0.017109187319874763, 0.08118439465761185, 0.04982149228453636, 0.00901048630475998, 0.020957212895154953, 0.08052980154752731, 0.08302141726016998, 0.0401163250207901, 0.1238832101225853], [0.03840400651097298, 0.06249505281448364, 0.025358542799949646, 0.09742305427789688, 0.00884861871600151, 0.00409897044301033, 0.004808668512851, 0.005286935716867447, 0.0562727227807045, 0.010026953183114529, 0.04320800304412842, 0.06061827018857002, 0.09122957289218903, 0.05649396777153015, 0.023914355784654617, 0.004028979688882828, 0.013743746094405651, 0.05579420551657677, 0.05544710159301758, 0.08155755698680878, 0.20094062387943268], [0.005658769514411688, 0.05590531602501869, 0.06049250438809395, 0.2051432579755783, 0.02004523202776909, 0.003432311350479722, 0.01310817152261734, 0.006105431821197271, 0.05021856725215912, 0.009008136577904224, 0.006949625909328461, 0.06999142467975616, 0.16588792204856873, 0.05154028534889221, 0.03954282030463219, 0.00835468526929617, 0.023964334279298782, 0.050963304936885834, 0.054920393973588943, 0.07154884189367294, 0.02721874602138996], [0.006577372085303068, 0.06796210259199142, 0.03482966125011444, 0.19220130145549774, 0.013910416513681412, 0.004116474650800228, 0.011775257997214794, 0.0036542846355587244, 0.05937550961971283, 0.008330202661454678, 0.008094945922493935, 0.05735664814710617, 0.2651393413543701, 0.06027178466320038, 0.02409355342388153, 0.006877485662698746, 0.014408462680876255, 0.05950648710131645, 0.026590241119265556, 0.03154430538415909, 0.04338414967060089], [0.012294268235564232, 0.2247232347726822, 0.0036689310800284147, 0.008466971106827259, 0.0021859852131456137, 0.002831933321431279, 0.0052363998256623745, 0.0035760675091296434, 0.22128644585609436, 0.004714575130492449, 0.004506716039031744, 0.003471206873655319, 0.003557484596967697, 0.22509033977985382, 0.0061769913882017136, 0.0027630385011434555, 0.006442737299948931, 0.22625131905078888, 0.010789605788886547, 0.006837844382971525, 0.015127848833799362], [0.01436731405556202, 0.03647646680474281, 0.04224611818790436, 0.0116885332390666, 0.005423753522336483, 0.01978965848684311, 0.03128594905138016, 0.020539863035082817, 0.03121943399310112, 0.04765404388308525, 0.007372167892754078, 0.03444995358586311, 0.034668710082769394, 0.03155600652098656, 0.13548272848129272, 0.05837661772966385, 0.06721576303243637, 0.03142465651035309, 0.16413746774196625, 0.12303191423416138, 0.05159289762377739], [0.015068319626152515, 0.04987533390522003, 0.04475023224949837, 0.027164943516254425, 0.007829713635146618, 0.034613776952028275, 0.04342610761523247, 0.010338403284549713, 0.04431762918829918, 0.05051232874393463, 0.013440830633044243, 0.024655502289533615, 0.02682299166917801, 0.045229434967041016, 0.22702550888061523, 0.03732578828930855, 0.03918727487325668, 0.045063044875860214, 0.08369289338588715, 0.08605066686868668, 0.04360925406217575], [0.011278326623141766, 0.09398023039102554, 0.0521908737719059, 0.033226292580366135, 0.010928468778729439, 0.029452314600348473, 0.052126333117485046, 0.012585167773067951, 0.08253207057714462, 0.0512852817773819, 0.01341891847550869, 0.02831781469285488, 0.043442316353321075, 0.08404809981584549, 0.11317689716815948, 0.014315648935735226, 0.02391919307410717, 0.08354300260543823, 0.07015333324670792, 0.04933967813849449, 0.046739742159843445], [0.012283563613891602, 0.22461757063865662, 0.003670338075608015, 0.008443220518529415, 0.0021913694217801094, 0.0028475665021687746, 0.00526860635727644, 0.0035996136721223593, 0.22128018736839294, 0.0047636437229812145, 0.004503920674324036, 0.0034680108074098825, 0.003543407656252384, 0.22507312893867493, 0.006207950413227081, 0.002783505478873849, 0.006476968992501497, 0.22624550759792328, 0.010783007368445396, 0.006846771575510502, 0.01510215550661087], [0.022838983684778214, 0.11461664736270905, 0.046909648925065994, 0.04042748361825943, 0.005492087919265032, 0.015225724317133427, 0.03446077182888985, 0.012864571996033192, 0.10162975639104843, 0.028393279761075974, 0.01757591962814331, 0.028868161141872406, 0.02007332816720009, 0.10309978574514389, 0.06029605120420456, 0.01909826137125492, 0.02532130666077137, 0.10308646410703659, 0.08394987881183624, 0.055326204746961594, 0.06044568493962288], [0.01943145878612995, 0.05793031305074692, 0.06418745219707489, 0.0679519921541214, 0.0018204923253506422, 0.012814631685614586, 0.043148472905159, 0.004468617960810661, 0.052333053201436996, 0.04700819030404091, 0.0318838469684124, 0.052643872797489166, 0.011270154267549515, 0.053105078637599945, 0.11513613164424896, 0.011939815245568752, 0.011607376858592033, 0.05311154946684837, 0.13127799332141876, 0.050151076167821884, 0.10677842050790787], [0.014421229250729084, 0.005235536955296993, 0.10691845417022705, 0.10953269153833389, 0.010980188846588135, 0.007908941246569157, 0.02689560316503048, 0.01301959902048111, 0.0045892284251749516, 0.09508803486824036, 0.043358899652957916, 0.12057262659072876, 0.013779149390757084, 0.004638392012566328, 0.049024056643247604, 0.006098459009081125, 0.012705913744866848, 0.004600123967975378, 0.2541153132915497, 0.04386146739125252, 0.05265617370605469]], [[0.0736200362443924, 0.006193128880113363, 0.007684276904910803, 0.012362578883767128, 0.007930503226816654, 0.004740952514111996, 0.0033852860797196627, 0.020477676764130592, 0.0056836167350411415, 0.014994263648986816, 0.07967901974916458, 0.01399093959480524, 0.009488922543823719, 0.005830331239849329, 0.06604914367198944, 0.07852256298065186, 0.07460788637399673, 0.0058249845169484615, 0.03462442010641098, 0.04502309113740921, 0.42928633093833923], [0.027022913098335266, 0.12738755345344543, 0.023538075387477875, 0.016889143735170364, 0.02592802606523037, 0.019251907244324684, 0.026249781250953674, 0.03868535906076431, 0.1317114531993866, 0.04291541501879692, 0.012917948886752129, 0.01769378036260605, 0.014772414229810238, 0.13210882246494293, 0.030213573947548866, 0.030578315258026123, 0.05011488124728203, 0.13251015543937683, 0.048095040023326874, 0.029322871938347816, 0.022092575207352638], [0.019400956109166145, 0.17981888353824615, 0.05208663269877434, 0.018864745274186134, 0.014140214771032333, 0.0037779174745082855, 0.003539122873917222, 0.03352054953575134, 0.15017922222614288, 0.03058924525976181, 0.013342209160327911, 0.012974930927157402, 0.011852815747261047, 0.15134580433368683, 0.022436678409576416, 0.017845049500465393, 0.046473510563373566, 0.1517012119293213, 0.011862490326166153, 0.0054999166168272495, 0.04874782636761665], [0.027751188725233078, 0.11117733269929886, 0.11847379058599472, 0.0769309401512146, 0.04991666227579117, 0.006064699497073889, 0.001858926028944552, 0.030462538823485374, 0.08226417005062103, 0.03002779372036457, 0.013152056373655796, 0.011029848828911781, 0.05979267507791519, 0.0832667425274849, 0.011824698187410831, 0.01432973612099886, 0.04407025873661041, 0.08317240327596664, 0.011738133616745472, 0.005561553407460451, 0.12713392078876495], [0.01592332497239113, 0.2184724658727646, 0.07453492283821106, 0.03250376135110855, 0.03216360881924629, 0.005290313623845577, 0.0027327737770974636, 0.019754460081458092, 0.15303194522857666, 0.00835417490452528, 0.007491306867450476, 0.005517335142940283, 0.00905285868793726, 0.15540975332260132, 0.002416046103462577, 0.0025609226431697607, 0.01798366755247116, 0.15539945662021637, 0.012349731288850307, 0.0030620547477155924, 0.0659952163696289], [0.09217700362205505, 0.09968721121549606, 0.009745662100613117, 0.014989404007792473, 0.01907738298177719, 0.039137206971645355, 0.09447978436946869, 0.0752725824713707, 0.08139092475175858, 0.08216140419244766, 0.011247946880757809, 0.0022305676247924566, 0.006676828023046255, 0.08323357254266739, 0.006517609115689993, 0.003574969945475459, 0.0063998885452747345, 0.08339770138263702, 0.021153032779693604, 0.0041117435321211815, 0.1633375585079193], [0.04193350300192833, 0.10589732974767685, 0.011742627248167992, 0.015898747369647026, 0.01802021823823452, 0.0288168266415596, 0.2472543716430664, 0.06328468024730682, 0.09394746273756027, 0.08591695874929428, 0.004348422400653362, 0.0011607924243435264, 0.004355099517852068, 0.0951877236366272, 0.009088789112865925, 0.006249153986573219, 0.009016023948788643, 0.09564726054668427, 0.008553826250135899, 0.002547011012211442, 0.05113312229514122], [0.029226630926132202, 0.12042723596096039, 0.012780222110450268, 0.01490680780261755, 0.013592311181128025, 0.04535065218806267, 0.04185786098241806, 0.1422133445739746, 0.09077577292919159, 0.07040832936763763, 0.014431800693273544, 0.0016222852282226086, 0.0032191015779972076, 0.09145896136760712, 0.012254880741238594, 0.008725755847990513, 0.03314419463276863, 0.09172578901052475, 0.01738686114549637, 0.0071854121051728725, 0.13730566203594208], [0.029129603877663612, 0.12654829025268555, 0.023863302543759346, 0.0175898727029562, 0.027904532849788666, 0.020139386877417564, 0.02735169418156147, 0.03682573512196541, 0.13204313814640045, 0.04212762787938118, 0.012932288460433483, 0.01790086179971695, 0.01567724160850048, 0.13241152465343475, 0.029550617560744286, 0.031076889485120773, 0.04615651071071625, 0.13279104232788086, 0.04562988504767418, 0.030241314321756363, 0.022108620032668114], [0.017183205112814903, 0.09673871845006943, 0.02895916812121868, 0.05510628968477249, 0.02278939262032509, 0.012773089110851288, 0.04571544751524925, 0.05546943470835686, 0.08031243830919266, 0.27803850173950195, 0.004643481690436602, 0.002010940108448267, 0.0027795920614153147, 0.08096672594547272, 0.007332819048315287, 0.005225500091910362, 0.013758181594312191, 0.0817047655582428, 0.014486257918179035, 0.0029463679529726505, 0.09105965495109558], [0.009470563381910324, 0.0118955597281456, 0.11399349570274353, 0.4249650239944458, 0.10963494330644608, 0.010136980563402176, 0.00553874671459198, 0.02440500818192959, 0.008900368586182594, 0.019723962992429733, 0.03537916764616966, 0.02657553367316723, 0.02432371862232685, 0.008881757967174053, 0.018544107675552368, 0.007919498719274998, 0.024917054921388626, 0.008882196620106697, 0.008227691054344177, 0.009421657770872116, 0.0882631316781044], [0.008889704942703247, 0.07334061712026596, 0.0900806412100792, 0.06553611159324646, 0.08925475180149078, 0.013925764709711075, 0.007189364638179541, 0.05532914027571678, 0.06220017001032829, 0.0972520038485527, 0.04044836014509201, 0.027381770312786102, 0.060388341546058655, 0.061890117824077606, 0.03441215306520462, 0.01746765896677971, 0.06039850041270256, 0.061886016279459, 0.015122294425964355, 0.012039149180054665, 0.045567188411951065], [0.005324273370206356, 0.09791726619005203, 0.07552401721477509, 0.09199914336204529, 0.05589953437447548, 0.007917008362710476, 0.0034690117463469505, 0.03314513713121414, 0.07943534851074219, 0.033744364976882935, 0.08554345369338989, 0.07250065356492996, 0.08659844100475311, 0.0803784728050232, 0.011427459307014942, 0.007246945984661579, 0.03430093824863434, 0.08009962737560272, 0.019372260197997093, 0.004926799330860376, 0.03322984650731087], [0.02952886000275612, 0.1262345314025879, 0.02341303788125515, 0.0171408262103796, 0.027368703857064247, 0.019957149401307106, 0.02682635933160782, 0.03672415018081665, 0.13198761641979218, 0.042396366596221924, 0.013096737675368786, 0.018045315518975258, 0.01573178544640541, 0.13236631453037262, 0.02982664294540882, 0.0316036157310009, 0.04629700630903244, 0.13274672627449036, 0.04587659239768982, 0.030543172731995583, 0.022288523614406586], [0.023382319137454033, 0.052896808832883835, 0.02477666735649109, 0.022637473419308662, 0.01466077659279108, 0.010908601805567741, 0.001533861504867673, 0.026545468717813492, 0.045712944120168686, 0.03462420031428337, 0.047506317496299744, 0.030880775302648544, 0.04714120551943779, 0.046712879091501236, 0.17702065408229828, 0.09696009755134583, 0.08342070132493973, 0.046577733010053635, 0.05310944840312004, 0.01977504976093769, 0.09321600943803787], [0.052589286118745804, 0.058925990015268326, 0.01131340954452753, 0.012057972140610218, 0.006894277408719063, 0.0035943251568824053, 0.0008670424576848745, 0.014313298277556896, 0.050340279936790466, 0.020291058346629143, 0.08075055480003357, 0.01976875774562359, 0.04093058407306671, 0.05203818157315254, 0.1286976933479309, 0.11219727993011475, 0.09166006743907928, 0.051900312304496765, 0.04672200605273247, 0.02307281084358692, 0.12107492238283157], [0.01975746639072895, 0.0431230366230011, 0.019402876496315002, 0.02877950295805931, 0.011059369891881943, 0.007271930575370789, 0.0014983146684244275, 0.04760909080505371, 0.035138193517923355, 0.04743773862719536, 0.06863482296466827, 0.024069858714938164, 0.03961021825671196, 0.0356258749961853, 0.07347439229488373, 0.10555712878704071, 0.16933000087738037, 0.03551526740193367, 0.036936622112989426, 0.019617311656475067, 0.13055099546909332], [0.02967548929154873, 0.12617774307727814, 0.023466462269425392, 0.017096156254410744, 0.027212664484977722, 0.0198836512863636, 0.02675550803542137, 0.03654014691710472, 0.13203883171081543, 0.04208558052778244, 0.012966164387762547, 0.01809891313314438, 0.015674922615289688, 0.13242469727993011, 0.02987438626587391, 0.03190499171614647, 0.046378687024116516, 0.13281194865703583, 0.04598529636859894, 0.03069189190864563, 0.022255804389715195], [0.023528939113020897, 0.04994775727391243, 0.013723041862249374, 0.010802431963384151, 0.011591191403567791, 0.006243962794542313, 0.0026573447976261377, 0.01667824387550354, 0.043745383620262146, 0.0424840971827507, 0.02769690565764904, 0.021123792976140976, 0.0710592195391655, 0.04526813328266144, 0.1439342498779297, 0.0808454155921936, 0.07624667137861252, 0.04507148638367653, 0.12163621932268143, 0.02334413304924965, 0.1223713830113411], [0.015536479651927948, 0.013869484886527061, 0.015003306791186333, 0.028170201927423477, 0.01165848784148693, 0.003683538408949971, 0.0008447695872746408, 0.012286936864256859, 0.01172676496207714, 0.027362797409296036, 0.0790431946516037, 0.05489949509501457, 0.0993395671248436, 0.012066865339875221, 0.19273176789283752, 0.08932971209287643, 0.10037553310394287, 0.01190323568880558, 0.08117116242647171, 0.03420061245560646, 0.10479603707790375], [0.00955957267433405, 0.014275995083153248, 0.008572005666792393, 0.027722934260964394, 0.008776719681918621, 0.006090284790843725, 0.003277511801570654, 0.03228661045432091, 0.012629855424165726, 0.036626044660806656, 0.0739547461271286, 0.05156714469194412, 0.027274401858448982, 0.012956757098436356, 0.1275750994682312, 0.06881621479988098, 0.22125506401062012, 0.012838881462812424, 0.10683012008666992, 0.042478784918785095, 0.0946352556347847]], [[0.020679382607340813, 0.13742603361606598, 0.018834475427865982, 0.04253023862838745, 0.012109450064599514, 0.0019823305774480104, 0.005412694066762924, 0.04626576974987984, 0.13397274911403656, 0.007244542706757784, 0.023772981017827988, 0.018206175416707993, 0.016005761921405792, 0.13449232280254364, 0.0511506050825119, 0.01273426879197359, 0.047938451170921326, 0.1379644125699997, 0.025692550465464592, 0.028031015768647194, 0.07755378633737564], [0.05165043845772743, 0.12147103250026703, 0.04820511117577553, 0.04533298313617706, 0.017423205077648163, 0.014531902968883514, 0.01977584697306156, 0.0384044274687767, 0.11125663667917252, 0.026254210621118546, 0.02325221337378025, 0.0195930078625679, 0.014019375666975975, 0.11312432587146759, 0.0279445368796587, 0.013706156983971596, 0.025166625156998634, 0.11362772434949875, 0.0400434173643589, 0.04602611064910889, 0.06919065117835999], [0.06846632808446884, 0.11101029813289642, 0.08631300181150436, 0.18324466049671173, 0.009363037534058094, 0.0011939926771447062, 0.0010785605991259217, 0.008844940923154354, 0.07626233994960785, 0.007299305405467749, 0.006798714864999056, 0.0053927237167954445, 0.007633475586771965, 0.07773680239915848, 0.00213374150916934, 0.00208842009305954, 0.004963275510817766, 0.07775960117578506, 0.016878817230463028, 0.04616217687726021, 0.19937577843666077], [0.06460342556238174, 0.10487547516822815, 0.34551864862442017, 0.10401038825511932, 0.019002800807356834, 0.0029740792233496904, 0.002310309326276183, 0.02309739962220192, 0.06976792216300964, 0.00827003549784422, 0.014365306124091148, 0.007144135423004627, 0.0009591557900421321, 0.06897205114364624, 0.0009129567770287395, 0.000547334086149931, 0.002017638413235545, 0.06978573650121689, 0.010320542380213737, 0.008258958347141743, 0.07228570431470871], [0.00368434377014637, 0.017860539257526398, 0.03538758307695389, 0.7984303832054138, 0.09593489021062851, 0.0011747307144105434, 0.00046870869118720293, 0.0014075483195483685, 0.013276844285428524, 0.00018491614900995046, 0.0013353159883990884, 0.000521526497323066, 0.00029810843989253044, 0.013286369852721691, 0.0002477060479577631, 7.144861592678353e-05, 0.0003132323909085244, 0.013517464511096478, 0.00026739740860648453, 0.00017142984142992646, 0.0021595777943730354], [0.009724413976073265, 0.01978129707276821, 0.03759355843067169, 0.2632163166999817, 0.567038893699646, 0.01567365787923336, 0.0011375054018571973, 0.003988947253674269, 0.014108522795140743, 0.0005771706346422434, 0.004856316838413477, 0.009088443592190742, 0.013163005001842976, 0.014516757801175117, 0.00045296770986169577, 0.0002824072143994272, 0.0005202061729505658, 0.01449684239923954, 0.0012170997215434909, 0.0022312114015221596, 0.0063345287926495075], [0.00922825001180172, 0.00834495946764946, 0.03372597321867943, 0.17981572449207306, 0.6632675528526306, 0.047739118337631226, 0.0021648171823471785, 0.0024810084141790867, 0.006254048086702824, 0.0013044342631474137, 0.0010601142421364784, 0.00602014921605587, 0.007730983197689056, 0.006472612731158733, 0.0013362597674131393, 0.0005268212407827377, 0.0005157713312655687, 0.00637755636125803, 0.0014174239477142692, 0.003041627584025264, 0.0111748231574893], [0.025253796949982643, 0.07750552892684937, 0.02080732025206089, 0.06182848662137985, 0.3007020354270935, 0.2412184327840805, 0.052099935710430145, 0.012472432106733322, 0.05904150754213333, 0.004132825415581465, 0.002688320819288492, 0.0007147218566387892, 0.0015829660696908832, 0.05764615163207054, 0.01017636340111494, 0.0016132793389260769, 0.0011882977560162544, 0.0573493055999279, 0.0026236125268042088, 0.0009443375165574253, 0.008410339243710041], [0.05169469118118286, 0.12146887928247452, 0.0440855398774147, 0.039870791137218475, 0.0172317735850811, 0.017091605812311172, 0.0215449258685112, 0.038492195308208466, 0.11250708997249603, 0.025930186733603477, 0.026728563010692596, 0.020242005586624146, 0.014381065964698792, 0.11419893801212311, 0.030874809250235558, 0.01541073713451624, 0.025995224714279175, 0.11462347954511642, 0.03843250125646591, 0.04429686442017555, 0.06489808112382889], [0.018686048686504364, 0.036398205906152725, 0.019795367494225502, 0.053173262625932693, 0.18554623425006866, 0.0508146695792675, 0.22208040952682495, 0.1866099089384079, 0.03030843287706375, 0.0557142049074173, 0.0022850381210446358, 0.002119227312505245, 0.007736174389719963, 0.029879992827773094, 0.010079198516905308, 0.00309573533013463, 0.009605580009520054, 0.030094999819993973, 0.007734173908829689, 0.0045882342383265495, 0.03365492448210716], [0.017112256959080696, 0.22545136511325836, 0.01836787909269333, 0.01787574775516987, 0.0009928903309628367, 0.0001580411335453391, 0.0020575039088726044, 0.03620930761098862, 0.2045695185661316, 0.02135581336915493, 0.006828786339610815, 0.0038595127407461405, 0.0008950310875661671, 0.2001717984676361, 0.001437930972315371, 0.00036973381065763533, 0.0030861070845276117, 0.20602603256702423, 0.004290193319320679, 0.0048109861090779305, 0.024073591455817223], [0.032647814601659775, 0.17024025321006775, 0.0332067646086216, 0.05029991269111633, 0.00043535802979022264, 6.887724157422781e-05, 0.000357128243194893, 0.014130139723420143, 0.14535029232501984, 0.013775804080069065, 0.029910769313573837, 0.05053858831524849, 0.013113973662257195, 0.14697861671447754, 0.006207701750099659, 0.003212464042007923, 0.017235873267054558, 0.14789342880249023, 0.018372485414147377, 0.029010573402047157, 0.07701307535171509], [0.011835932731628418, 0.12170617282390594, 0.016330035403370857, 0.11185408383607864, 0.002234166953712702, 0.0002442522381898016, 0.0001445360539946705, 0.0024354758206754923, 0.0994390994310379, 0.0019148298306390643, 0.11869898438453674, 0.21869266033172607, 0.043961361050605774, 0.10368192940950394, 0.007311834953725338, 0.00256318598985672, 0.00847755465656519, 0.10285414755344391, 0.011138437315821648, 0.004059162922203541, 0.010422167368233204], [0.05229940637946129, 0.12107356637716293, 0.04405251517891884, 0.038593024015426636, 0.01654396578669548, 0.01623278483748436, 0.02022497169673443, 0.0373588465154171, 0.11213675141334534, 0.02573421411216259, 0.02748497575521469, 0.02125628851354122, 0.015026913955807686, 0.11388760060071945, 0.0312039777636528, 0.015628505498170853, 0.02638915926218033, 0.11427856981754303, 0.0394713431596756, 0.04557797685265541, 0.06554475426673889], [0.017679627984762192, 0.04063306376338005, 0.008965910412371159, 0.009087923914194107, 0.007580275647342205, 0.0015726120909675956, 0.000659746176097542, 0.007529771886765957, 0.0341525562107563, 0.005029772408306599, 0.008683989755809307, 0.07449139654636383, 0.5158462524414062, 0.03595656156539917, 0.034697677940130234, 0.013027640990912914, 0.024609798565506935, 0.03514895215630531, 0.028351109474897385, 0.04381166025996208, 0.0524836927652359], [0.04527721181511879, 0.04534871131181717, 0.004020041320472956, 0.006831962149590254, 0.009957353584468365, 0.010922598652541637, 0.00028790856595151126, 0.002629626542329788, 0.04126415401697159, 0.0012820891570299864, 0.00554579496383667, 0.038446083664894104, 0.4215666353702545, 0.04424506425857544, 0.12171698361635208, 0.029613742604851723, 0.031304601579904556, 0.042865950614213943, 0.03195251524448395, 0.030035043135285378, 0.03488589823246002], [0.015560478903353214, 0.0357719287276268, 0.0019481504568830132, 0.0033965783659368753, 0.006113739218562841, 0.03401058167219162, 0.0037299846298992634, 0.0019531843718141317, 0.0324508473277092, 0.0005332233849912882, 0.005287769250571728, 0.009371472522616386, 0.06650952994823456, 0.03321802243590355, 0.557640790939331, 0.10250945389270782, 0.03255445510149002, 0.03239361569285393, 0.013906440697610378, 0.003835327224805951, 0.00730440067127347], [0.05246035382151604, 0.1206156313419342, 0.044271320104599, 0.038798484951257706, 0.016606153920292854, 0.016576841473579407, 0.020551802590489388, 0.03732655942440033, 0.11171506345272064, 0.025884751230478287, 0.027573170140385628, 0.021034924313426018, 0.014678655192255974, 0.11342619359493256, 0.03163925185799599, 0.01582983136177063, 0.02647729218006134, 0.11381975561380386, 0.03949671983718872, 0.045654889196157455, 0.06556235253810883], [0.02052011527121067, 0.028776906430721283, 0.005686899181455374, 0.0015026263426989317, 0.001596270827576518, 0.0016867411322891712, 0.0012874031672254205, 0.007526829373091459, 0.02665521390736103, 0.0016849628882482648, 0.001966536045074463, 0.010930750519037247, 0.0410832017660141, 0.027371790260076523, 0.32073840498924255, 0.139646515250206, 0.2523946166038513, 0.0271548293530941, 0.044927407056093216, 0.021726610139012337, 0.015135279856622219], [0.04538048058748245, 0.033201687037944794, 0.005513181444257498, 0.007212414871901274, 0.007576521951705217, 0.0004008512769360095, 0.0005670619430020452, 0.010650960728526115, 0.02797146514058113, 0.002970183501020074, 0.005142513662576675, 0.013975168578326702, 0.26860833168029785, 0.029083508998155594, 0.15035781264305115, 0.05742551013827324, 0.1715453863143921, 0.028687233105301857, 0.0718507394194603, 0.030133694410324097, 0.031745318323373795], [0.054773442447185516, 0.13057322800159454, 0.022799326106905937, 0.01829702779650688, 0.0011307017412036657, 0.0003120184410363436, 0.0007578575168736279, 0.007891591638326645, 0.1116943284869194, 0.01646175980567932, 0.005449298769235611, 0.010987448506057262, 0.004068346228450537, 0.11521710455417633, 0.022761303931474686, 0.007347768172621727, 0.016551954671740532, 0.11672665923833847, 0.11092675477266312, 0.08638624101877213, 0.13888578116893768]], [[0.08358123898506165, 0.024647261947393417, 0.013113552704453468, 0.10399751365184784, 0.012828475795686245, 0.03885742649435997, 0.0008146354812197387, 0.028773795813322067, 0.022750703617930412, 0.023841066285967827, 0.04130490869283676, 0.017973143607378006, 0.03172752633690834, 0.023069627583026886, 0.0485854372382164, 0.00488303741440177, 0.05236387252807617, 0.02317136898636818, 0.1746804565191269, 0.17085596919059753, 0.05817899852991104], [0.02730182558298111, 0.16511966288089752, 0.021348195150494576, 0.030508287250995636, 0.033594660460948944, 0.009710101410746574, 0.009454682469367981, 0.014103633351624012, 0.14985963702201843, 0.017727850005030632, 0.040735598653554916, 0.019200854003429413, 0.027813438326120377, 0.14827865362167358, 0.030175330117344856, 0.022557711228728294, 0.026648230850696564, 0.1478322446346283, 0.017284192144870758, 0.016879010945558548, 0.02386624366044998], [0.014087404124438763, 0.20573827624320984, 0.0721810981631279, 0.06949768215417862, 0.026041416451334953, 0.011955088935792446, 0.0010434509022161365, 0.0022986021358519793, 0.13855476677417755, 0.0062452321872115135, 0.0757598951458931, 0.009672567248344421, 0.013653192669153214, 0.13796596229076385, 0.032779399305582047, 0.003661542199552059, 0.002754958812147379, 0.13835416734218597, 0.007868410088121891, 0.007268269080668688, 0.0226186104118824], [0.013592047616839409, 0.08980870246887207, 0.3674185872077942, 0.06773185729980469, 0.019973590970039368, 0.012159761041402817, 0.0042105549946427345, 0.009187286719679832, 0.07147040963172913, 0.05733169615268707, 0.0033734829630702734, 0.007268036250025034, 0.0033340502995997667, 0.07252568751573563, 0.0019987081177532673, 0.000383177975891158, 0.0013152024475857615, 0.07388772815465927, 0.01996426098048687, 0.04904481768608093, 0.05402037501335144], [0.0007466923561878502, 0.037749048322439194, 0.049093302339315414, 0.7272709012031555, 0.07089272141456604, 0.0019300341373309493, 0.0010935441823676229, 0.0008688965463079512, 0.03260001912713051, 0.000381746853236109, 0.0006048978539183736, 0.0030489186756312847, 0.0010091359727084637, 0.03336530923843384, 0.0010666379239410162, 0.0002877948572859168, 0.0003684633120428771, 0.03418590500950813, 0.001467146328650415, 0.0009787240996956825, 0.0009902099845930934], [0.0012690129224210978, 0.21746869385242462, 0.0006658334168605506, 0.02568078599870205, 0.16469566524028778, 0.038071006536483765, 0.006594969425350428, 0.0003690837766043842, 0.17217592895030975, 0.00037919849273748696, 0.0031120528001338243, 0.0006203616503626108, 0.012794029898941517, 0.17561255395412445, 0.005603270139545202, 0.0003160026390105486, 0.00032972884946502745, 0.17071714997291565, 0.00048752917791716754, 0.00047734822146594524, 0.0025597328785806894], [3.836625546682626e-05, 0.0034636277705430984, 0.00011163328599650413, 0.00029641055152751505, 0.007321383338421583, 0.974230945110321, 0.003950754180550575, 0.00022510513372253627, 0.0029128810856491327, 4.31190273957327e-05, 0.00016021014016587287, 1.3952370863989927e-05, 8.01506539573893e-05, 0.0029064349364489317, 0.0010842340998351574, 0.00022024757345207036, 5.470667474583024e-06, 0.0028423883486539125, 1.2148590030847117e-05, 1.654052539379336e-05, 6.389874761225656e-05], [0.00038494053296744823, 0.01620018109679222, 0.00011471741163404658, 0.000940206868108362, 0.0004754051915369928, 0.0009506050264462829, 0.8732519745826721, 0.02223585918545723, 0.015856923535466194, 0.0010639360407367349, 3.155977537971921e-05, 1.0544518772803713e-05, 1.82751718966756e-05, 0.015362969599664211, 0.002301592379808426, 0.031709227710962296, 0.0016045920783653855, 0.01554951909929514, 0.0014927687589079142, 8.624907059129328e-05, 0.0003579076146706939], [0.024016784504055977, 0.16994903981685638, 0.018083559349179268, 0.028162531554698944, 0.03193241357803345, 0.011726317927241325, 0.009845592081546783, 0.013245790265500546, 0.1562315970659256, 0.015153792686760426, 0.04623919352889061, 0.018528692424297333, 0.02483045868575573, 0.15448103845119476, 0.0286267027258873, 0.02324969880282879, 0.023425603285431862, 0.15386153757572174, 0.014358318410813808, 0.01473025232553482, 0.019321030005812645], [0.00521926861256361, 0.11787529289722443, 0.0022821081802248955, 0.004850483499467373, 0.015012182295322418, 0.010741258971393108, 0.13842181861400604, 0.19339300692081451, 0.09989754855632782, 0.17303217947483063, 0.004292504861950874, 0.0002415570052107796, 0.0013257170794531703, 0.09443975239992142, 0.0023635253310203552, 0.002594177844002843, 0.01036231778562069, 0.09504035860300064, 0.005763062741607428, 0.003089035162702203, 0.019762873649597168], [0.02218114398419857, 0.09433096647262573, 0.022905640304088593, 0.003289904911071062, 0.0015956112183630466, 0.00017858122009783983, 0.004906595218926668, 0.07923705130815506, 0.08265983313322067, 0.28702014684677124, 0.012060967274010181, 0.009462015703320503, 0.010790248401463032, 0.08022463321685791, 0.0133885582908988, 0.001379498397000134, 0.02017197571694851, 0.08202464133501053, 0.029485659673810005, 0.06913483887910843, 0.07357147336006165], [0.011992229148745537, 0.09391656517982483, 0.017144735902547836, 0.010243522003293037, 0.000782507355324924, 0.0006375377997756004, 0.00011275452561676502, 0.00203207996673882, 0.07588831335306168, 0.006732231937348843, 0.4681251645088196, 0.07485155761241913, 0.018862659111618996, 0.07610340416431427, 0.02404869720339775, 0.003699058899655938, 0.007643948774784803, 0.07642459869384766, 0.00826170202344656, 0.013026690110564232, 0.009470012970268726], [0.0006770523614250124, 0.11218137294054031, 0.04979382082819939, 0.01821085624396801, 0.0008389177965000272, 0.00016559207870159298, 6.877183477627113e-05, 0.00014472752809524536, 0.11015444993972778, 0.0006499324226751924, 0.003722085850313306, 0.3742859661579132, 0.05849594622850418, 0.11731016635894775, 0.005745723843574524, 0.0007187153096310794, 0.0023357581812888384, 0.11753646284341812, 0.014450727961957455, 0.011756428517401218, 0.0007565562264062464], [0.024276604875922203, 0.16886195540428162, 0.018633533269166946, 0.027844401076436043, 0.03128421679139137, 0.011435559950768948, 0.009164668619632721, 0.012467829510569572, 0.15540258586406708, 0.015045729465782642, 0.047974418848752975, 0.019971054047346115, 0.02627447247505188, 0.15384413301944733, 0.028672749176621437, 0.02313307859003544, 0.02304895780980587, 0.15318532288074493, 0.014678400941193104, 0.015209639444947243, 0.019590720534324646], [0.0019734902307391167, 0.11498720198869705, 0.00046361121349036694, 0.000667456304654479, 0.006248422432690859, 0.03595789894461632, 0.0009061222663149238, 0.0019192177569493651, 0.09520485252141953, 0.000574996811337769, 0.003451651195064187, 0.0021338139194995165, 0.42952030897140503, 0.10017365217208862, 0.082553431391716, 0.0024385356809943914, 0.013514833524823189, 0.09624096751213074, 0.0010651833144947886, 0.0033828956075012684, 0.006621402222663164], [9.299921657657251e-05, 0.0016416230937466025, 1.6804615370347165e-05, 3.821334757958539e-05, 1.636619163036812e-05, 0.0007606073631905019, 0.0013218509266152978, 3.9062138966983184e-05, 0.0017595549579709768, 5.304011938278563e-05, 1.1390813597245142e-05, 2.557639527367428e-05, 0.0005632336833514273, 0.001826860592700541, 0.949802815914154, 0.03651437908411026, 0.00033892897772602737, 0.0017953503411263227, 0.003252891357988119, 5.732909630751237e-05, 7.108729187166318e-05], [0.0001848922693170607, 0.0019912265706807375, 0.0001252242218470201, 2.9220802389318123e-05, 4.165314385318197e-05, 2.3058068109094165e-05, 0.0015772080514580011, 0.0005992192309349775, 0.002105277730152011, 0.00011595204705372453, 1.6064415831351653e-05, 0.0001223974977619946, 0.0006631231517530978, 0.002141052158549428, 0.018867826089262962, 0.9469762444496155, 0.017909660935401917, 0.002126877661794424, 0.0039059489499777555, 0.0003304916899651289, 0.00014745115186087787], [0.024140600115060806, 0.16930146515369415, 0.01883605122566223, 0.027990559116005898, 0.03053199127316475, 0.01150556094944477, 0.009148973040282726, 0.012622331269085407, 0.15569479763507843, 0.015039867721498013, 0.048429232090711594, 0.01995430886745453, 0.02500431053340435, 0.15408901870250702, 0.028485121205449104, 0.023207873106002808, 0.023164689540863037, 0.1534367948770523, 0.014742047525942326, 0.015249932184815407, 0.019424479454755783], [0.020041583105921745, 0.08724608272314072, 0.0033768394496291876, 0.0005713754217140377, 0.001401050016283989, 0.0004304351459722966, 0.0035418891347944736, 0.007309069857001305, 0.08115279674530029, 0.007876088842749596, 0.00490246806293726, 0.0035005544777959585, 0.0148700512945652, 0.08037823438644409, 0.11827538162469864, 0.09505727887153625, 0.20409785211086273, 0.08042905479669571, 0.10559968650341034, 0.04780995473265648, 0.032132212072610855], [0.004109768662601709, 0.0077871279790997505, 0.0009921076707541943, 0.0007387583609670401, 0.00016820331802591681, 3.3439115213695914e-05, 0.0009376484085805714, 0.00044793044799007475, 0.00722395209595561, 0.005940521601587534, 0.00048685516230762005, 0.0010363614419475198, 0.00442825723439455, 0.007280027028173208, 0.010986145585775375, 0.013642027974128723, 0.011319689452648163, 0.007290688343346119, 0.878835141658783, 0.02833990752696991, 0.007975433021783829], [0.058966703712940216, 0.061599671840667725, 0.057566992938518524, 0.03286764398217201, 0.008129027672111988, 0.0036172443069517612, 0.0010885989759117365, 0.008373983204364777, 0.057489171624183655, 0.036023080348968506, 0.007222981192171574, 0.028441447764635086, 0.03400903195142746, 0.058484602719545364, 0.03348122537136078, 0.002709414344280958, 0.016646791249513626, 0.0593012198805809, 0.1711026132106781, 0.20343440771102905, 0.05944409593939781]], [[0.02086701989173889, 0.010960854589939117, 0.05434684455394745, 0.08057951927185059, 0.024487966671586037, 0.020250145345926285, 0.06865536421537399, 0.0630907192826271, 0.010073527693748474, 0.1637171059846878, 0.018597625195980072, 0.0227276049554348, 0.00883244164288044, 0.0103527270257473, 0.06045423820614815, 0.023728204891085625, 0.07540372014045715, 0.010423539206385612, 0.10876739770174026, 0.04651635140180588, 0.09716702997684479], [0.021563025191426277, 0.15008042752742767, 0.03116213157773018, 0.030755572021007538, 0.022674763575196266, 0.01849612593650818, 0.021307850256562233, 0.020610127598047256, 0.14617952704429626, 0.021209044381976128, 0.034367818385362625, 0.02841571718454361, 0.022319460287690163, 0.14668257534503937, 0.021798880770802498, 0.012039498426020145, 0.022973207756876945, 0.14687924087047577, 0.02484080195426941, 0.019673626869916916, 0.03597066178917885], [0.003916213288903236, 0.04696384817361832, 0.047984328120946884, 0.1041807159781456, 0.28543969988822937, 0.010973941534757614, 0.016285669058561325, 0.06933669745922089, 0.042378004640340805, 0.06838768720626831, 0.061574533581733704, 0.047010958194732666, 0.046828802675008774, 0.04196545109152794, 0.00603070855140686, 0.0015810028417035937, 0.015689188614487648, 0.042568594217300415, 0.016731085255742073, 0.008493529632687569, 0.015679338946938515], [0.010137930512428284, 0.07720204442739487, 0.09007038921117783, 0.037350550293922424, 0.10904654860496521, 0.012752464972436428, 0.01576177030801773, 0.035999227315187454, 0.06677308678627014, 0.05558857321739197, 0.13384653627872467, 0.12318337708711624, 0.013197900727391243, 0.0665743499994278, 0.009445616975426674, 0.0018697694176808, 0.008628498762845993, 0.06702016294002533, 0.005716296844184399, 0.0061371042393147945, 0.05369781702756882], [0.0044923522509634495, 0.1937989890575409, 0.02808954007923603, 0.010456458665430546, 0.019827213138341904, 0.004764691926538944, 0.004123428370803595, 0.030507445335388184, 0.17412815988063812, 0.021405790001153946, 0.09002690762281418, 0.04336060956120491, 0.002077632350847125, 0.17224273085594177, 0.0032775751315057278, 0.00033208608510904014, 0.003785029286518693, 0.17501460015773773, 0.0028138163033872843, 0.0015267402632161975, 0.013948190957307816], [0.009439575485885143, 0.15953309834003448, 0.01674594171345234, 0.005758570972830057, 0.002853425219655037, 0.021276729181408882, 0.01835562475025654, 0.09904622286558151, 0.14016962051391602, 0.04210280254483223, 0.0436725951731205, 0.05500050261616707, 0.0019969583954662085, 0.14252135157585144, 0.010169441811740398, 0.0023644226603209972, 0.00739272590726614, 0.14417047798633575, 0.02183913066983223, 0.01638040319085121, 0.03921026363968849], [0.004835212137550116, 0.16665668785572052, 0.018775232136249542, 0.004427167121320963, 0.003627273952588439, 0.021272914484143257, 0.023582329973578453, 0.07294827699661255, 0.14250192046165466, 0.091901034116745, 0.040873266756534576, 0.059502437710762024, 0.0022199770901352167, 0.14545083045959473, 0.006002388894557953, 0.001165660098195076, 0.007463410496711731, 0.14686734974384308, 0.01799195446074009, 0.007457949686795473, 0.014476656913757324], [0.006177994422614574, 0.19087347388267517, 0.011644380167126656, 0.00642463518306613, 0.009411610662937164, 0.00864883791655302, 0.008647180162370205, 0.028362298384308815, 0.16894200444221497, 0.03144301474094391, 0.058199938386678696, 0.05330659821629524, 0.008832735940814018, 0.17121192812919617, 0.006871121935546398, 0.0015982667682692409, 0.007641077507287264, 0.17177125811576843, 0.015990737825632095, 0.006239209324121475, 0.027761662378907204], [0.023361699655652046, 0.1530487984418869, 0.02661397121846676, 0.026309896260499954, 0.018449816852808, 0.01739354617893696, 0.018629660829901695, 0.018318593502044678, 0.15014547109603882, 0.02011132426559925, 0.032496217638254166, 0.027229806408286095, 0.02252628095448017, 0.15094760060310364, 0.0231543630361557, 0.012895531952381134, 0.023800859227776527, 0.15112078189849854, 0.02581177093088627, 0.020953498780727386, 0.03668057546019554], [0.009267013520002365, 0.21087653934955597, 0.007676219567656517, 0.004366749431937933, 0.002334415214136243, 0.00573375727981329, 0.0044719805009663105, 0.01770341582596302, 0.18266698718070984, 0.03900177404284477, 0.044694364070892334, 0.029568728059530258, 0.003501459490507841, 0.186188742518425, 0.006976778153330088, 0.0016448904061689973, 0.011643631383776665, 0.18665337562561035, 0.018156031146645546, 0.006480644457042217, 0.02039244771003723], [0.012549989856779575, 0.06772078573703766, 0.023374661803245544, 0.01660887338221073, 0.014105310663580894, 0.003572909627109766, 0.0035363694187253714, 0.006092282943427563, 0.06295966356992722, 0.009300826117396355, 0.025060981512069702, 0.13338519632816315, 0.19429492950439453, 0.06583382934331894, 0.05806509777903557, 0.00899846013635397, 0.05923667550086975, 0.06515058875083923, 0.057399481534957886, 0.04354527220129967, 0.06920784711837769], [0.007481625769287348, 0.04876355826854706, 0.008883552625775337, 0.011726444587111473, 0.008402938023209572, 0.0013248976320028305, 0.000937380944378674, 0.0025714212097227573, 0.04819304496049881, 0.003363501513376832, 0.02953284978866577, 0.11076635122299194, 0.3267989456653595, 0.04985697194933891, 0.08538725227117538, 0.010955777019262314, 0.05162319168448448, 0.049617040902376175, 0.05855425447225571, 0.038030628114938736, 0.04722839966416359], [0.00874846987426281, 0.18906310200691223, 0.004621203988790512, 0.002100515877828002, 0.0009789535542950034, 0.00031227958970703185, 0.0003118882013950497, 0.001222329679876566, 0.18583424389362335, 0.0007141316891647875, 0.00758353853598237, 0.02047554962337017, 0.020208893343806267, 0.19430504739284515, 0.03881353884935379, 0.0031268566381186247, 0.029974540695548058, 0.19547560811042786, 0.04119391366839409, 0.020509056746959686, 0.03442626819014549], [0.02321574091911316, 0.15288425981998444, 0.02643418312072754, 0.026067905128002167, 0.018119189888238907, 0.017245730385184288, 0.01853739283978939, 0.0182875394821167, 0.15007996559143066, 0.019860906526446342, 0.03191114589571953, 0.027229154482483864, 0.022614611312747, 0.15090405941009521, 0.023457195609807968, 0.013131123967468739, 0.024114932864904404, 0.1510753333568573, 0.026421768590807915, 0.021556498482823372, 0.03685133159160614], [0.007899448275566101, 0.06834347546100616, 0.005716752726584673, 0.0016571530140936375, 0.000348388944985345, 0.0002986948820762336, 0.00039461959386244416, 0.0022899515461176634, 0.06082215905189514, 0.0019107997650280595, 0.005144231487065554, 0.02449702098965645, 0.005866833962500095, 0.06383812427520752, 0.03871070593595505, 0.010239222086966038, 0.047622423619031906, 0.06477617472410202, 0.3367976248264313, 0.17952220141887665, 0.07330396771430969], [0.01685493066906929, 0.0881095752120018, 0.005753915756940842, 0.0021912981756031513, 0.0013412254629656672, 0.0008194681722670794, 0.0005467045702971518, 0.002202029339969158, 0.08195243030786514, 0.002870837925001979, 0.00846817810088396, 0.02613203600049019, 0.010730721987783909, 0.08576157689094543, 0.031430020928382874, 0.005733261350542307, 0.03467399626970291, 0.08676958829164505, 0.25880154967308044, 0.17262785136699677, 0.0762288048863411], [0.01245312299579382, 0.07270252704620361, 0.006100074388086796, 0.004084730986505747, 0.002341481624171138, 0.0006393372314050794, 0.0005523036234080791, 0.002134188311174512, 0.06371668726205826, 0.002110420959070325, 0.013108720071613789, 0.03971969336271286, 0.03037274070084095, 0.06620322912931442, 0.042031724005937576, 0.009808394126594067, 0.029654143378138542, 0.06661955267190933, 0.2594921588897705, 0.16286589205265045, 0.11328888684511185], [0.02315191924571991, 0.15290892124176025, 0.02653173916041851, 0.026203647255897522, 0.018283866345882416, 0.01739034801721573, 0.018758360296487808, 0.018519602715969086, 0.15004323422908783, 0.020102575421333313, 0.03184081241488457, 0.02720036543905735, 0.022582266479730606, 0.15084196627140045, 0.023238690569996834, 0.0130366962403059, 0.023989954963326454, 0.15102246403694153, 0.026290075853466988, 0.021412184461951256, 0.036650337278842926], [0.033314138650894165, 0.15755578875541687, 0.008366713300347328, 0.004598221275955439, 0.002367645502090454, 0.0032811774872243404, 0.0009565678192302585, 0.007324961479753256, 0.13675180077552795, 0.004118422046303749, 0.018360253423452377, 0.021508095785975456, 0.007447909098118544, 0.1413336843252182, 0.02732846885919571, 0.005988535471260548, 0.02177349105477333, 0.14251616597175598, 0.09270597994327545, 0.03314914554357529, 0.12925289571285248], [0.0243600495159626, 0.16166867315769196, 0.012264366261661053, 0.006016820203512907, 0.0019965777173638344, 0.002579544670879841, 0.0006949546514078975, 0.003318092552945018, 0.14212021231651306, 0.0016373629914596677, 0.020146410912275314, 0.045785363763570786, 0.009316889569163322, 0.14769907295703888, 0.025121252983808517, 0.005816240329295397, 0.011524740606546402, 0.14887382090091705, 0.05746300518512726, 0.030849959701299667, 0.14074653387069702], [0.0198898334056139, 0.07399071753025055, 0.05146610736846924, 0.04432493448257446, 0.03271050751209259, 0.009583227336406708, 0.008871782571077347, 0.030927101150155067, 0.063242107629776, 0.012838320806622505, 0.08692046999931335, 0.10692192614078522, 0.022883424535393715, 0.06414352357387543, 0.014923215843737125, 0.005791832692921162, 0.018452011048793793, 0.06430715322494507, 0.02616855874657631, 0.0181499682366848, 0.22349324822425842]], [[0.03403608128428459, 0.11656052619218826, 0.009811928495764732, 0.0054860287345945835, 0.006812418345361948, 0.002628752263262868, 0.0025044565554708242, 0.015070033259689808, 0.11673323810100555, 0.013023696839809418, 0.017656736075878143, 0.014515924267470837, 0.01709766872227192, 0.1189156025648117, 0.0745203047990799, 0.03828364610671997, 0.07066410034894943, 0.11902868747711182, 0.1379137635231018, 0.03201312571763992, 0.03672323003411293], [0.05670849233865738, 0.13895255327224731, 0.018713340163230896, 0.027154333889484406, 0.01464938186109066, 0.0066171493381261826, 0.007690104190260172, 0.023623988032341003, 0.12836091220378876, 0.018888259306550026, 0.06114787608385086, 0.026608174666762352, 0.022777490317821503, 0.12848559021949768, 0.025967799127101898, 0.018184704706072807, 0.03078654408454895, 0.12819141149520874, 0.02994801104068756, 0.027496956288814545, 0.05904705822467804], [0.035246167331933975, 0.2553201913833618, 0.07003229111433029, 0.011949749663472176, 0.010327951051294804, 0.002246586140245199, 0.0013799503212794662, 0.003159730462357402, 0.18002375960350037, 0.0008548562764190137, 0.009513315744698048, 0.009537270292639732, 0.006486425641924143, 0.18638215959072113, 0.00404093274846673, 0.0027296205516904593, 0.007710703648626804, 0.1843988299369812, 0.0015171965351328254, 0.002402194309979677, 0.014740169048309326], [0.014213345013558865, 0.06626522541046143, 0.5975990295410156, 0.04765486717224121, 0.043631069362163544, 0.0011254330165684223, 0.00304930261336267, 0.007351070176810026, 0.04320049285888672, 0.0020618736743927, 0.006342544686049223, 0.03131552413105965, 0.004078235477209091, 0.04335404932498932, 0.0006811734638176858, 0.00027290653088130057, 0.0031923491042107344, 0.043274376541376114, 0.0012676164042204618, 0.001988018862903118, 0.03808153048157692], [0.0015801212284713984, 0.054975476115942, 0.7322283387184143, 0.05499521642923355, 0.015047811903059483, 0.000242534457356669, 0.0004785406345035881, 0.001534103648737073, 0.034238237887620926, 0.000459609815152362, 0.0016975360922515392, 0.02238869108259678, 0.00042505658348090947, 0.034520938992500305, 0.00018522328173276037, 4.1133906051982194e-05, 0.0005799737409688532, 0.034264251589775085, 0.0004623495333362371, 0.00039568881038576365, 0.009259221144020557], [0.03585021197795868, 0.24699918925762177, 0.07523969560861588, 0.020505037158727646, 0.008221954107284546, 0.006426566746085882, 0.008573179133236408, 0.007687895093113184, 0.1810496747493744, 0.004100261256098747, 0.006473683752119541, 0.005467891227453947, 0.0007800900493748486, 0.18615880608558655, 0.0005891916807740927, 0.00036204748903401196, 0.0012327441945672035, 0.1864302009344101, 0.001842350116930902, 0.0014358804328367114, 0.01457357406616211], [0.06559235602617264, 0.1511669009923935, 0.1579090803861618, 0.05221512168645859, 0.04752812162041664, 0.028762871399521828, 0.07684765011072159, 0.01824069581925869, 0.10903158038854599, 0.010741319507360458, 0.008005858398973942, 0.007791673298925161, 0.001925499178469181, 0.1120961606502533, 0.0031796377152204514, 0.001120468252338469, 0.0025795961264520884, 0.11248242855072021, 0.004619556944817305, 0.004491431172937155, 0.0236720722168684], [0.026180487126111984, 0.12302328646183014, 0.035742346197366714, 0.023025529459118843, 0.028919007629156113, 0.2937009632587433, 0.06006031483411789, 0.05911921337246895, 0.09280651807785034, 0.017817847430706024, 0.003320242278277874, 0.0010954835452139378, 0.000597701407968998, 0.09499660134315491, 0.0034549464471638203, 0.0022042503114789724, 0.00412845890969038, 0.09483861923217773, 0.0024954271502792835, 0.0024548035580664873, 0.03001783788204193], [0.055754173547029495, 0.135734423995018, 0.018018443137407303, 0.0279878880828619, 0.015639672055840492, 0.007038102950900793, 0.007231083698570728, 0.023951934650540352, 0.12702034413814545, 0.018399229273200035, 0.06523608416318893, 0.02847190760076046, 0.024771152064204216, 0.1270483285188675, 0.025177093222737312, 0.01882701739668846, 0.03073393739759922, 0.12671919167041779, 0.03147493675351143, 0.02760973945260048, 0.057155244052410126], [0.003594760550186038, 0.035508282482624054, 0.013767537660896778, 0.0507584810256958, 0.052584148943424225, 0.16016270220279694, 0.37728407979011536, 0.1619444489479065, 0.030395107343792915, 0.01782800815999508, 0.0037368510384112597, 0.0015200284542515874, 0.0026682699099183083, 0.030446574091911316, 0.004882923327386379, 0.002428079256787896, 0.006397637072950602, 0.03060082532465458, 0.0023847995325922966, 0.0011479107197374105, 0.009958535432815552], [0.014155550859868526, 0.06696216017007828, 0.07985839992761612, 0.13539591431617737, 0.18938562273979187, 0.017261000350117683, 0.02241470478475094, 0.14035090804100037, 0.057047195732593536, 0.011148413643240929, 0.00775179686024785, 0.020152732729911804, 0.012642250396311283, 0.05579270049929619, 0.009183427318930626, 0.006416028365492821, 0.0424843430519104, 0.05629192665219307, 0.0029920851811766624, 0.005120001267641783, 0.047192852944135666], [0.016130860894918442, 0.12634676694869995, 0.08818761259317398, 0.01052530761808157, 0.016151616349816322, 0.001862302771769464, 0.0016553769819438457, 0.010502662509679794, 0.10362059623003006, 0.004691135138273239, 0.03804471716284752, 0.22041310369968414, 0.06072596460580826, 0.10504167526960373, 0.01504004467278719, 0.007206188049167395, 0.0461345911026001, 0.10392402857542038, 0.002832334954291582, 0.004009771626442671, 0.01695338822901249], [0.00020041046082042158, 0.010607261210680008, 0.026333261281251907, 0.0028896783478558064, 0.0015220217173919082, 1.319040802627569e-05, 2.4360009774682112e-05, 0.0003099379828199744, 0.008191748522222042, 0.00026747974334284663, 0.02033662423491478, 0.8596209287643433, 0.042583487927913666, 0.008388897404074669, 0.001513359835371375, 0.0003503802581690252, 0.005284840706735849, 0.008164170198142529, 0.0005021397955715656, 0.0007199604297056794, 0.002175840549170971], [0.0559440553188324, 0.1350708156824112, 0.01762063428759575, 0.026808317750692368, 0.014673537574708462, 0.006713348440825939, 0.00700512295588851, 0.023301463574171066, 0.12649506330490112, 0.018253333866596222, 0.06714347749948502, 0.029443511739373207, 0.02542322687804699, 0.12656965851783752, 0.025704532861709595, 0.019228318706154823, 0.031064797192811966, 0.126222625374794, 0.0317813977599144, 0.028047209605574608, 0.057485587894916534], [0.0065054018050432205, 0.1498890370130539, 0.010048046708106995, 0.006048482842743397, 0.004735562019050121, 0.003034059191122651, 0.0021406025625765324, 0.00596750108525157, 0.12151338160037994, 0.0028950143605470657, 0.05011390149593353, 0.09572149068117142, 0.20066849887371063, 0.1256202906370163, 0.02901950664818287, 0.011104511097073555, 0.02910526841878891, 0.12368476390838623, 0.004134268965572119, 0.005243010353296995, 0.01280740462243557], [0.03594973683357239, 0.13521121442317963, 0.008483363315463066, 0.0029357685707509518, 0.002598715480417013, 0.005206746514886618, 0.0029224539175629616, 0.011243443936109543, 0.11326352506875992, 0.0029542914126068354, 0.02841387316584587, 0.05172793194651604, 0.07906156033277512, 0.11789599061012268, 0.10644937306642532, 0.05023103207349777, 0.09243600815534592, 0.11561870574951172, 0.00792002398520708, 0.010387513786554337, 0.019088713452219963], [0.02048238180577755, 0.10164310783147812, 0.011124778538942337, 0.00522209657356143, 0.007409454323351383, 0.007465684320777655, 0.00201965169981122, 0.007017171010375023, 0.08474168181419373, 0.0068316031247377396, 0.04510532319545746, 0.0658467561006546, 0.1507330685853958, 0.08717991411685944, 0.11292601376771927, 0.08074835687875748, 0.08770956099033356, 0.08533518016338348, 0.004400463774800301, 0.00625424413010478, 0.019803551957011223], [0.056136611849069595, 0.13470223546028137, 0.017582977190613747, 0.02702224813401699, 0.014839882962405682, 0.006806590594351292, 0.0070304847322404385, 0.023480046540498734, 0.12630541622638702, 0.018431805074214935, 0.06623318046331406, 0.028986450284719467, 0.025109190493822098, 0.1263805329799652, 0.025784913450479507, 0.0194994043558836, 0.03131772205233574, 0.12604708969593048, 0.03234344720840454, 0.02838289923965931, 0.05757685750722885], [0.0018215533345937729, 0.02529004029929638, 0.006707245483994484, 0.00223345635458827, 0.0025818420108407736, 0.0035305789206176996, 0.0048168436624109745, 0.0045746685937047005, 0.023158546537160873, 0.0032751394901424646, 0.007721131667494774, 0.042879194021224976, 0.2032364010810852, 0.023947834968566895, 0.2890832722187042, 0.13082942366600037, 0.16290441155433655, 0.023588353767991066, 0.016708994284272194, 0.012787288054823875, 0.00832369364798069], [0.0043762060813605785, 0.011437134817242622, 0.007550748530775309, 0.001779907033778727, 0.0023177233524620533, 0.0032917074859142303, 0.0018196799792349339, 0.00606082659214735, 0.009703860618174076, 0.0018146648071706295, 0.011554554104804993, 0.032340820878744125, 0.1307053416967392, 0.010018490254878998, 0.3028425872325897, 0.1864788681268692, 0.22553296387195587, 0.009867191314697266, 0.011137795634567738, 0.014221281744539738, 0.015147599391639233], [0.022897522896528244, 0.10909724235534668, 0.03253180906176567, 0.016313988715410233, 0.007530272472649813, 0.0016364444745704532, 0.0012088477378711104, 0.014224451966583729, 0.09125692397356033, 0.006715581752359867, 0.03066466748714447, 0.09896299242973328, 0.030593588948249817, 0.09322233498096466, 0.06533145904541016, 0.024274734780192375, 0.09823870658874512, 0.09233919531106949, 0.048067618161439896, 0.02849879302084446, 0.08639278262853622]], [[0.033725347369909286, 0.014095587655901909, 0.10156837850809097, 0.12772852182388306, 0.015521690249443054, 0.01620894856750965, 0.007886277511715889, 0.005567912477999926, 0.011058990843594074, 0.014122528955340385, 0.1872580200433731, 0.08923289179801941, 0.01767287775874138, 0.011268422938883305, 0.023590480908751488, 0.004386099986732006, 0.00628264993429184, 0.01128033921122551, 0.011350544169545174, 0.01845243200659752, 0.27174103260040283], [0.03713763505220413, 0.15291208028793335, 0.015776101499795914, 0.018914882093667984, 0.0071728345938026905, 0.010565487667918205, 0.03428680822253227, 0.03147262707352638, 0.1474260836839676, 0.035320695489645004, 0.01756088063120842, 0.01998216100037098, 0.00480686454102397, 0.14895744621753693, 0.017799297347664833, 0.00786726176738739, 0.02071395330131054, 0.14952217042446136, 0.032849933952093124, 0.022670209407806396, 0.06628469377756119], [0.002852856880053878, 0.14528387784957886, 0.06747720390558243, 0.15262018144130707, 0.14615419507026672, 0.03321089223027229, 0.0361025333404541, 0.011447785422205925, 0.11131601780653, 0.012801448814570904, 0.0037587289698421955, 0.00391663983464241, 0.015879210084676743, 0.113580621778965, 0.006561461370438337, 0.0020921609830111265, 0.00297390203922987, 0.1128314733505249, 0.005555965472012758, 0.006646379362791777, 0.006936468183994293], [0.001921651535667479, 0.06180831044912338, 0.14426358044147491, 0.10730074346065521, 0.3838531970977783, 0.03115530125796795, 0.017631063237786293, 0.024788353592157364, 0.051726147532463074, 0.006817883346229792, 0.018401088193058968, 0.012562011368572712, 0.013037854805588722, 0.050472091883420944, 0.01051398180425167, 0.0038234188687056303, 0.00481417728587985, 0.04991913586854935, 0.0008138770353980362, 0.000811014964710921, 0.003565140999853611], [0.0012227734550833702, 0.12366436421871185, 0.020695457234978676, 0.04027557000517845, 0.05506594106554985, 0.10464378446340561, 0.19204501807689667, 0.06062614917755127, 0.10194984078407288, 0.05997104570269585, 0.003514905460178852, 0.001223716069944203, 0.001406974857673049, 0.09982042014598846, 0.018297424539923668, 0.0030806362628936768, 0.00525941327214241, 0.09856708347797394, 0.0016069398261606693, 0.002648573601618409, 0.004413938149809837], [0.0032496813219040632, 0.08419779688119888, 0.014488888904452324, 0.019687263295054436, 0.02279437892138958, 0.042653750628232956, 0.1412564516067505, 0.13275206089019775, 0.07529299706220627, 0.1865829974412918, 0.011017565615475178, 0.0015395467635244131, 0.003447443014010787, 0.07336177676916122, 0.010499806143343449, 0.013653652742505074, 0.06219267100095749, 0.07285448908805847, 0.014559492468833923, 0.006070469040423632, 0.007846813648939133], [0.0016076423926278949, 0.17093464732170105, 0.027584724128246307, 0.021281322464346886, 0.013173455372452736, 0.00535640399903059, 0.007684055715799332, 0.04609476402401924, 0.1449834257364273, 0.19893895089626312, 0.02635306492447853, 0.01004808209836483, 0.002634071744978428, 0.14497533440589905, 0.0046101040206849575, 0.0014172715600579977, 0.011678377166390419, 0.14545997977256775, 0.007309265434741974, 0.004602973815053701, 0.0032721112947911024], [0.0024405247531831264, 0.17956584692001343, 0.026404956355690956, 0.03048822097480297, 0.01914043165743351, 0.002283276291564107, 0.008128923363983631, 0.008638698607683182, 0.15267401933670044, 0.12177237868309021, 0.042015668004751205, 0.024880731478333473, 0.011713764630258083, 0.15488891303539276, 0.00521173095330596, 0.0008483027922920883, 0.009004591032862663, 0.1554477959871292, 0.018040601164102554, 0.013794470578432083, 0.012616166844964027], [0.043337542563676834, 0.1538095772266388, 0.013375316746532917, 0.015218311920762062, 0.0060049849562346935, 0.009580877609550953, 0.027921859174966812, 0.02579047717154026, 0.15108948945999146, 0.033239372074604034, 0.01755293644964695, 0.02034715563058853, 0.005009520798921585, 0.15271620452404022, 0.018770987167954445, 0.008552953600883484, 0.020453298464417458, 0.1533135622739792, 0.035393521189689636, 0.023791631683707237, 0.06473046541213989], [0.0010466556996107101, 0.24461227655410767, 0.005186339840292931, 0.014475627802312374, 0.00328426924534142, 0.0010256282985210419, 0.0021427178289741278, 0.007530780974775553, 0.20670589804649353, 0.035168830305337906, 0.007701925002038479, 0.020663773640990257, 0.004292395431548357, 0.21264274418354034, 0.0015196151798591018, 0.000790684309322387, 0.003044652519747615, 0.2113085240125656, 0.004008564166724682, 0.004403010476380587, 0.008444991894066334], [0.006841684225946665, 0.13856390118598938, 0.0171224232763052, 0.02404998242855072, 0.010660285130143166, 0.003147265873849392, 0.001583764678798616, 0.005740026477724314, 0.1278679519891739, 0.011863182298839092, 0.031091315671801567, 0.14473441243171692, 0.12633651494979858, 0.1320224553346634, 0.018847446888685226, 0.003861816134303808, 0.022201014682650566, 0.12985779345035553, 0.01059850212186575, 0.014194642193615437, 0.018813610076904297], [0.007407124154269695, 0.12224728614091873, 0.014643496833741665, 0.009943144395947456, 0.005971228238195181, 0.010819253511726856, 0.0061060297302901745, 0.0016817045398056507, 0.10325618833303452, 0.0035620671696960926, 0.006269749719649553, 0.0145814698189497, 0.268357515335083, 0.10753714293241501, 0.09061264991760254, 0.031925447285175323, 0.025290969759225845, 0.10541766881942749, 0.022271431982517242, 0.03165746107697487, 0.010441000573337078], [0.000690257758833468, 0.040624599903821945, 0.005277272313833237, 0.0021381292026489973, 0.0011127267498522997, 0.0039332048036158085, 0.0038409580010920763, 0.0015183548675850034, 0.03540409356355667, 0.002713317284360528, 0.0007775729754939675, 0.013657637871801853, 0.05505051836371422, 0.037481050938367844, 0.4176398515701294, 0.12081295251846313, 0.09617999196052551, 0.036182764917612076, 0.031959664076566696, 0.08865786343812943, 0.0043471637181937695], [0.04392172768712044, 0.15310923755168915, 0.01346190832555294, 0.015077912248671055, 0.006002146750688553, 0.009769746102392673, 0.02790360152721405, 0.025350915268063545, 0.15054097771644592, 0.0320671908557415, 0.01701653003692627, 0.020376043394207954, 0.005163074936717749, 0.15222808718681335, 0.019737303256988525, 0.00899859145283699, 0.020832309499382973, 0.1528134047985077, 0.036246392875909805, 0.024328479543328285, 0.06505443155765533], [0.0016867429949343204, 0.09461754560470581, 0.004619005136191845, 0.001074093277566135, 0.0006557083688676357, 0.001661887508817017, 0.0008714625146239996, 0.015455066226422787, 0.083736851811409, 0.005777027457952499, 0.002242039190605283, 0.004415540490299463, 0.0032453821040689945, 0.08667381852865219, 0.038198623806238174, 0.0747457966208458, 0.29133203625679016, 0.08602700382471085, 0.1435547024011612, 0.05181659013032913, 0.007592976558953524], [0.004164748825132847, 0.1874028444290161, 0.004281148314476013, 0.0016076667234301567, 0.0011668604565784335, 0.000655079900752753, 0.00013924988161306828, 0.0013647478772327304, 0.16265995800495148, 0.003922592382878065, 0.0027134136762470007, 0.006799432914704084, 0.004412257112562656, 0.16996513307094574, 0.012757627293467522, 0.00813068263232708, 0.027990393340587616, 0.16927304863929749, 0.14670178294181824, 0.07535765320062637, 0.008533651940524578], [0.0043013570830225945, 0.17112024128437042, 0.015061589889228344, 0.004773883149027824, 0.004964980762451887, 0.0003276318602729589, 0.0002378162753302604, 0.0008396198390983045, 0.1431175023317337, 0.003193984506651759, 0.005579639226198196, 0.032646313309669495, 0.02479366771876812, 0.14990945160388947, 0.009782922454178333, 0.0040522306226193905, 0.02071005292236805, 0.15041950345039368, 0.13474620878696442, 0.10686519742012024, 0.012556202709674835], [0.04405682906508446, 0.15339162945747375, 0.01353924535214901, 0.015189077705144882, 0.006087391171604395, 0.009786160662770271, 0.027851426973938942, 0.025085462257266045, 0.15089474618434906, 0.03226274996995926, 0.017037631943821907, 0.020375050604343414, 0.005141088273376226, 0.1525806486606598, 0.019417429342865944, 0.008806759491562843, 0.020391514524817467, 0.15318192541599274, 0.03609530255198479, 0.02402307651937008, 0.06480492651462555], [0.018465625122189522, 0.2055690437555313, 0.02060670033097267, 0.017643984407186508, 0.006742265075445175, 0.004999059252440929, 0.0025352644734084606, 0.004732528701424599, 0.17163610458374023, 0.007776948623359203, 0.008452342823147774, 0.0257805734872818, 0.02271244488656521, 0.1771368682384491, 0.017541250213980675, 0.010527146980166435, 0.009224927984178066, 0.17685936391353607, 0.03129039704799652, 0.019529560580849648, 0.040237706154584885], [0.006264982279390097, 0.19047769904136658, 0.022823849692940712, 0.017213091254234314, 0.0056374031119048595, 0.003900222945958376, 0.005420898552983999, 0.0029568925965577364, 0.16107869148254395, 0.005014736205339432, 0.0054791998118162155, 0.044986434280872345, 0.02301260642707348, 0.1692153662443161, 0.04942597076296806, 0.021504180505871773, 0.01212750282138586, 0.16898897290229797, 0.03401623293757439, 0.027932049706578255, 0.022523058578372], [0.004690316505730152, 0.11941449344158173, 0.11133566498756409, 0.13787858188152313, 0.020646974444389343, 0.005026209633797407, 0.00610940670594573, 0.012614416889846325, 0.08965698629617691, 0.008478019386529922, 0.06334670633077621, 0.09743127971887589, 0.015398628078401089, 0.09094621241092682, 0.017464593052864075, 0.006200640928000212, 0.010868515819311142, 0.09028623253107071, 0.009731144644320011, 0.01759668067097664, 0.06487822532653809]], [[0.024235285818576813, 0.09621017426252365, 0.01707453653216362, 0.019645091146230698, 0.017584867775440216, 0.0022364333271980286, 0.0036450426559895277, 0.0011787962866947055, 0.09407821297645569, 0.022090252488851547, 0.19341598451137543, 0.03203977644443512, 0.013611022382974625, 0.09349282085895538, 0.01238187775015831, 0.0013118005590513349, 0.0062358262948691845, 0.09305715560913086, 0.17164087295532227, 0.05390709638595581, 0.030927056446671486], [0.032049622386693954, 0.16325503587722778, 0.0189068466424942, 0.01762283593416214, 0.005759617779403925, 0.010907228104770184, 0.013155425898730755, 0.007191778160631657, 0.16726401448249817, 0.027080267667770386, 0.007769098039716482, 0.015773475170135498, 0.0038401333149522543, 0.17072394490242004, 0.016245616599917412, 0.005545109044760466, 0.016458524391055107, 0.17069555819034576, 0.07772335410118103, 0.023518433794379234, 0.02851404994726181], [0.0027188039384782314, 0.24695947766304016, 0.010463193990290165, 0.0937405601143837, 0.008248678408563137, 0.00036870635813102126, 0.0011286471271887422, 0.0007148077129386365, 0.1981154978275299, 0.0024553071707487106, 0.0012723110849037766, 0.009172555059194565, 0.002634557196870446, 0.20303496718406677, 0.00024657079484313726, 5.806324043078348e-05, 0.0007810860406607389, 0.2003161907196045, 0.0026247603818774223, 0.0011596125550568104, 0.013785621151328087], [0.0004394665011204779, 0.16163398325443268, 0.010116963647305965, 0.06574127823114395, 0.2682829797267914, 0.006354866083711386, 0.00870298407971859, 0.008581005036830902, 0.14906322956085205, 0.003530024318024516, 0.0006798721151426435, 0.004889781586825848, 0.00494500994682312, 0.15050779283046722, 0.00030007935129106045, 0.00038815030711703, 0.0004096438642591238, 0.15156283974647522, 0.00034165632678195834, 0.00028613052563741803, 0.0032422561198472977], [0.00025728350738063455, 0.0581369549036026, 0.003067019395530224, 0.004810595419257879, 0.08287101238965988, 0.49235913157463074, 0.16283157467842102, 0.01973998174071312, 0.054321568459272385, 0.0043717361986637115, 6.0619564465014264e-05, 0.00013768838834948838, 0.00031489937100559473, 0.055332500487565994, 0.0019045027438551188, 0.00046677031787112355, 0.002272594254463911, 0.05496123805642128, 0.00042041053529828787, 0.0003473401884548366, 0.001014562789350748], [0.001161450520157814, 0.17634201049804688, 0.0007308408967219293, 0.0028338751289993525, 0.00039839703822508454, 0.01110757328569889, 0.16817782819271088, 0.06896275281906128, 0.1738472431898117, 0.019296804443001747, 5.1649640226969495e-05, 2.31994654313894e-05, 2.7014217266696505e-05, 0.17613670229911804, 0.0027656860183924437, 0.0006401452701538801, 0.010205870494246483, 0.178825244307518, 0.005227269139140844, 0.0006708498112857342, 0.0025675122160464525], [0.0021481309086084366, 0.20364676415920258, 0.002779726404696703, 0.004902114626020193, 0.0014237994328141212, 0.0002535143867135048, 0.004958458710461855, 0.02704571932554245, 0.18857522308826447, 0.17703087627887726, 0.0010348729556426406, 0.0006589728291146457, 0.0002511547354515642, 0.18463416397571564, 0.0010358128929510713, 0.0001633745850995183, 0.002642956795170903, 0.18665868043899536, 0.0029902977403253317, 0.0013505038805305958, 0.005814827047288418], [0.003384739626199007, 0.13584870100021362, 0.02264346182346344, 0.004069005139172077, 0.0019807431381195784, 5.5469419748988e-05, 0.014064814895391464, 0.031931523233652115, 0.11861073225736618, 0.324266642332077, 0.004819195717573166, 0.03334634751081467, 0.0006812234641984105, 0.11628495156764984, 0.003763652639463544, 0.0004597355436999351, 0.019111618399620056, 0.11588090658187866, 0.009724599309265614, 0.011545984074473381, 0.02752603217959404], [0.03470166400074959, 0.16405414044857025, 0.01404536608606577, 0.014695312827825546, 0.0059356726706027985, 0.010830659419298172, 0.01184137910604477, 0.007416626904159784, 0.1711484044790268, 0.024733012542128563, 0.00812222808599472, 0.01397356390953064, 0.004471936263144016, 0.17467771470546722, 0.01592472568154335, 0.006040920037776232, 0.016413666307926178, 0.17463377118110657, 0.07382037490606308, 0.024300064891576767, 0.02821887470781803], [0.003731571836397052, 0.16521389782428741, 0.010159490630030632, 0.013617569580674171, 0.0020963784772902727, 1.783140396582894e-05, 0.0003317292721476406, 0.0025882364716380835, 0.15108126401901245, 0.03464926406741142, 0.01986236311495304, 0.21723979711532593, 0.002913807751610875, 0.15441541373729706, 0.0004330835654400289, 0.0002936047676485032, 0.0032368216197937727, 0.15382088720798492, 0.024085883051156998, 0.012209692038595676, 0.02800137922167778], [0.005845960695296526, 0.04406684264540672, 0.07190145552158356, 0.01737552508711815, 0.0005719870678149164, 0.008402162231504917, 0.0011577055556699634, 0.00041978328954428434, 0.042934395372867584, 0.006491233129054308, 0.006892746314406395, 0.6653850078582764, 0.0023100704420357943, 0.04468591511249542, 0.013644925318658352, 0.001751162577420473, 0.0023876086343079805, 0.044079240411520004, 0.006555784959346056, 0.0017536184750497341, 0.011386930011212826], [0.0014300235779955983, 0.24406468868255615, 0.0017877400387078524, 0.008047753944993019, 0.0011194382095709443, 0.0009176897583529353, 0.0004068640701007098, 0.00015640178753528744, 0.2126496434211731, 0.000559976149816066, 0.0013410703977569938, 0.020456714555621147, 0.05038140341639519, 0.22555993497371674, 0.0020285588689148426, 0.0003518466546665877, 0.0018680092180147767, 0.21875669062137604, 0.0015120323514565825, 0.001057781744748354, 0.005545703694224358], [0.0008112270152196288, 0.04287759214639664, 0.008306987583637238, 0.001911585801281035, 0.001557495561428368, 0.018673375248908997, 0.0073577347211539745, 0.0006184030207805336, 0.03943026438355446, 0.0012755462666973472, 0.0001710769283818081, 0.017086675390601158, 0.028508460149168968, 0.043529532849788666, 0.5165837407112122, 0.060173917561769485, 0.10883478075265884, 0.04195205494761467, 0.02542036399245262, 0.03152541071176529, 0.0033937208354473114], [0.03481149300932884, 0.16434110701084137, 0.013412135653197765, 0.014552527107298374, 0.005809285677969456, 0.010847717523574829, 0.011568225920200348, 0.007300535682588816, 0.1716691553592682, 0.02306060679256916, 0.00800261553376913, 0.01365204993635416, 0.004627978429198265, 0.17538943886756897, 0.016181394457817078, 0.006289834156632423, 0.016856122761964798, 0.17532676458358765, 0.07383116334676743, 0.024791184812784195, 0.02767868898808956], [0.0010167105356231332, 0.04214043915271759, 0.0007819905877113342, 0.0004796737339347601, 3.9953982195584103e-05, 0.00013725311146117747, 0.001822778256610036, 0.014218756929039955, 0.036159250885248184, 0.0016276640817523003, 0.00045957855763845146, 0.001989965094253421, 0.0009153392747975886, 0.037762612104415894, 0.04981124773621559, 0.09999790787696838, 0.42313987016677856, 0.037244535982608795, 0.20053163170814514, 0.038082413375377655, 0.011640430428087711], [0.00332817854359746, 0.13443031907081604, 0.0025002926122397184, 0.0007028630352579057, 0.00017471666797064245, 9.244428656529635e-05, 0.0007058656774461269, 0.007603393401950598, 0.11635133624076843, 0.0020537993405014277, 0.000695006747264415, 0.0035544459242373705, 0.0024100439622998238, 0.11979033052921295, 0.010030144825577736, 0.021161124110221863, 0.2392757087945938, 0.11826787889003754, 0.12010101228952408, 0.08108486235141754, 0.015686234459280968], [0.007787598762661219, 0.09665801376104355, 0.004451586864888668, 0.0018779966048896313, 0.00019959242490585893, 1.5434254237334244e-05, 0.00015517922292929143, 0.0009656473994255066, 0.08249052613973618, 0.003250090405344963, 0.0037178806960582733, 0.06589921563863754, 0.0031428262591362, 0.08484648168087006, 0.008975265547633171, 0.0050508733838796616, 0.08165378868579865, 0.0834796205163002, 0.20237934589385986, 0.2169884592294693, 0.04601456597447395], [0.03499831259250641, 0.16418877243995667, 0.013539278879761696, 0.014731268398463726, 0.0059788767248392105, 0.01076954510062933, 0.011557633057236671, 0.007369577884674072, 0.1715598851442337, 0.023329056799411774, 0.008089836686849594, 0.013697546906769276, 0.004653253126889467, 0.17521154880523682, 0.015848461538553238, 0.006221591494977474, 0.016622671857476234, 0.17518237233161926, 0.07387136667966843, 0.024701906368136406, 0.02787730284035206], [0.0028117888141423464, 0.18743176758289337, 0.0018960796296596527, 0.015051795169711113, 0.0008423327817581594, 5.9618767409119755e-05, 0.00012419895210769027, 0.0008702129125595093, 0.17231853306293488, 0.0026274584233760834, 0.0025924083311110735, 0.015463593415915966, 0.003190575400367379, 0.18263518810272217, 0.0006984702777117491, 0.0017071617767214775, 0.008225709199905396, 0.183180034160614, 0.06671018898487091, 0.12271247804164886, 0.028850354254245758], [0.015579499304294586, 0.15622445940971375, 0.0063131339848041534, 0.01387522928416729, 0.0006966463406570256, 3.507883593556471e-05, 0.00034092256100848317, 0.0009536653524264693, 0.14392781257629395, 0.005588204599916935, 0.008195928297936916, 0.07146918028593063, 0.0032322860788553953, 0.15225616097450256, 0.0028258354868739843, 0.0024276559706777334, 0.013696668669581413, 0.1522338092327118, 0.09815327078104019, 0.0904025211930275, 0.061572033911943436], [0.009835795499384403, 0.1282067596912384, 0.07797163724899292, 0.02453453093767166, 0.0016770513029769063, 0.0005572741501964629, 0.00837857834994793, 0.01300927996635437, 0.11006322503089905, 0.03961315378546715, 0.028502682223916054, 0.16416417062282562, 0.0020646583288908005, 0.11142446100711823, 0.009040877223014832, 0.006191703025251627, 0.029874030500650406, 0.11133388429880142, 0.03653568774461746, 0.04453207552433014, 0.042488519102334976]], [[0.03735285624861717, 0.12312015891075134, 0.011109964922070503, 0.02375629171729088, 0.007994474843144417, 0.024578262120485306, 0.0068236226215958595, 0.004606120754033327, 0.09856238961219788, 0.005237538367509842, 0.017405517399311066, 0.004524534568190575, 0.0045144096948206425, 0.1009088009595871, 0.03353327885270119, 0.023459995165467262, 0.00470051309093833, 0.10082735121250153, 0.019335666671395302, 0.0276816226541996, 0.31996670365333557], [0.025091463699936867, 0.12409211695194244, 0.03738614544272423, 0.02411646768450737, 0.019210508093237877, 0.018921617418527603, 0.015393217094242573, 0.007650603540241718, 0.12073647975921631, 0.08583898097276688, 0.026291923597455025, 0.026207251474261284, 0.013891813345253468, 0.12094523012638092, 0.04118392989039421, 0.00876299012452364, 0.018505308777093887, 0.12110929936170578, 0.07482921332120895, 0.04120052605867386, 0.02863483503460884], [0.003949520643800497, 0.10566985607147217, 0.04204489290714264, 0.37796783447265625, 0.11348558217287064, 0.0002203841577284038, 0.004215779714286327, 0.0006247231503948569, 0.08783461153507233, 0.001677397987805307, 0.007003293372690678, 0.01670091412961483, 0.024132702499628067, 0.09061130881309509, 0.00044849805999547243, 0.0009136220323853195, 0.0010943408124148846, 0.09105526655912399, 0.005820553284138441, 0.005497736856341362, 0.019031256437301636], [0.0006116192089393735, 0.01830410584807396, 0.014321408234536648, 0.048803478479385376, 0.8066524863243103, 0.013179062865674496, 0.019648553803563118, 0.004823618568480015, 0.01707414910197258, 0.0006513009429909289, 0.0008329368429258466, 0.008235413581132889, 0.007342839613556862, 0.017238080501556396, 0.000582605367526412, 0.0009093054104596376, 0.0002852167817763984, 0.017267953604459763, 0.00017009330622386187, 0.000444448203779757, 0.0026213296223431826], [0.0009608659311197698, 0.08941969275474548, 0.004902774468064308, 0.01979926787316799, 0.05217752233147621, 0.3095720410346985, 0.2180021107196808, 0.030679170042276382, 0.08481531590223312, 0.012300919741392136, 0.0005166135961189866, 0.0005168215720914304, 0.00021438385010696948, 0.08393574506044388, 0.005253717768937349, 0.000693323730956763, 0.001338889473117888, 0.08310619741678238, 0.00031649816082790494, 0.00028397049754858017, 0.0011942163109779358], [1.445629277441185e-05, 0.0005364968092180789, 0.0011663157492876053, 0.0008061612024903297, 7.012230344116688e-05, 0.007040437776595354, 0.9591094255447388, 0.022231152281165123, 0.000587791611906141, 0.004123579245060682, 5.387562850955874e-06, 7.638690294697881e-05, 5.800719463877613e-06, 0.0005780739593319595, 0.0014444318367168307, 0.000969714717939496, 0.0006069812807254493, 0.0005758597981184721, 1.3502609363058582e-05, 7.240803370223148e-06, 3.063071926590055e-05], [0.0005732561694458127, 0.02250097505748272, 0.0035754546988755465, 0.0028746165335178375, 0.002956530312076211, 0.000896799610927701, 0.01965104416012764, 0.8435555100440979, 0.02014963887631893, 0.022729605436325073, 0.002519000321626663, 0.00039477532845921814, 0.00013733829837292433, 0.019344652071595192, 0.0001239649427589029, 0.0020106753800064325, 0.012130198068916798, 0.01947006955742836, 0.00022026045189704746, 0.0003599050978664309, 0.0038256533443927765], [0.010245718993246555, 0.2124810516834259, 0.004849233664572239, 0.009244797751307487, 0.005710760597139597, 0.00037745002191513777, 0.004369829315692186, 0.03135587275028229, 0.18614496290683746, 0.10985007137060165, 0.030195845291018486, 0.002266585361212492, 0.0009613733272999525, 0.17727968096733093, 0.0009854676900431514, 0.0001290017389692366, 0.008341427892446518, 0.17835082113742828, 0.007419220637530088, 0.003315767040476203, 0.016125164926052094], [0.02876964770257473, 0.12431958317756653, 0.02871963568031788, 0.01980704814195633, 0.020053016021847725, 0.01985054276883602, 0.014873494394123554, 0.0083386842161417, 0.12283623218536377, 0.0690932422876358, 0.026924097910523415, 0.026212120428681374, 0.017227498814463615, 0.12332475930452347, 0.04444092884659767, 0.011090613901615143, 0.02082769386470318, 0.12343034148216248, 0.07284869253635406, 0.042332686483860016, 0.034679513424634933], [0.005719094071537256, 0.15987321734428406, 0.007557333912700415, 0.01335442066192627, 0.003563178703188896, 0.00011237564467592165, 0.0014776861062273383, 0.03783903270959854, 0.1304594725370407, 0.025385038927197456, 0.24303334951400757, 0.021879326552152634, 0.0030580826569348574, 0.12803837656974792, 0.00025279191322624683, 0.0009542993502691388, 0.013673188164830208, 0.12998194992542267, 0.010243618860840797, 0.015181213617324829, 0.04836297780275345], [0.00030555581906810403, 0.0020457673817873, 0.0633481964468956, 0.0008391449810005724, 0.00010268225014442578, 0.0005651931278407574, 0.0022385960910469294, 0.0015017482219263911, 0.0019058049656450748, 0.014049738645553589, 0.0033068645279854536, 0.8881088495254517, 0.0010299565037712455, 0.0019132466986775398, 0.0010670358315110207, 0.00016512842557858676, 0.009967351332306862, 0.0019049789989367127, 0.0033322935923933983, 0.0017529199831187725, 0.0005490885814651847], [0.0015962106408551335, 0.039792146533727646, 0.0026862341910600662, 0.0050501711666584015, 0.005904856137931347, 0.00018163952336180955, 0.00030503954621963203, 6.72769092489034e-05, 0.03635682165622711, 7.143963739508763e-05, 0.0017523454735055566, 0.09920403361320496, 0.6994558572769165, 0.039751604199409485, 0.004974113777279854, 0.0031516063027083874, 0.0012863206211477518, 0.038838744163513184, 0.004416948184370995, 0.005504482425749302, 0.009652214124798775], [0.004328860901296139, 0.10084604471921921, 0.00067040731664747, 0.0011511867633089423, 0.0011258963495492935, 0.013499255292117596, 0.0032119364477694035, 0.0005655919667333364, 0.09132154285907745, 0.0012262029340490699, 0.0004964630352333188, 0.004127341788262129, 0.049832526594400406, 0.09881407767534256, 0.45153799653053284, 0.04117180407047272, 0.01485396083444357, 0.09462832659482956, 0.011088336817920208, 0.007990561425685883, 0.007511611562222242], [0.02937808260321617, 0.12570631504058838, 0.026832494884729385, 0.01962362416088581, 0.020096372812986374, 0.020349489524960518, 0.014580164104700089, 0.007907824590802193, 0.1243327334523201, 0.06305108964443207, 0.02573997713625431, 0.025468014180660248, 0.018028246238827705, 0.12498822063207626, 0.0464814268052578, 0.011693166568875313, 0.020221348851919174, 0.12505249679088593, 0.07260022312402725, 0.04246542602777481, 0.03540331870317459], [1.6184785636141896e-05, 0.00010146080603590235, 4.508225174504332e-05, 5.658963800669881e-06, 1.0011930498876609e-05, 4.460902346181683e-05, 0.0005836107884533703, 0.0013024861691519618, 9.024032624438405e-05, 1.4631249541707803e-05, 2.51610381383216e-05, 3.830443893093616e-05, 0.00010057036706712097, 9.14481861400418e-05, 0.0017669808585196733, 0.9673179984092712, 0.026853034272789955, 8.949539187597111e-05, 0.00019936345051974058, 0.0011853030882775784, 0.00011834161705337465], [0.0018079387955367565, 0.011223949491977692, 0.0015813050558790565, 0.00010188157466473058, 0.00012679959763772786, 5.804234751849435e-05, 0.0003754750650841743, 0.004374281503260136, 0.009921563789248466, 0.00107395660597831, 0.0006512882537208498, 0.00159068638458848, 0.0008444358827546239, 0.010047543793916702, 0.0028647349681705236, 0.022422971203923225, 0.8622311353683472, 0.009969586506485939, 0.039199359714984894, 0.017392631620168686, 0.002140454715117812], [0.014528791420161724, 0.12223527580499649, 0.000894293945748359, 0.0008769750129431486, 0.0005902590928599238, 1.9244174836785533e-05, 2.2590591470361687e-05, 0.0009262989624403417, 0.10070940852165222, 0.0027760176453739405, 0.010482617653906345, 0.00573978666216135, 0.013450208120048046, 0.10130412876605988, 0.0033140515442937613, 0.0010618484811857343, 0.05772075057029724, 0.1005018800497055, 0.29544469714164734, 0.14625203609466553, 0.021148892119526863], [0.02963266335427761, 0.12570621073246002, 0.027068527415394783, 0.019900567829608917, 0.020678436383605003, 0.02031039446592331, 0.01454464066773653, 0.008021366782486439, 0.124177485704422, 0.06302858144044876, 0.026112403720617294, 0.0253597404807806, 0.018168216571211815, 0.12480754405260086, 0.04525822401046753, 0.01168265100568533, 0.02001039683818817, 0.12488393485546112, 0.07209675014019012, 0.04250095784664154, 0.036050327122211456], [0.015173478983342648, 0.04218118637800217, 0.012659509666264057, 0.006254829932004213, 0.0024772139731794596, 0.00023258743749465793, 0.00025562584050931036, 0.006078051403164864, 0.03116711974143982, 0.00280880369246006, 0.022909948602318764, 0.028418943285942078, 0.018890174105763435, 0.03211718797683716, 0.002885279478505254, 0.028300952166318893, 0.08025943487882614, 0.03220506012439728, 0.08045221120119095, 0.43750306963920593, 0.1167692169547081], [0.045373015105724335, 0.10139045119285583, 0.0033726529218256474, 0.007948651909828186, 0.0017946760635823011, 0.00011518625979078934, 0.00013593773473985493, 0.0033194180577993393, 0.08526540547609329, 0.0026769477408379316, 0.019092444330453873, 0.019441377371549606, 0.009668929502367973, 0.08789721876382828, 0.004541970323771238, 0.0034316061064600945, 0.02712388150393963, 0.08814646303653717, 0.09243541955947876, 0.19481509923934937, 0.2020132690668106], [0.010138440877199173, 0.2148292511701584, 0.03185790777206421, 0.053846538066864014, 0.008434263058006763, 0.008188789710402489, 0.002971113659441471, 0.002564487513154745, 0.161343052983284, 0.022238118574023247, 0.04368885979056358, 0.01258384995162487, 0.004964033607393503, 0.16287893056869507, 0.010189886204898357, 0.001103886286728084, 0.0032620395068079233, 0.1625913381576538, 0.02695128321647644, 0.030031627044081688, 0.025342371314764023]], [[0.07997367531061172, 0.0033942521549761295, 0.03325599804520607, 0.013485538773238659, 0.0028565956745296717, 0.0033654074650257826, 0.0038761284667998552, 0.002176503883674741, 0.0031527504324913025, 0.02370903082191944, 0.003498141886666417, 0.03734230250120163, 0.01703460142016411, 0.0032742000184953213, 0.3549162447452545, 0.033905938267707825, 0.021823661401867867, 0.0032401480711996555, 0.14996688067913055, 0.13094621896743774, 0.07480576634407043], [6.691539601888508e-05, 0.2532520294189453, 0.00037142421933822334, 0.0016117701306939125, 6.966751971049234e-05, 2.8770265998900868e-05, 0.0002461339463479817, 4.2858046072069556e-05, 0.2474087029695511, 0.0005376621265895665, 0.00013345449406187981, 0.0003573050780687481, 6.388942711055279e-05, 0.24724547564983368, 0.0005786808324046433, 2.1103325707372278e-05, 0.0001548037980683148, 0.24686883389949799, 0.0006526769720949233, 6.348267925204709e-05, 0.00022446300135925412], [0.002775452332571149, 0.09807325154542923, 0.12221285700798035, 0.035022784024477005, 0.016037974506616592, 0.002481909701600671, 0.005745915230363607, 0.0014025545679032803, 0.08432121574878693, 0.13271979987621307, 0.005849200766533613, 0.05007601156830788, 0.020833300426602364, 0.08449772000312805, 0.07474707812070847, 0.002612559823319316, 0.003266420215368271, 0.08371712267398834, 0.1206088587641716, 0.013899390585720539, 0.03909871354699135], [0.0003153145662508905, 0.15205715596675873, 0.101693294942379, 0.0882682353258133, 0.11134246736764908, 0.0007435400621034205, 0.0010954886674880981, 0.0004077209741808474, 0.13721300661563873, 0.008070135489106178, 0.008781864307820797, 0.07281164824962616, 0.026447053998708725, 0.13717621564865112, 0.0014377286424860358, 0.00013730931095778942, 0.0008432913455180824, 0.13652682304382324, 0.00296771596185863, 0.0013680399861186743, 0.010295957326889038], [8.460237040708307e-06, 0.09674116969108582, 0.1883600950241089, 0.2390477955341339, 0.08829296380281448, 0.00045875858631916344, 0.0003690483281388879, 7.518432539654896e-05, 0.08072546869516373, 0.0006960197351872921, 0.0021700591314584017, 0.1319514811038971, 0.0072294739075005054, 0.08084846287965775, 0.0013192197075113654, 2.8765176466549747e-05, 9.036964911501855e-05, 0.08055420219898224, 0.0004346306377556175, 8.892024197848514e-05, 0.0005095198866911232], [0.0007539947982877493, 0.20539025962352753, 0.0032299913000315428, 0.009114989079535007, 0.0013824200723320246, 0.02242870442569256, 0.018074123188853264, 0.003956902772188187, 0.20857325196266174, 0.07802711427211761, 0.001928097102791071, 0.002436811802908778, 0.0007126537966541946, 0.20942753553390503, 0.009496179409325123, 0.00034753739601001143, 0.0007910660933703184, 0.21003007888793945, 0.006239335983991623, 0.002870537806302309, 0.004788360558450222], [4.322595123085193e-05, 0.20171195268630981, 0.0013898712350055575, 0.0004621527623385191, 0.00023790355771780014, 0.0002087117318296805, 0.05251132696866989, 0.0006396441021934152, 0.21212832629680634, 0.10578933358192444, 9.248380229109898e-05, 0.000431626831414178, 7.744644244667143e-05, 0.20988911390304565, 0.0010278801200911403, 0.00014754943549633026, 0.00033229647669941187, 0.21010521054267883, 0.0022296239621937275, 0.00016980762302409858, 0.00037450939998961985], [0.00013860446051694453, 0.2277672290802002, 0.0026212683878839016, 0.0046427189372479916, 0.0005354094901122153, 0.0005481301341205835, 0.011140613816678524, 0.004611471202224493, 0.22307156026363373, 0.05796736478805542, 0.0003024263132829219, 0.0009937278227880597, 0.000385813124012202, 0.22386391460895538, 0.006997046992182732, 0.000268364732619375, 0.0030573818366974592, 0.2241276353597641, 0.004382162354886532, 0.0012930395314469934, 0.001284174737520516], [6.762250268366188e-05, 0.24972368776798248, 0.000369858491467312, 0.0016357993008568883, 7.540411752415821e-05, 3.3490767236799e-05, 0.00028215788188390434, 5.460347529151477e-05, 0.2484414279460907, 0.0005501953419297934, 0.00013508433767128736, 0.0003753183700609952, 6.708493310725316e-05, 0.24836622178554535, 0.000579588464461267, 2.8699902031803504e-05, 0.00019974863971583545, 0.24809029698371887, 0.000659582728985697, 6.624288653256372e-05, 0.00019789510406553745], [0.0005313534056767821, 0.18470335006713867, 0.01856713742017746, 0.002506914548575878, 0.0006796852103434503, 0.000776969944126904, 0.015649717301130295, 0.00141246581915766, 0.17391647398471832, 0.18043847382068634, 0.0007491729920729995, 0.004929354414343834, 0.0009941777680069208, 0.17468160390853882, 0.01593215949833393, 0.00018460936553310603, 0.001073526102118194, 0.17438797652721405, 0.03772863373160362, 0.0037023653276264668, 0.006453912705183029], [0.0036505882162600756, 0.13732877373695374, 0.024364640936255455, 0.19848117232322693, 0.012039518915116787, 0.0018599225440993905, 0.0006236820481717587, 0.0006399154081009328, 0.11623001843690872, 0.008878425695002079, 0.032183416187763214, 0.07033443450927734, 0.03184397891163826, 0.11654847115278244, 0.02794041484594345, 0.0006623106310144067, 0.0038187161553651094, 0.11572590470314026, 0.021565936505794525, 0.014489416964352131, 0.06079048663377762], [0.00175427773501724, 0.11323225498199463, 0.06499292701482773, 0.07698386907577515, 0.00600472092628479, 0.0024217055179178715, 0.002595657715573907, 0.00035915544140152633, 0.10628901422023773, 0.02380020171403885, 0.013634772971272469, 0.1682891994714737, 0.02158958837389946, 0.10743143409490585, 0.07104333490133286, 0.0017724251374602318, 0.005447302013635635, 0.10674972832202911, 0.07520100474357605, 0.012018761597573757, 0.018388740718364716], [4.003240610472858e-05, 0.061109758913517, 0.17710526287555695, 0.16737951338291168, 0.006235623732209206, 0.0005371079896576703, 0.0004061331565026194, 3.061328243347816e-05, 0.053251344710588455, 0.0025614802725613117, 0.001165427383966744, 0.3730890154838562, 0.02268713340163231, 0.05430631712079048, 0.01808537170290947, 0.0001283657766180113, 0.00041500653605908155, 0.05408636853098869, 0.005545211490243673, 0.0007789647206664085, 0.0010560944210737944], [6.767549348296598e-05, 0.24934111535549164, 0.0003675509069580585, 0.001639741356484592, 7.434110011672601e-05, 3.390653364476748e-05, 0.0002856434148270637, 5.526637323782779e-05, 0.2485344111919403, 0.0005552839138545096, 0.00013508470146916807, 0.00037836405681446195, 6.721470708725974e-05, 0.24848392605781555, 0.0005947361350990832, 2.9117723897797987e-05, 0.00020220497390255332, 0.24821867048740387, 0.0006693443283438683, 6.78512078593485e-05, 0.00019850626995321363], [0.0011334643932059407, 0.03572188317775726, 0.002808346413075924, 0.0006373837240971625, 5.736554885515943e-05, 0.0020843942184001207, 0.001671023084782064, 0.0005439266678877175, 0.034870460629463196, 0.023659585043787956, 0.0010307061020284891, 0.00607087230309844, 0.0007038639159873128, 0.03522402048110962, 0.7130698561668396, 0.01593073457479477, 0.0030443191062659025, 0.03463563695549965, 0.07610950618982315, 0.008511009626090527, 0.002481660107150674], [0.0015718950890004635, 0.054279476404190063, 0.0007364356424659491, 0.0016834198031574488, 6.507291254820302e-05, 0.0006405910826288164, 0.006685338914394379, 0.0028586506377905607, 0.05708415433764458, 0.036486025899648666, 0.0010937185725197196, 0.0019070851849392056, 0.00043577226460911334, 0.05751033127307892, 0.36243242025375366, 0.26313960552215576, 0.05030032992362976, 0.05729292333126068, 0.03208578750491142, 0.008005726151168346, 0.003705198410898447], [0.0014099469408392906, 0.12014703452587128, 0.005852174013853073, 0.01979452557861805, 0.000734694127459079, 0.0002294103760505095, 0.0028550324495881796, 0.0018224911764264107, 0.11840222775936127, 0.05935227870941162, 0.0026167300529778004, 0.011128375306725502, 0.0036824007984250784, 0.11910351365804672, 0.21825256943702698, 0.01961873471736908, 0.07090064883232117, 0.11803262680768967, 0.07662797719240189, 0.020879339426755905, 0.008557310327887535], [6.855869287392125e-05, 0.24922721087932587, 0.0003789645852521062, 0.0016622983384877443, 7.716115942457691e-05, 3.4605989640112966e-05, 0.00029202207224443555, 5.6663964642211795e-05, 0.24852751195430756, 0.0005721616325899959, 0.0001367211516480893, 0.00038805065560154617, 6.928016227902845e-05, 0.2484789341688156, 0.0006037625716999173, 2.9765333238174208e-05, 0.00020559832046274096, 0.2482376992702484, 0.0006819540867581964, 6.897223647683859e-05, 0.0002021856780629605], [0.003334612585604191, 0.1474623680114746, 0.02108103781938553, 0.005056777969002724, 0.00024164665956050158, 0.000589098664931953, 0.0036360351368784904, 0.0006165363593026996, 0.1372690051794052, 0.07456644624471664, 0.0025614292826503515, 0.020712586119771004, 0.0012681493535637856, 0.13757416605949402, 0.10710379481315613, 0.0011330489069223404, 0.0027078064158558846, 0.1358613222837448, 0.15805639326572418, 0.021449243649840355, 0.017718516290187836], [0.0006540954345837235, 0.04653730243444443, 0.012945919297635555, 0.0036945664323866367, 5.291303023113869e-05, 0.00023859475913923234, 0.0029602653812617064, 0.000283737521385774, 0.04606784135103226, 0.09215221554040909, 0.00038860199856571853, 0.019845426082611084, 0.0007656710222363472, 0.04680247977375984, 0.27824825048446655, 0.0019919041078537703, 0.005095526576042175, 0.046422939747571945, 0.367750346660614, 0.01737535558640957, 0.009726114571094513], [0.004070018883794546, 0.11328321695327759, 0.00651878397911787, 0.008584067225456238, 0.00013883494830224663, 0.00067091517848894, 0.006032395642250776, 0.0005871881730854511, 0.10281242430210114, 0.1874241679906845, 0.0016772928647696972, 0.008495516143739223, 0.0008768265252001584, 0.10295714437961578, 0.08089092373847961, 0.0005454631755128503, 0.0015086446655914187, 0.1019713282585144, 0.16524405777454376, 0.023115532472729683, 0.08259520679712296]], [[0.010108370333909988, 0.009576099924743176, 0.06027359142899513, 0.0249027069658041, 0.09278906881809235, 0.02200092002749443, 0.024594400078058243, 0.010880552232265472, 0.009120089933276176, 0.03853346034884453, 0.08552276343107224, 0.17583408951759338, 0.16031904518604279, 0.00932607613503933, 0.07189035415649414, 0.007632874418050051, 0.008183556608855724, 0.009220887906849384, 0.016594091430306435, 0.05927318334579468, 0.09342394769191742], [0.47711825370788574, 0.012585475109517574, 0.0013159523950889707, 0.007521224673837423, 0.003501752857118845, 0.007957800291478634, 0.0023356867022812366, 0.02703712321817875, 0.011688603088259697, 0.024869123473763466, 0.0011921041877940297, 0.0017912770854309201, 0.0017269682139158249, 0.011824319139122963, 0.07294788956642151, 0.014015396125614643, 0.01521321665495634, 0.011821214109659195, 0.0051290905103087425, 0.003738208906725049, 0.28466933965682983], [0.06267210096120834, 0.1147189661860466, 0.007603216916322708, 0.004424269776791334, 0.00016863687778823078, 0.0006312266341410577, 0.003167377319186926, 0.0010661330306902528, 0.10061779618263245, 0.019703788682818413, 0.0027473873924463987, 0.005274209193885326, 0.00045814074110239744, 0.10258369147777557, 0.006199758965522051, 0.000549804070033133, 0.0023535906802862883, 0.10217603296041489, 0.026743818074464798, 0.012053394690155983, 0.4240867495536804], [0.058622606098651886, 0.14735101163387299, 0.0049746073782444, 0.018833758309483528, 0.000591080286540091, 0.0009330284665338695, 0.0011778527405112982, 0.0007989326259121299, 0.12721966207027435, 0.013095777481794357, 0.006338483188301325, 0.004249246325343847, 0.0012284580152481794, 0.12765958905220032, 0.004594986792653799, 0.0008881953544914722, 0.0016015084693208337, 0.1263020932674408, 0.026846257969737053, 0.013874556869268417, 0.31281837821006775], [0.022478749975562096, 0.2229674756526947, 0.007483907509595156, 0.016812248155474663, 0.002031486015766859, 0.0012184708612039685, 0.0008987002074718475, 0.0006197954062372446, 0.18249018490314484, 0.0032016944605857134, 0.0037949064280837774, 0.008561372756958008, 0.003516011405736208, 0.1847008913755417, 0.002057473175227642, 0.0003233893949072808, 0.0006924658082425594, 0.18363924324512482, 0.007913540117442608, 0.006302878260612488, 0.13829512894153595], [0.014654487371444702, 0.22743667662143707, 0.0016505935927852988, 0.006339140236377716, 0.00036201527109369636, 0.0049813129007816315, 0.0016056281747296453, 0.0017452365718781948, 0.20780044794082642, 0.0029495672788470984, 0.0035734297707676888, 0.0022990768775343895, 0.0003560832410585135, 0.20808273553848267, 0.008344878442585468, 0.0016862816410139203, 0.0020523015409708023, 0.20529621839523315, 0.00828327052295208, 0.005140382330864668, 0.08536015450954437], [0.06077605485916138, 0.0633833110332489, 0.008612943813204765, 0.009264430031180382, 0.00025404233019798994, 0.001572216977365315, 0.016995424404740334, 0.0370866060256958, 0.05866525322198868, 0.0252027940005064, 0.005847516935318708, 0.0108314985409379, 0.0005339476629160345, 0.059476468712091446, 0.009373437613248825, 0.00444058608263731, 0.047757383435964584, 0.059238675981760025, 0.07540233433246613, 0.020461905747652054, 0.42482301592826843], [0.08477869629859924, 0.014157275669276714, 0.000841911300085485, 0.002070022514089942, 0.0004812466795556247, 0.0002102079160977155, 0.0007874074508436024, 0.16524675488471985, 0.011397783644497395, 0.003329236526042223, 0.0012754943454638124, 0.0010525170946493745, 0.001307933358475566, 0.011440855450928211, 0.003750479081645608, 0.0017525507137179375, 0.10779348015785217, 0.011406864039599895, 0.00801674835383892, 0.011243859305977821, 0.5576586723327637], [0.4703826308250427, 0.013603425584733486, 0.0015909605426713824, 0.008415787480771542, 0.003714239690452814, 0.008955505676567554, 0.0028710495680570602, 0.03205088898539543, 0.012703325599431992, 0.027022771537303925, 0.001336115994490683, 0.0021130770910531282, 0.0018613601569086313, 0.012849627062678337, 0.07981192320585251, 0.017292317003011703, 0.018136221915483475, 0.012852651998400688, 0.005577723495662212, 0.004103898536413908, 0.2627544701099396], [0.09701579064130783, 0.10000696778297424, 0.007513062097132206, 0.007652379106730223, 0.0006985734216868877, 0.0014043892733752728, 0.004596106242388487, 0.00691891647875309, 0.09138570725917816, 0.02958325482904911, 0.006765199825167656, 0.008509847335517406, 0.0013901438796892762, 0.09277316182851791, 0.008230380713939667, 0.0017488043522462249, 0.006150973029434681, 0.09206929802894592, 0.03843577951192856, 0.0240751001983881, 0.3730761408805847], [0.0680026113986969, 0.0613323338329792, 0.01990901120007038, 0.05347134545445442, 0.006414279341697693, 0.0025666793808341026, 0.0025605892296880484, 0.005447207484394312, 0.052839819341897964, 0.009796430356800556, 0.07095850259065628, 0.03819796070456505, 0.013144847936928272, 0.053092408925294876, 0.010353358462452888, 0.001995750004425645, 0.00942952185869217, 0.05249558389186859, 0.033755823969841, 0.041998207569122314, 0.39223766326904297], [0.032809626311063766, 0.17032748460769653, 0.01367725245654583, 0.011201220564544201, 0.00031253727502189577, 0.0006586974486708641, 0.002346447203308344, 0.0019927022513002157, 0.15705712139606476, 0.0101929297670722, 0.0072799003683030605, 0.01534133031964302, 0.0008797062910161912, 0.1593446135520935, 0.007185764145106077, 0.0009524846100248396, 0.005611404310911894, 0.15862222015857697, 0.024077612906694412, 0.013165065087378025, 0.20696388185024261], [0.012022084556519985, 0.22159354388713837, 0.016391973942518234, 0.04417064040899277, 0.003864855272695422, 0.0033040253911167383, 0.002054993761703372, 0.00134754937607795, 0.1871287226676941, 0.0032302329782396555, 0.007651470601558685, 0.016964295879006386, 0.010008069686591625, 0.1904035061597824, 0.0027301267255097628, 0.0005256455624476075, 0.0019308055052533746, 0.18935240805149078, 0.009543980471789837, 0.007994691841304302, 0.0677863284945488], [0.4728943705558777, 0.013717168010771275, 0.0015910322545096278, 0.008264812640845776, 0.0037346549797803164, 0.008994649164378643, 0.0028393433894962072, 0.030993737280368805, 0.012818251736462116, 0.026847098022699356, 0.0013237232342362404, 0.0021004602313041687, 0.0018615755252540112, 0.01296697836369276, 0.07937154173851013, 0.017015933990478516, 0.01765500009059906, 0.012970725074410439, 0.005525047890841961, 0.004061502870172262, 0.2624523937702179], [0.04605204239487648, 0.15338373184204102, 0.0147061413154006, 0.012214655056595802, 0.0031438826117664576, 0.01343325525522232, 0.009665433317422867, 0.003228370100259781, 0.13748854398727417, 0.016994202509522438, 0.017862824723124504, 0.017139757052063942, 0.0035251411609351635, 0.13730913400650024, 0.047622520476579666, 0.01224077120423317, 0.0056452141143381596, 0.1363111287355423, 0.0195376668125391, 0.017290322110056877, 0.17520518600940704], [0.05080132186412811, 0.1515670269727707, 0.004811973311007023, 0.020054060965776443, 0.0012722089886665344, 0.005326167680323124, 0.006047297269105911, 0.008226740173995495, 0.12924644351005554, 0.012204726226627827, 0.009985663928091526, 0.00652512488886714, 0.001947219599969685, 0.12937256693840027, 0.029936786741018295, 0.019254520535469055, 0.022566160187125206, 0.12866239249706268, 0.015554940328001976, 0.017204076051712036, 0.22943264245986938], [0.08855076879262924, 0.10671461373567581, 0.0017266820650547743, 0.01073278859257698, 0.0023991395719349384, 0.0005503835855051875, 0.000700026866979897, 0.03613070771098137, 0.0884011909365654, 0.0037702354602515697, 0.005147458054125309, 0.002056228229776025, 0.00467460323125124, 0.08826608210802078, 0.011367923580110073, 0.009447838179767132, 0.06922993808984756, 0.0881979912519455, 0.007416051812469959, 0.010769047774374485, 0.36375030875205994], [0.47245144844055176, 0.013674289919435978, 0.0016083726659417152, 0.008266093209385872, 0.003753679571673274, 0.009063591249287128, 0.002881279680877924, 0.031153475865721703, 0.012781614437699318, 0.02712344378232956, 0.0013234964571893215, 0.0021171995904296637, 0.0018751374445855618, 0.01293088123202324, 0.079884834587574, 0.01720881275832653, 0.01780063472688198, 0.012935500591993332, 0.0055581252090632915, 0.00408968748524785, 0.2615184187889099], [0.0973498672246933, 0.15892936289310455, 0.0070543247275054455, 0.016015443950891495, 0.0014895781641826034, 0.0020131911151111126, 0.003908984363079071, 0.00443872669711709, 0.1399494856595993, 0.009952365420758724, 0.008674086071550846, 0.009008237160742283, 0.002272551879286766, 0.14157982170581818, 0.005399228539317846, 0.002671333961188793, 0.004790783394128084, 0.14076824486255646, 0.01883039064705372, 0.012803511694073677, 0.21210047602653503], [0.13844500482082367, 0.02404383383691311, 0.016231415793299675, 0.016178229823708534, 0.0020187273621559143, 0.0011342051438987255, 0.001967095071449876, 0.00499592162668705, 0.019709695130586624, 0.01505284197628498, 0.006956242490559816, 0.014618262648582458, 0.0038269604556262493, 0.02007247321307659, 0.009997533634305, 0.001212802599184215, 0.005338988732546568, 0.019889136776328087, 0.0157167948782444, 0.021723506972193718, 0.6408702731132507], [0.09046019613742828, 0.005764266941696405, 0.01566745899617672, 0.013028180226683617, 0.03797061741352081, 0.018738362938165665, 0.007007629610598087, 0.009465872310101986, 0.004911508876830339, 0.02659916691482067, 0.018837831914424896, 0.02347865328192711, 0.0684729814529419, 0.004980900790542364, 0.04404844343662262, 0.003091589780524373, 0.0037164234090596437, 0.004915241617709398, 0.02505798637866974, 0.05145224928855896, 0.5223343372344971]]], [[[0.04175226762890816, 0.06594531238079071, 0.05760952830314636, 0.01612170599400997, 0.006483303848654032, 0.013209925964474678, 0.019332880154252052, 0.018362896516919136, 0.06465157121419907, 0.04561122879385948, 0.007912862114608288, 0.03272915259003639, 0.003048302372917533, 0.06466221064329147, 0.03017536923289299, 0.010444514453411102, 0.039280738681554794, 0.0647069662809372, 0.08654613047838211, 0.12361089140176773, 0.1878022700548172], [0.0487515851855278, 0.02701411210000515, 0.05715131759643555, 0.04558170586824417, 0.05004584416747093, 0.03887372091412544, 0.04672211408615112, 0.028167692944407463, 0.027103500440716743, 0.07154534012079239, 0.018502792343497276, 0.06512989848852158, 0.058664627373218536, 0.027116380631923676, 0.06730316579341888, 0.03779580816626549, 0.058437030762434006, 0.027116553857922554, 0.06965669989585876, 0.07530525326728821, 0.05401486158370972], [0.0013832019176334143, 0.15631242096424103, 0.16509181261062622, 0.017922144383192062, 0.005914400331676006, 0.0028045817743986845, 0.010563336312770844, 0.004724434576928616, 0.1534038633108139, 0.016429957002401352, 0.0007669530459679663, 0.07118132710456848, 0.00296671106480062, 0.1533852219581604, 0.00719493068754673, 0.0039663165807724, 0.004644480533897877, 0.15351933240890503, 0.021967360749840736, 0.022876767441630363, 0.022980501875281334], [0.0001031220963341184, 0.03861632198095322, 0.011882113292813301, 0.6850395798683167, 0.03356266766786575, 0.0009184176451526582, 0.0011407268466427922, 0.003579872427508235, 0.03763372451066971, 0.0012184259248897433, 7.425261719617993e-05, 0.02078341506421566, 0.05351828411221504, 0.037714097648859024, 0.00026830704882740974, 0.001911553437821567, 0.007536038756370544, 0.037738434970378876, 0.0031834307592362165, 0.013422349467873573, 0.01015477441251278], [0.0002065730222966522, 0.013744840398430824, 0.019889183342456818, 0.032455962151288986, 0.7530327439308167, 0.006423743441700935, 0.002123264828696847, 0.003515101969242096, 0.0133597943931818, 0.0005732038407586515, 9.081228927243501e-05, 0.02531876415014267, 0.07325993478298187, 0.013390292413532734, 0.002045184141024947, 0.00150046416092664, 0.004798843525350094, 0.01339732389897108, 0.0036918579135090113, 0.006987942382693291, 0.010194148868322372], [4.372785770101473e-05, 0.04983355104923248, 0.0013390457024797797, 0.0009925097692757845, 0.00213422323577106, 0.772190511226654, 0.01270107738673687, 0.0039373901672661304, 0.04810764640569687, 0.00222006649710238, 4.202227864880115e-05, 0.0009286096901632845, 0.0002009826566791162, 0.04817444458603859, 0.0032625303138047457, 0.00030094716930761933, 0.00038485467666760087, 0.04820135235786438, 0.0015329500893130898, 0.0011418858775869012, 0.002329618204385042], [2.652712100825738e-05, 0.025983545929193497, 0.0006163404323160648, 0.000581833126489073, 0.000651958747766912, 0.004321485757827759, 0.8749473690986633, 0.006541963201016188, 0.02587658166885376, 0.001702765584923327, 6.951000159460818e-06, 0.0006085881614126265, 0.000295650475891307, 0.02588501013815403, 0.00023506984871346503, 0.0031207057181745768, 0.0007582887774333358, 0.025949878618121147, 0.0005216466379351914, 0.0006294659688137472, 0.0007383153424598277], [0.000597320671658963, 0.09275916963815689, 0.0032283631153404713, 0.003374928142875433, 0.0025957701727747917, 0.018816743046045303, 0.031113380566239357, 0.4845862090587616, 0.0913020446896553, 0.014602025970816612, 0.0002955608651973307, 0.002378013450652361, 0.0035477145574986935, 0.09139403700828552, 0.0033873538486659527, 0.0028916087467223406, 0.03949805721640587, 0.09153970330953598, 0.0016063641523942351, 0.010333527810871601, 0.010152023285627365], [0.0487421415746212, 0.027050839737057686, 0.056861963123083115, 0.045627810060977936, 0.05022069439291954, 0.03810402750968933, 0.04692665860056877, 0.02822028286755085, 0.027150774374604225, 0.07178829610347748, 0.018383052200078964, 0.06494515389204025, 0.059490352869033813, 0.02716383896768093, 0.06657763570547104, 0.03835783153772354, 0.05870606750249863, 0.027164366096258163, 0.06958647072315216, 0.07489494979381561, 0.054036762565374374], [0.00015152287960518152, 0.19787602126598358, 0.0047536008059978485, 0.0004470857384148985, 0.00030210177646949887, 0.00245050061494112, 0.005852302070707083, 0.011444340460002422, 0.1958979219198227, 0.15434633195400238, 3.3451196941314265e-05, 0.0018377344822511077, 0.0002067408786388114, 0.19603313505649567, 0.0022599948570132256, 0.0004597318184096366, 0.00390669284388423, 0.1965530812740326, 0.012039635330438614, 0.009154535830020905, 0.0039934562519192696], [0.001749799819663167, 0.18914203345775604, 0.01803385093808174, 0.05807800590991974, 0.002428023610264063, 0.0022670207545161247, 0.0009335750946775079, 0.006300268229097128, 0.181353360414505, 0.006200509611517191, 0.04228387400507927, 0.020689917728304863, 0.002990128006786108, 0.1811751425266266, 0.0029942472465336323, 0.0019356139237061143, 0.004892261698842049, 0.18145525455474854, 0.016703998669981956, 0.03611290082335472, 0.0422801747918129], [0.0009792830096557736, 0.12623608112335205, 0.1180630698800087, 0.07137144356966019, 0.010636415332555771, 0.001669935416430235, 0.006487580481916666, 0.006823349744081497, 0.12349481880664825, 0.00821158941835165, 0.0006846623145975173, 0.18526847660541534, 0.007059453055262566, 0.12354777753353119, 0.007022595498710871, 0.007289019413292408, 0.008134541101753712, 0.12369119375944138, 0.014054584316909313, 0.026538534089922905, 0.02273569442331791], [0.00013952406879980117, 0.012674720957875252, 0.007958080619573593, 0.040630899369716644, 0.09150630980730057, 0.0012620574561879039, 0.003426372306421399, 0.004760114476084709, 0.012474087998270988, 0.0009425355237908661, 7.016346353339031e-05, 0.01442083902657032, 0.7479904294013977, 0.012512756511569023, 0.003519001416862011, 0.0033819128293544054, 0.010806161910295486, 0.012507626786828041, 0.0030218344181776047, 0.008221181109547615, 0.007773442659527063], [0.048690278083086014, 0.02701593190431595, 0.05683695152401924, 0.045604728162288666, 0.05028720572590828, 0.03810175508260727, 0.0469377338886261, 0.02828310802578926, 0.027116240933537483, 0.07172510027885437, 0.01828949525952339, 0.06488674134016037, 0.059641819447278976, 0.02712959237396717, 0.06659074127674103, 0.038403671234846115, 0.058776624500751495, 0.027130063623189926, 0.06960228830575943, 0.07493911683559418, 0.054010774940252304], [0.00013940269127488136, 0.16177290678024292, 0.009718014858663082, 0.0005686677759513259, 0.0030797452200204134, 0.021686596795916557, 0.013782864436507225, 0.0037475547287613153, 0.15710438787937164, 0.007602284662425518, 4.119934237678535e-05, 0.012029229663312435, 0.0029524683486670256, 0.15742774307727814, 0.20885424315929413, 0.01987266167998314, 0.00823890045285225, 0.15762898325920105, 0.034545499831438065, 0.0143488934263587, 0.004857825580984354], [0.00018567690858617425, 0.09949518740177155, 0.004597498569637537, 0.004426203668117523, 0.001507182838395238, 0.0013895867159590125, 0.0497904047369957, 0.011717922985553741, 0.09819985926151276, 0.0014132513897493482, 0.00010600558744044974, 0.007156213279813528, 0.003762152511626482, 0.09846365451812744, 0.010322094894945621, 0.45050013065338135, 0.02779393456876278, 0.09870720654726028, 0.012044928967952728, 0.011288490146398544, 0.007132407743483782], [0.0005449996097013354, 0.056505270302295685, 0.003331956220790744, 0.003662216942757368, 0.004600606393069029, 0.0036944812163710594, 0.002366334432736039, 0.05497235059738159, 0.05561870336532593, 0.004871676210314035, 0.00012055772094754502, 0.004520776681602001, 0.0164518840610981, 0.055718809366226196, 0.009283279068768024, 0.008767449297010899, 0.6039178967475891, 0.05582158640027046, 0.012708709575235844, 0.03268188238143921, 0.009838621132075787], [0.04875430464744568, 0.026983855292201042, 0.05687524750828743, 0.04555797949433327, 0.050242625176906586, 0.03804098814725876, 0.04696880653500557, 0.02830858901143074, 0.027084514498710632, 0.07182055711746216, 0.018300898373126984, 0.06490117311477661, 0.05954515561461449, 0.0270977895706892, 0.0665263831615448, 0.03842823579907417, 0.0588236078619957, 0.02709830366075039, 0.06964139640331268, 0.07497534155845642, 0.0540241114795208], [0.0004288041964173317, 0.08075116574764252, 0.006428136024624109, 0.0008692233241163194, 0.0017439589137211442, 0.001685886294580996, 0.0033358640503138304, 0.001204338506795466, 0.07931158691644669, 0.01365909818559885, 3.531575566739775e-05, 0.004675188101828098, 0.0009443617309443653, 0.07954777032136917, 0.0032775690779089928, 0.002321269130334258, 0.012625795789062977, 0.07971902936697006, 0.5886574983596802, 0.03159383684396744, 0.007184311281889677], [0.001793196890503168, 0.11436400562524796, 0.014444817788898945, 0.015901582315564156, 0.00434552226215601, 0.00315640727058053, 0.003345827106386423, 0.019634021446108818, 0.11161482334136963, 0.016925090923905373, 0.0005678822053596377, 0.014358272776007652, 0.005935091525316238, 0.11182387173175812, 0.011002514511346817, 0.007060314062982798, 0.10434334725141525, 0.11198907345533371, 0.09555985778570175, 0.18718260526657104, 0.04465189203619957], [0.004155970644205809, 0.14507631957530975, 0.021720819175243378, 0.0434618815779686, 0.012950888834893703, 0.008413931354880333, 0.011773278005421162, 0.0235427375882864, 0.1415795236825943, 0.027776649221777916, 0.002063754014670849, 0.0245989877730608, 0.010419163852930069, 0.1416981965303421, 0.010775787755846977, 0.0030407262966036797, 0.03506903350353241, 0.14185023307800293, 0.04723115637898445, 0.07098070532083511, 0.07182019203901291]], [[0.14450207352638245, 0.05118771269917488, 0.006602896843105555, 0.013025039806962013, 0.005473615135997534, 0.004216931760311127, 0.0004901117645204067, 0.016454024240374565, 0.05006011575460434, 0.010388238355517387, 0.021601414307951927, 0.003523528575897217, 0.015662435442209244, 0.0500582754611969, 0.03981788828969002, 0.010361859574913979, 0.054632507264614105, 0.05006122216582298, 0.09495005756616592, 0.15160202980041504, 0.20532794296741486], [0.04051382467150688, 0.03170658275485039, 0.05168575793504715, 0.07701315730810165, 0.04930660501122475, 0.04548593610525131, 0.03221704438328743, 0.03701479360461235, 0.03177739307284355, 0.05340614914894104, 0.04839946702122688, 0.061005715280771255, 0.062157049775123596, 0.031800881028175354, 0.049959469586610794, 0.047638844698667526, 0.04931757226586342, 0.03180372342467308, 0.06367092579603195, 0.0404014065861702, 0.06371770799160004], [0.05213998630642891, 0.1264156997203827, 0.04113519936800003, 0.06601134687662125, 0.025462811812758446, 0.017747491598129272, 0.0026575843803584576, 0.011263299733400345, 0.12234782427549362, 0.008250908926129341, 0.008754563517868519, 0.014085029251873493, 0.019832925871014595, 0.12254049628973007, 0.00830750446766615, 0.0016284410376101732, 0.01931956596672535, 0.12269818782806396, 0.06788723170757294, 0.06771913170814514, 0.07379467785358429], [0.024108434095978737, 0.17355474829673767, 0.047542087733745575, 0.07722104340791702, 0.033627528697252274, 0.008863049559295177, 0.001770996255800128, 0.007372089195996523, 0.16911669075489044, 0.0047948043793439865, 0.005976924207061529, 0.007161878980696201, 0.014015779830515385, 0.16911350190639496, 0.009475452825427055, 0.0013598324730992317, 0.008472983725368977, 0.16939815878868103, 0.020298264920711517, 0.01172636914998293, 0.0350293293595314], [0.010141187347471714, 0.2004040628671646, 0.012115025892853737, 0.13267062604427338, 0.027789456769824028, 0.0024698299821466208, 0.0003029427898582071, 0.002353658899664879, 0.1938467025756836, 0.0007236071978695691, 0.002998014446347952, 0.0023645537439733744, 0.0048145391047000885, 0.19384680688381195, 0.0019843284972012043, 0.0004784617340192199, 0.0027119398582726717, 0.19421041011810303, 0.0020278918091207743, 0.0029491218738257885, 0.008796813897788525], [0.003136979416012764, 0.23874898254871368, 0.006914704106748104, 0.016600430011749268, 0.010809702798724174, 0.004201188217848539, 0.00034125332604162395, 0.005078655667603016, 0.2314935028553009, 0.0006313283811323345, 0.001490999711677432, 0.0017763065407052636, 0.002001119777560234, 0.23175007104873657, 0.0011563596781343222, 0.0005642393371090293, 0.0025951967108994722, 0.23217236995697021, 0.002104416023939848, 0.004152870737016201, 0.002279304899275303], [0.008575613610446453, 0.15313367545604706, 0.026266714558005333, 0.014415962621569633, 0.029102014377713203, 0.21119259297847748, 0.0029060037340968847, 0.013444704003632069, 0.14862670004367828, 0.013406462967395782, 0.002575668040663004, 0.007175327744334936, 0.003976217471063137, 0.14900656044483185, 0.022378399968147278, 0.0027110837399959564, 0.006300165317952633, 0.1491306722164154, 0.01534269005060196, 0.013551461510360241, 0.006781296338886023], [0.008006539195775986, 0.18006299436092377, 0.005960096605122089, 0.013389736413955688, 0.011316034942865372, 0.16394902765750885, 0.017692724242806435, 0.022777674719691277, 0.17556160688400269, 0.015635492280125618, 0.003800164209678769, 0.0012950305826961994, 0.0017860260559245944, 0.17545531690120697, 0.006326374597847462, 0.0021754123736172915, 0.004297659732401371, 0.17571555078029633, 0.004618192091584206, 0.006171887740492821, 0.0040063741616904736], [0.040608324110507965, 0.0316908173263073, 0.051457829773426056, 0.07655047625303268, 0.0492522232234478, 0.04528870806097984, 0.032694969326257706, 0.03730029985308647, 0.031767312437295914, 0.05392033979296684, 0.04831462353467941, 0.06094949692487717, 0.06193208694458008, 0.03179049864411354, 0.05005069449543953, 0.04811515286564827, 0.0494532585144043, 0.03179316967725754, 0.06320996582508087, 0.04025984928011894, 0.06359989196062088], [0.015844756737351418, 0.15817919373512268, 0.009867709130048752, 0.007806733716279268, 0.021233534440398216, 0.03598354011774063, 0.060827095061540604, 0.0803450420498848, 0.1562005579471588, 0.0639524981379509, 0.0021209672559052706, 0.00213986006565392, 0.004765133373439312, 0.1562075912952423, 0.008492127992212772, 0.0018113156547769904, 0.007467959076166153, 0.15640424191951752, 0.017716184258461, 0.013179116882383823, 0.019454799592494965], [0.0175506379455328, 0.16702252626419067, 0.012097461149096489, 0.04962126910686493, 0.06401637196540833, 0.024440644308924675, 0.0037708960007876158, 0.010606454685330391, 0.1651798039674759, 0.009487027302384377, 0.00964165385812521, 0.004356814548373222, 0.03072083555161953, 0.1651892513036728, 0.014879894442856312, 0.0045227245427668095, 0.008396539837121964, 0.1653803437948227, 0.02075372450053692, 0.015706785023212433, 0.03665831312537193], [0.026799898594617844, 0.16488972306251526, 0.010780096985399723, 0.030849406495690346, 0.012481112964451313, 0.008553195744752884, 0.0019032539566978812, 0.008074131794273853, 0.16253480315208435, 0.007119059097021818, 0.011762785725295544, 0.020604219287633896, 0.051292408257722855, 0.16278161108493805, 0.006773781962692738, 0.001615141169168055, 0.014885496348142624, 0.16291432082653046, 0.04309729486703873, 0.03815111890435219, 0.05213722586631775], [0.005285013001412153, 0.210092231631279, 0.011976632289588451, 0.022735610604286194, 0.005787273868918419, 0.0008601516601629555, 0.0006290375022217631, 0.0024686073884367943, 0.20778284966945648, 0.0017192123923450708, 0.00928779412060976, 0.023123234510421753, 0.05302763357758522, 0.20765815675258636, 0.004814257845282555, 0.0015835138037800789, 0.005931384861469269, 0.2079332023859024, 0.005141148343682289, 0.004418401047587395, 0.00774475559592247], [0.04063009098172188, 0.0316963866353035, 0.05146624147891998, 0.07655801624059677, 0.04914948716759682, 0.04511229321360588, 0.03257213905453682, 0.037259139120578766, 0.03177306801080704, 0.05381026864051819, 0.04838507995009422, 0.0610804557800293, 0.062044862657785416, 0.03179633244872093, 0.050084780901670456, 0.04818093031644821, 0.04952558875083923, 0.03179898113012314, 0.06315000355243683, 0.04024496674537659, 0.06368085741996765], [0.012861073017120361, 0.15651383996009827, 0.008074606768786907, 0.008637853898108006, 0.00516087980940938, 0.0037112366408109665, 0.0008519415860064328, 0.008562114089727402, 0.1550748348236084, 0.006084420718252659, 0.007242922205477953, 0.017022371292114258, 0.08494433015584946, 0.15527810156345367, 0.044410496950149536, 0.007008024025708437, 0.0381651446223259, 0.15539368987083435, 0.049780577421188354, 0.05604950711131096, 0.019171996042132378], [0.007977104745805264, 0.2106996476650238, 0.0038867259863764048, 0.0025543172378093004, 0.0016632493352517486, 0.0073762075044214725, 0.00011490377801237628, 0.0031961717177182436, 0.20782165229320526, 0.0023872891906648874, 0.002443347591906786, 0.004856450483202934, 0.017223671078681946, 0.20829597115516663, 0.03817508742213249, 0.0032811067067086697, 0.019118916243314743, 0.20839442312717438, 0.013817324303090572, 0.0298044141381979, 0.006912047974765301], [0.01699189469218254, 0.1698066145181656, 0.004712723661214113, 0.007466326467692852, 0.005010874010622501, 0.017331844195723534, 0.003250549780204892, 0.013500489294528961, 0.16900141537189484, 0.010222884826362133, 0.010869751684367657, 0.0055800313130021095, 0.041863348335027695, 0.16892923414707184, 0.08324034512042999, 0.01226695068180561, 0.024402335286140442, 0.1690664291381836, 0.02703751251101494, 0.019992707297205925, 0.019455747678875923], [0.04061507061123848, 0.031627677381038666, 0.05148540809750557, 0.07654168456792831, 0.04921533539891243, 0.045170266181230545, 0.03261282667517662, 0.037256062030792236, 0.03170456737279892, 0.053860679268836975, 0.04834426939487457, 0.061092253774404526, 0.06203144043684006, 0.031727857887744904, 0.05010237172245979, 0.04821423813700676, 0.04952616989612579, 0.03173048421740532, 0.06319279968738556, 0.040244389325380325, 0.06370420753955841], [0.03086697682738304, 0.11650706082582474, 0.010150516405701637, 0.008517417125403881, 0.00646970747038722, 0.004776645451784134, 0.0036877477541565895, 0.021936539560556412, 0.11681504547595978, 0.009470569901168346, 0.004801399074494839, 0.013066516257822514, 0.11683598905801773, 0.11708322167396545, 0.09376736730337143, 0.022867953404784203, 0.05845332518219948, 0.11711778491735458, 0.03703329712152481, 0.04673822969198227, 0.043036725372076035], [0.03907857835292816, 0.1343677043914795, 0.006914539262652397, 0.0065328036434948444, 0.005014562979340553, 0.0023459498770534992, 0.0011272921692579985, 0.014976154081523418, 0.13341394066810608, 0.005188250448554754, 0.004348378628492355, 0.007454938720911741, 0.08081135153770447, 0.13345640897750854, 0.07277460396289825, 0.012808461673557758, 0.050291262567043304, 0.13356202840805054, 0.05030541494488716, 0.05349574238061905, 0.05173167958855629], [0.028427911922335625, 0.16713106632232666, 0.013332362286746502, 0.013844325207173824, 0.007717003580182791, 0.007893108762800694, 0.0010767934145405889, 0.006448901724070311, 0.1638098955154419, 0.008009783923625946, 0.006900076754391193, 0.00680882390588522, 0.01843249797821045, 0.16386395692825317, 0.026773791760206223, 0.005794990342110395, 0.01759587787091732, 0.16398786008358002, 0.09246133267879486, 0.04331929609179497, 0.03637027367949486]], [[0.1964646875858307, 0.016702504828572273, 0.03778800740838051, 0.06992927193641663, 0.01904277689754963, 0.007302047684788704, 0.0011331974528729916, 0.0048799361102283, 0.016225967556238174, 0.008973527699708939, 0.03176971897482872, 0.028090381994843483, 0.031061023473739624, 0.016249002888798714, 0.018771030008792877, 0.0051591419614851475, 0.012102095410227776, 0.01623777113854885, 0.027509601786732674, 0.01980544440448284, 0.4148028492927551], [0.07192423939704895, 0.031521156430244446, 0.05484148859977722, 0.048541996628046036, 0.04749225080013275, 0.02602846547961235, 0.02336042746901512, 0.0233141016215086, 0.031488459557294846, 0.04074085131287575, 0.044227708131074905, 0.07981589436531067, 0.06973467767238617, 0.03152253106236458, 0.06866854429244995, 0.0450587272644043, 0.03503819927573204, 0.03151831775903702, 0.04706127196550369, 0.04424354061484337, 0.1038571372628212], [0.007302476093173027, 0.14765112102031708, 0.09302562475204468, 0.05196354165673256, 0.04697499796748161, 0.0016648971941322088, 0.002302265027537942, 0.005172806326299906, 0.14521446824073792, 0.009484229609370232, 0.015682149678468704, 0.054320067167282104, 0.036455996334552765, 0.14557307958602905, 0.008333136327564716, 0.0024767499417066574, 0.008992467075586319, 0.1457342803478241, 0.02253333106637001, 0.012116186320781708, 0.03702611103653908], [0.007363351061940193, 0.022169042378664017, 0.14479707181453705, 0.18426324427127838, 0.15535800158977509, 0.002511639380827546, 0.0007885603699833155, 0.0024526549968868494, 0.021712038666009903, 0.0027435224037617445, 0.024922596290707588, 0.16482175886631012, 0.16805599629878998, 0.021743249148130417, 0.008005312643945217, 0.0014859528746455908, 0.004202537704259157, 0.021755963563919067, 0.006037208251655102, 0.005486710928380489, 0.029323533177375793], [0.004034395329654217, 0.17362794280052185, 0.04616651311516762, 0.04220380634069443, 0.046177323907613754, 0.0038173929788172245, 0.004960938822478056, 0.011485922150313854, 0.16971474885940552, 0.013740786351263523, 0.01591370813548565, 0.032011739909648895, 0.03347764164209366, 0.1699000895023346, 0.01183453667908907, 0.0024593875277787447, 0.003009800799190998, 0.17018510401248932, 0.008173374459147453, 0.00727475481107831, 0.029829969629645348], [0.0009306559222750366, 0.23097386956214905, 0.0026676561683416367, 0.001273376401513815, 0.0009036194533109665, 0.0037484571803361177, 0.01562836579978466, 0.00718800351023674, 0.229844868183136, 0.019841568544507027, 0.0020907523576170206, 0.001411029719747603, 0.000807535310741514, 0.23018048703670502, 0.010171396657824516, 0.0008858178043738008, 0.0016475219745188951, 0.23066282272338867, 0.00549493171274662, 0.0019390035886317492, 0.001708209398202598], [0.0020175743848085403, 0.22029884159564972, 0.010099240578711033, 0.005897051654756069, 0.006712800823152065, 0.006410254631191492, 0.001854651141911745, 0.006238723173737526, 0.21575045585632324, 0.03545628488063812, 0.0025524506345391273, 0.003952813800424337, 0.007232981268316507, 0.21627482771873474, 0.012021644040942192, 0.0007668401813134551, 0.00517456466332078, 0.2167263925075531, 0.008680777624249458, 0.00394577207043767, 0.011935113929212093], [0.0007612241897732019, 0.2352108508348465, 0.003844786435365677, 0.0023771701380610466, 0.0024656818713992834, 0.0015472871018573642, 0.0020702965557575226, 0.0023104650899767876, 0.23320721089839935, 0.01164084393531084, 0.001143254921771586, 0.002737023402005434, 0.004372399765998125, 0.23410345613956451, 0.006696470081806183, 0.0006507544894702733, 0.0035077643115073442, 0.23462443053722382, 0.007629080675542355, 0.0038877653423696756, 0.0052117048762738705], [0.072126105427742, 0.0319797545671463, 0.05410591512918472, 0.04784834384918213, 0.046816207468509674, 0.02637026086449623, 0.023123877122998238, 0.023290099576115608, 0.03194693848490715, 0.04061891511082649, 0.0439387783408165, 0.07912599295377731, 0.06944272667169571, 0.03198167681694031, 0.06897993385791779, 0.04563227295875549, 0.03510746732354164, 0.03197738528251648, 0.04713356867432594, 0.04445340484380722, 0.10400034487247467], [0.0060974108055233955, 0.20573729276657104, 0.01814904995262623, 0.005284903105348349, 0.00793901551514864, 0.0028608774300664663, 0.003642620053142309, 0.006700354162603617, 0.20302647352218628, 0.03346192464232445, 0.005702623166143894, 0.009807012975215912, 0.007738315500319004, 0.20347101986408234, 0.007321841549128294, 0.002499705646187067, 0.008690535090863705, 0.20389623939990997, 0.018967200070619583, 0.010302889160811901, 0.02870272286236286], [0.024673180654644966, 0.06482402980327606, 0.08736525475978851, 0.09246863424777985, 0.04378952085971832, 0.002016018144786358, 0.0025237288791686296, 0.0068860845640301704, 0.06426455080509186, 0.01204723957926035, 0.025665713474154472, 0.16756948828697205, 0.1200074627995491, 0.06447535008192062, 0.0159823689609766, 0.0031577644404023886, 0.010527558624744415, 0.06452668458223343, 0.02803611569106579, 0.021429816260933876, 0.07776352018117905], [0.009525495581328869, 0.10579235106706619, 0.06820573657751083, 0.0240315068513155, 0.015347851440310478, 0.0012739405501633883, 0.0013776362175121903, 0.004107557702809572, 0.10398930311203003, 0.004928191192448139, 0.02005559578537941, 0.13192404806613922, 0.11762011051177979, 0.1044340431690216, 0.025656184181571007, 0.005629232618957758, 0.019206838682293892, 0.10451307147741318, 0.03501058742403984, 0.023864876478910446, 0.07350580394268036], [0.003198841353878379, 0.17834500968456268, 0.01387200877070427, 0.01304102037101984, 0.006849783472716808, 0.00126523501239717, 0.0005774477613158524, 0.0010726724285632372, 0.17540855705738068, 0.00392431253567338, 0.0031388269271701574, 0.02919965609908104, 0.07329574227333069, 0.1763535737991333, 0.046331118792295456, 0.0030809566378593445, 0.007833780720829964, 0.1766023188829422, 0.032836154103279114, 0.022744061425328255, 0.03102896362543106], [0.07217752188444138, 0.03198923170566559, 0.05400584638118744, 0.04782438650727272, 0.046776529401540756, 0.026379600167274475, 0.023076286539435387, 0.023307792842388153, 0.03195595741271973, 0.040476854890584946, 0.0439499095082283, 0.0790705606341362, 0.06951048970222473, 0.031990811228752136, 0.06896346062421799, 0.04572034627199173, 0.03513365983963013, 0.03198649361729622, 0.04712223634123802, 0.04450707882642746, 0.10407490283250809], [0.010135799646377563, 0.16278524696826935, 0.01724642887711525, 0.006839124020189047, 0.003252587281167507, 0.003258684417232871, 0.00344345741905272, 0.002705794060602784, 0.15988001227378845, 0.017681077122688293, 0.0032563009299337864, 0.013222901150584221, 0.010038519278168678, 0.1605076789855957, 0.04738856106996536, 0.005298839882016182, 0.017679568380117416, 0.16064772009849548, 0.09261192381381989, 0.02993011102080345, 0.07218970358371735], [0.007079401519149542, 0.21779561042785645, 0.008424890227615833, 0.004190544597804546, 0.0023007122799754143, 0.0014716892037540674, 0.00020895080524496734, 0.0008060090476647019, 0.2126188427209854, 0.003539128229022026, 0.0019333685049787164, 0.007020603399723768, 0.006569347810000181, 0.2134460210800171, 0.015849154442548752, 0.001129649463109672, 0.007289445493370295, 0.21364335715770721, 0.027919912710785866, 0.011491689831018448, 0.035271674394607544], [0.005665268283337355, 0.21291407942771912, 0.006948363035917282, 0.0052285948768258095, 0.0034969004336744547, 0.001972596161067486, 0.00034569119452498853, 0.0007117496570572257, 0.20914320647716522, 0.003202881431207061, 0.002949642250314355, 0.009907006286084652, 0.01262586284428835, 0.20999690890312195, 0.016028301790356636, 0.0016595725901424885, 0.0052919816225767136, 0.210175022482872, 0.024702515453100204, 0.015309622511267662, 0.04172413796186447], [0.07222779840230942, 0.031943563371896744, 0.054033223539590836, 0.04781966656446457, 0.04681950807571411, 0.026399284601211548, 0.02308383211493492, 0.023316940292716026, 0.031910210847854614, 0.04049114137887955, 0.04395211860537529, 0.07906869798898697, 0.0695127621293068, 0.031944964081048965, 0.06894809007644653, 0.04574175924062729, 0.035130422562360764, 0.031940657645463943, 0.0471048504114151, 0.04450292885303497, 0.1041075587272644], [0.0321258120238781, 0.10118304938077927, 0.03592237830162048, 0.014559189788997173, 0.009189162403345108, 0.004175991285592318, 0.0017235282575711608, 0.0034100378397852182, 0.09931457042694092, 0.02887418307363987, 0.009303733706474304, 0.030565058812499046, 0.024699022993445396, 0.09951936453580856, 0.07558668404817581, 0.012660481967031956, 0.020275644958019257, 0.0995715856552124, 0.12245416641235352, 0.032290585339069366, 0.14259576797485352], [0.01210673339664936, 0.18596279621124268, 0.015623046085238457, 0.0074662030674517155, 0.0021458130795508623, 0.001432503922842443, 0.0016161587554961443, 0.0017876814818009734, 0.1832624226808548, 0.013112208805978298, 0.0054283300414681435, 0.017178628593683243, 0.008497501723468304, 0.18379627168178558, 0.039616502821445465, 0.0034393228124827147, 0.007723100949078798, 0.18392488360404968, 0.04544578120112419, 0.018376536667346954, 0.06205758824944496], [0.013209996744990349, 0.1357782632112503, 0.05500812456011772, 0.06516288965940475, 0.022377336397767067, 0.002131472574546933, 0.0020408891141414642, 0.003667813027277589, 0.13493111729621887, 0.01921856589615345, 0.014049304649233818, 0.054154422134160995, 0.04406741261482239, 0.1353386789560318, 0.03250570967793465, 0.004125132225453854, 0.012516766786575317, 0.13554787635803223, 0.03500821441411972, 0.019627394154667854, 0.059532709419727325]], [[0.051721375435590744, 0.15360523760318756, 0.04567288979887962, 0.013557824306190014, 0.00806739367544651, 0.03562979772686958, 0.028426267206668854, 0.014278802089393139, 0.150490403175354, 0.021643584594130516, 0.0179415512830019, 0.02011820487678051, 0.008860945701599121, 0.15071018040180206, 0.016985515132546425, 0.008162879385054111, 0.011381305754184723, 0.1508817970752716, 0.024562105536460876, 0.013458791188895702, 0.053843237459659576], [0.05417010560631752, 0.011560306884348392, 0.04278377443552017, 0.057062022387981415, 0.04396822676062584, 0.08659719675779343, 0.056805383414030075, 0.04246636480093002, 0.01159666944295168, 0.05996207147836685, 0.042564161121845245, 0.043451495468616486, 0.06574594974517822, 0.011593918316066265, 0.06139741092920303, 0.06579117476940155, 0.059202391654253006, 0.011585658416152, 0.0492531843483448, 0.06433483213186264, 0.05810761824250221], [0.0033958042040467262, 0.21629545092582703, 0.019402235746383667, 0.02622377499938011, 0.022941481322050095, 0.004714648704975843, 0.004479804541915655, 0.005001641809940338, 0.21213801205158234, 0.010344116948544979, 0.003645035671070218, 0.007010453846305609, 0.008149129338562489, 0.21256500482559204, 0.0037135316524654627, 0.0011620778823271394, 0.0034556658938527107, 0.21287113428115845, 0.005373175721615553, 0.0038639854174107313, 0.013253739103674889], [0.006832593120634556, 0.12153248488903046, 0.10129740834236145, 0.04801107943058014, 0.17377682030200958, 0.0030201179906725883, 0.008990146219730377, 0.00952543318271637, 0.11914868652820587, 0.009328773245215416, 0.007864279672503471, 0.07493825256824493, 0.04510301351547241, 0.11927663534879684, 0.004731867928057909, 0.0010192738845944405, 0.004361359402537346, 0.11941458284854889, 0.0027962736785411835, 0.0035813041031360626, 0.015449648723006248], [0.001264781691133976, 0.22705881297588348, 0.009590675123035908, 0.011921281926333904, 0.023427888751029968, 0.004645645152777433, 0.015937888994812965, 0.008021038956940174, 0.22355203330516815, 0.006560362409800291, 0.002977806841954589, 0.0034269916359335184, 0.001843869686126709, 0.22378218173980713, 0.002492321887984872, 0.0003713351907208562, 0.0013304309686645865, 0.2243311107158661, 0.0014875479973852634, 0.001776189892552793, 0.004199849907308817], [0.00037054435233585536, 0.1994810253381729, 0.002221039030700922, 0.00268344022333622, 0.0004585210990626365, 0.0035053405445069075, 0.12603561580181122, 0.030541587620973587, 0.19832639396190643, 0.020207317546010017, 0.0010437160963192582, 0.002369867404922843, 0.00016427249647676945, 0.19888418912887573, 0.0028500105254352093, 0.0008914186037145555, 0.0025618167128413916, 0.1993296593427658, 0.004893476143479347, 0.0019964706152677536, 0.001184286898933351], [0.0013923980295658112, 0.22955045104026794, 0.0035442730877548456, 0.0031362257432192564, 0.0012877926928922534, 0.0012235890608280897, 0.0034965495578944683, 0.011865091510117054, 0.22601574659347534, 0.040449321269989014, 0.0012743647675961256, 0.0014091457705944777, 0.0004347637004684657, 0.22666935622692108, 0.0011270632967352867, 0.0002578424755483866, 0.003696626517921686, 0.22717532515525818, 0.00561797060072422, 0.003836526069790125, 0.00653964513912797], [0.0030320018995553255, 0.2168780416250229, 0.003946838900446892, 0.003353858133777976, 0.0013499759370461106, 0.001780291786417365, 0.00587416160851717, 0.013764462433755398, 0.21690471470355988, 0.049526460468769073, 0.0022505908273160458, 0.004326729103922844, 0.002591586671769619, 0.2175443321466446, 0.003327328246086836, 0.0011260887840762734, 0.0066033462062478065, 0.2180895060300827, 0.010892828926444054, 0.009192069061100483, 0.007644696161150932], [0.05439063534140587, 0.01172176469117403, 0.04205864667892456, 0.05624078959226608, 0.04388204589486122, 0.08603322505950928, 0.056058820337057114, 0.042382173240184784, 0.011760693974792957, 0.05955028533935547, 0.04285766929388046, 0.04332555830478668, 0.066382497549057, 0.011757916770875454, 0.061657629907131195, 0.0665135458111763, 0.05945255607366562, 0.011749546974897385, 0.04940684512257576, 0.06472385674715042, 0.05809332802891731], [0.005255687981843948, 0.2291226089000702, 0.0027493848465383053, 0.004324016161262989, 0.0016621226677671075, 0.0006007499760016799, 0.0013518466148525476, 0.008015422150492668, 0.22863323986530304, 0.013497133739292622, 0.00614545913413167, 0.004344741348177195, 0.0016479372279718518, 0.2289285510778427, 0.000892037118319422, 0.0010659953113645315, 0.007731487043201923, 0.22952130436897278, 0.0062454636208713055, 0.006493686232715845, 0.011771016754209995], [0.019605690613389015, 0.10056139528751373, 0.053273219615221024, 0.054496265947818756, 0.049924585968256, 0.008100676350295544, 0.011967789381742477, 0.02821505442261696, 0.09929931908845901, 0.022009972482919693, 0.016740700230002403, 0.09642672538757324, 0.12614767253398895, 0.09961400181055069, 0.01270107552409172, 0.006352091208100319, 0.03286508470773697, 0.09960799664258957, 0.012290965765714645, 0.01769169047474861, 0.03210810199379921], [0.0031939444597810507, 0.2006763219833374, 0.018098875880241394, 0.005763653200119734, 0.008364656940102577, 0.004994169808924198, 0.0060309977270662785, 0.00197712704539299, 0.19545988738536835, 0.004209272563457489, 0.0030403181444853544, 0.033014848828315735, 0.05456239730119705, 0.19625155627727509, 0.026681696996092796, 0.004350895062088966, 0.007630009204149246, 0.19619785249233246, 0.012503444217145443, 0.0056945583783090115, 0.011303593404591084], [0.001453088829293847, 0.20103339850902557, 0.006402175407856703, 0.008160384371876717, 0.006408177316188812, 0.0008171297959052026, 0.0008627463248558342, 0.0011797175975516438, 0.19953952729701996, 0.0011340916389599442, 0.00102103257086128, 0.014211557805538177, 0.041573867201805115, 0.20095834136009216, 0.037963684648275375, 0.008299083448946476, 0.021642295643687248, 0.2011311948299408, 0.016788048669695854, 0.023074069991707802, 0.006346395239233971], [0.05447424203157425, 0.011739839799702168, 0.042006801813840866, 0.056135568767786026, 0.04376722872257233, 0.08602691441774368, 0.05603534355759621, 0.04235740005970001, 0.01177870575338602, 0.05943411961197853, 0.04282785952091217, 0.04326530545949936, 0.06640847027301788, 0.011775998398661613, 0.061708975583314896, 0.06656847149133682, 0.059416819363832474, 0.011767628602683544, 0.04956970363855362, 0.06478497385978699, 0.05814967304468155], [0.0013103400124236941, 0.21434403955936432, 0.000875916623044759, 0.0008739237091504037, 0.00041035556932911277, 0.001266054343432188, 0.005891740787774324, 0.0026875727344304323, 0.21295678615570068, 0.004157007671892643, 0.00022030685795471072, 0.0005902096745558083, 0.0008889876771718264, 0.21433177590370178, 0.010707363486289978, 0.005728808231651783, 0.020818907767534256, 0.21466408669948578, 0.06821931898593903, 0.015078163705766201, 0.003978326916694641], [0.0019439278403297067, 0.23684793710708618, 0.001581005286425352, 0.0007310609216801822, 0.0007072453154250979, 0.0004425272927619517, 0.000344991305610165, 0.0013193282065913081, 0.23217929899692535, 0.0016320981085300446, 0.00031942923669703305, 0.0011129003250971437, 0.0012116434518247843, 0.2334933876991272, 0.0034889124799519777, 0.0008288944372907281, 0.0069443960674107075, 0.2339446246623993, 0.02280893363058567, 0.010651517659425735, 0.007466042879968882], [0.010984974913299084, 0.19965477287769318, 0.006128160748630762, 0.004319387953728437, 0.0011382177472114563, 0.001088591874577105, 0.0008723019273020327, 0.002253294689580798, 0.19734349846839905, 0.0032679084688425064, 0.0020284054335206747, 0.008521736599504948, 0.010391167365014553, 0.19845284521579742, 0.011594588868319988, 0.0036673240829259157, 0.014363891445100307, 0.19879277050495148, 0.05482987314462662, 0.04698978364467621, 0.023316364735364914], [0.05448366329073906, 0.01171701867133379, 0.04201037064194679, 0.05616769194602966, 0.04380824416875839, 0.08609934151172638, 0.056059688329696655, 0.04236942157149315, 0.011755803599953651, 0.05944199860095978, 0.042858418077230453, 0.043254304677248, 0.06643631309270859, 0.011753074824810028, 0.06168016418814659, 0.0665593221783638, 0.05938767269253731, 0.011744720861315727, 0.04949868470430374, 0.06475508958101273, 0.05815890058875084], [0.009984258562326431, 0.20913977921009064, 0.013021796941757202, 0.007397239096462727, 0.00843120738863945, 0.0037182793021202087, 0.0011158802080899477, 0.0026401726063340902, 0.20457366108894348, 0.004073693882673979, 0.0031644280534237623, 0.00558223482221365, 0.004376919008791447, 0.20551835000514984, 0.01075566653162241, 0.002864646492525935, 0.015114570036530495, 0.20580098032951355, 0.026451269164681435, 0.019427325576543808, 0.03684771806001663], [0.013367903418838978, 0.20639945566654205, 0.015686819329857826, 0.01160274725407362, 0.005149205680936575, 0.0033170082606375217, 0.004900895059108734, 0.0029675124678760767, 0.20176959037780762, 0.006492118816822767, 0.0041645183227956295, 0.010145790874958038, 0.006223808042705059, 0.2024575173854828, 0.01074168086051941, 0.002860759850591421, 0.008555365726351738, 0.2027624398469925, 0.01909950003027916, 0.01966438814997673, 0.04167095571756363], [0.01349890697747469, 0.1546401083469391, 0.07435614615678787, 0.04117545485496521, 0.0196137186139822, 0.005260922014713287, 0.008826007135212421, 0.00857329647988081, 0.15253500640392303, 0.014935067854821682, 0.008430838584899902, 0.04669172316789627, 0.030543362721800804, 0.1530059576034546, 0.009600778110325336, 0.0037850658409297466, 0.012434939853847027, 0.15330421924591064, 0.01840507611632347, 0.022625885903835297, 0.047757554799318314]], [[0.11326005309820175, 0.03442635014653206, 0.03834392875432968, 0.05114157870411873, 0.0045424895361065865, 0.010031078942120075, 0.0032546804286539555, 0.03470562398433685, 0.03375118598341942, 0.09673947840929031, 0.011454527266323566, 0.029203591868281364, 0.00473735760897398, 0.0337676964700222, 0.014265300706028938, 0.006561881862580776, 0.1399473398923874, 0.033777326345443726, 0.0489882156252861, 0.0816175788640976, 0.17548280954360962], [0.10089929401874542, 0.010734659619629383, 0.04802243411540985, 0.03391669690608978, 0.03054889105260372, 0.04021067917346954, 0.05931156128644943, 0.07012902200222015, 0.010788059793412685, 0.059429459273815155, 0.0681338757276535, 0.04511281102895737, 0.044317953288555145, 0.01079217903316021, 0.06545919179916382, 0.056040406227111816, 0.07424061745405197, 0.010786846280097961, 0.047764260321855545, 0.05890392139554024, 0.05445718765258789], [0.0032213707454502583, 0.09438609331846237, 0.3077819347381592, 0.02359851449728012, 0.007822920568287373, 0.0016537021147087216, 0.0009893719106912613, 0.002882425906136632, 0.09235505759716034, 0.04627738147974014, 0.0026086035650223494, 0.16554686427116394, 0.006805640645325184, 0.09244590252637863, 0.005052219610661268, 0.0012121598701924086, 0.008394476026296616, 0.09245732426643372, 0.016546374186873436, 0.00890251062810421, 0.019059179350733757], [0.0023802914656698704, 0.06541892141103745, 0.023525776341557503, 0.5402836799621582, 0.015998641029000282, 0.001235346426256001, 0.00012160811456851661, 0.0019900724291801453, 0.06404830515384674, 0.004271045792847872, 0.004788561258465052, 0.0247082207351923, 0.04489700123667717, 0.06415583938360214, 0.0008553784573450685, 0.0009443530580028892, 0.025588981807231903, 0.06414763629436493, 0.011027973145246506, 0.01620553806424141, 0.023406852036714554], [0.0011093836510553956, 0.026821738108992577, 0.05837136507034302, 0.022527968510985374, 0.536349892616272, 0.00724125187844038, 0.0004222197749186307, 0.0032650241628289223, 0.025933438912034035, 0.0041820695623755455, 0.001360128982923925, 0.07842958718538284, 0.145858496427536, 0.026012543588876724, 0.002601401647552848, 0.0009004190214909613, 0.005666726268827915, 0.026013992726802826, 0.006820285692811012, 0.008266358636319637, 0.011845745146274567], [0.00021535770792979747, 0.01827177032828331, 0.00046903235488571227, 0.000532656442373991, 0.0018669740529730916, 0.915078341960907, 0.0013300483115017414, 0.0010904684895649552, 0.017631877213716507, 0.0022407725919038057, 0.0005271584377624094, 0.0003640469803940505, 0.00020681557361967862, 0.017629001289606094, 0.0020263222977519035, 0.00010313728853361681, 0.0001843333157012239, 0.017614565789699554, 0.0006606416427530348, 0.0003592385910451412, 0.0015974018024280667], [0.0001488357811467722, 0.019874809309840202, 0.0005560263525694609, 0.00019282870925962925, 0.00014850456500425935, 0.0007539436919614673, 0.9066007137298584, 0.004017062019556761, 0.019584404304623604, 0.0018667280673980713, 4.592584082274698e-05, 0.0003387625329196453, 0.0001527408167021349, 0.019501952454447746, 0.0003115884028375149, 0.00405763229355216, 0.0004668540495913476, 0.019517822191119194, 0.0007562859682366252, 0.00042381376260891557, 0.000682698970194906], [0.0015406868187710643, 0.07996836304664612, 0.013024925254285336, 0.011671157553792, 0.00879370141774416, 0.0017156284302473068, 0.006983745377510786, 0.3663735091686249, 0.07774393260478973, 0.06939706206321716, 0.0013871914707124233, 0.00860016793012619, 0.01547290850430727, 0.07771898061037064, 0.003046659752726555, 0.0023830465506762266, 0.13405995070934296, 0.07775230705738068, 0.0072084213607013226, 0.01873081550002098, 0.016426924616098404], [0.10093668103218079, 0.010775124654173851, 0.04790130630135536, 0.03385469689965248, 0.03073577955365181, 0.03984874114394188, 0.059734757989645004, 0.07023529708385468, 0.010831248946487904, 0.05921094864606857, 0.06792151927947998, 0.04526862874627113, 0.04477939009666443, 0.01083527784794569, 0.06501156836748123, 0.05658723786473274, 0.07398130744695663, 0.010830029845237732, 0.04776809737086296, 0.058707837015390396, 0.05424452945590019], [0.0017673417460173368, 0.11685483157634735, 0.017572645097970963, 0.0034210875164717436, 0.00071011419640854, 0.0018206743989139795, 0.0013161145616322756, 0.0178359542042017, 0.1140441969037056, 0.4150664210319519, 0.0018150537507608533, 0.00796037632972002, 0.000576921331230551, 0.11399342119693756, 0.0035512058530002832, 0.0002823804097715765, 0.013380419462919235, 0.113993801176548, 0.026511138305068016, 0.009837681427598, 0.017688238993287086], [0.0005838805227540433, 0.21843171119689941, 0.0038591334596276283, 0.0640629455447197, 0.007370892912149429, 0.005601671990007162, 0.0002512387291062623, 0.0023115240037441254, 0.20988869667053223, 0.007263371255248785, 0.012804260477423668, 0.003214366966858506, 0.004072645679116249, 0.2098671942949295, 0.0013140199007466435, 0.0005070444894954562, 0.010768423788249493, 0.210006445646286, 0.0048012216575443745, 0.005634368862956762, 0.017384950071573257], [0.001915097702294588, 0.06316030025482178, 0.20555652678012848, 0.06493494659662247, 0.011869627982378006, 0.0012389186304062605, 0.00020245256018824875, 0.00217644264921546, 0.06174616888165474, 0.02010345086455345, 0.0027694543823599815, 0.3780171871185303, 0.014552627690136433, 0.06183765083551407, 0.0032337824814021587, 0.0007722142618149519, 0.01228998601436615, 0.06182049214839935, 0.010706073604524136, 0.0074302623979747295, 0.013666324317455292], [0.0007821302278898656, 0.024989603087306023, 0.023065827786922455, 0.03098834492266178, 0.06338697671890259, 0.00032357918098568916, 0.00026359036564826965, 0.0022972056176513433, 0.024339471012353897, 0.002100215293467045, 0.0008099249098449945, 0.03286772221326828, 0.6964263916015625, 0.024407343938946724, 0.004643949214369059, 0.0013656031806021929, 0.018504224717617035, 0.024414224550127983, 0.006152887362986803, 0.008894432336091995, 0.00897645577788353], [0.10091767460107803, 0.010776044800877571, 0.04796464368700981, 0.033863622695207596, 0.030841773375868797, 0.03988618403673172, 0.05958012863993645, 0.07021429389715195, 0.010832279920578003, 0.05915595591068268, 0.0677076131105423, 0.04532022401690483, 0.04489623382687569, 0.010836461558938026, 0.06498350948095322, 0.05663515627384186, 0.07400913536548615, 0.010831200517714024, 0.04779213294386864, 0.05875467136502266, 0.054201021790504456], [0.0006238883943296969, 0.13970166444778442, 0.010586538352072239, 0.001958338776603341, 0.0023272910621017218, 0.03205922245979309, 0.00652339169755578, 0.0028719576075673103, 0.13585802912712097, 0.009682431817054749, 0.00036808362347073853, 0.012257863767445087, 0.0028574983589351177, 0.13578523695468903, 0.31674936413764954, 0.013314458541572094, 0.008618852123618126, 0.1358233094215393, 0.016435109078884125, 0.00699644023552537, 0.008601021952927113], [0.0005478819366544485, 0.03311007469892502, 0.0008633506367914379, 0.002091949339956045, 0.0005904675927013159, 0.0007985408301465213, 0.016766659915447235, 0.00233841547742486, 0.03245988115668297, 0.000776107597630471, 0.0001622221025172621, 0.0009756142389960587, 0.0010321637382730842, 0.0324670672416687, 0.013201563619077206, 0.7910736203193665, 0.026534629985690117, 0.03250845894217491, 0.004134804010391235, 0.004229319281876087, 0.0033371683675795794], [0.0012597597669810057, 0.010522942058742046, 0.0007884950609877706, 0.0051500918343663216, 0.001334569533355534, 9.87880994216539e-05, 3.107616430497728e-05, 0.008556784130632877, 0.010183459147810936, 0.0016554129542782903, 0.0005726030212827027, 0.0010704705491662025, 0.008936877362430096, 0.010187631472945213, 0.0013491129502654076, 0.0023721968755126, 0.8962735533714294, 0.010192408226430416, 0.004382922314107418, 0.014072539284825325, 0.011008151806890965], [0.1009552851319313, 0.010772920213639736, 0.047984566539525986, 0.0338333398103714, 0.030844036489725113, 0.03983498364686966, 0.05966373160481453, 0.07024582475423813, 0.010829314589500427, 0.05916428193449974, 0.06769602745771408, 0.04533283784985542, 0.044878289103507996, 0.010833477601408958, 0.06488695740699768, 0.05666255205869675, 0.0740194022655487, 0.010828224942088127, 0.04779134318232536, 0.05875494331121445, 0.05418761447072029], [0.0026503854896873236, 0.11688725650310516, 0.004382941406220198, 0.006069321185350418, 0.0008404103573411703, 0.0014100335538387299, 0.000522872491274029, 0.0018596536247059703, 0.11411789804697037, 0.019636506214737892, 0.0013776309788227081, 0.002949357032775879, 0.0013335079420357943, 0.11418702453374863, 0.006375087425112724, 0.002070339396595955, 0.037191763520240784, 0.11428039520978928, 0.38798990845680237, 0.02311791107058525, 0.04074973240494728], [0.004053680691868067, 0.1508130580186844, 0.005382539704442024, 0.03364994749426842, 0.003966915421187878, 0.0011026186402887106, 0.00028097943868488073, 0.005544954910874367, 0.14581359922885895, 0.01692076027393341, 0.002602239837870002, 0.004658899735659361, 0.006016156170517206, 0.14608536660671234, 0.005971692968159914, 0.0025946591049432755, 0.09860141575336456, 0.1462191790342331, 0.05783521756529808, 0.08558796346187592, 0.07629827409982681], [0.002233415376394987, 0.19067712128162384, 0.01407715119421482, 0.06695473194122314, 0.009506747126579285, 0.002710388507694006, 0.0007664858712814748, 0.0065323421731591225, 0.18472231924533844, 0.02036184072494507, 0.0020812349393963814, 0.007904722355306149, 0.004745567217469215, 0.1849045604467392, 0.0030397686641663313, 0.0005466190632432699, 0.022949611768126488, 0.18509484827518463, 0.016034290194511414, 0.020291395485401154, 0.053864769637584686]], [[0.14451593160629272, 0.025142353028059006, 0.16135245561599731, 0.014397612772881985, 0.03772613778710365, 0.005587657913565636, 0.023282747715711594, 0.010680333711206913, 0.02458168752491474, 0.09383852779865265, 0.015206561423838139, 0.09246265143156052, 0.017113052308559418, 0.024597352370619774, 0.03543299064040184, 0.03412158042192459, 0.009084302000701427, 0.024606801569461823, 0.06655814498662949, 0.07471662759780884, 0.0649944469332695], [0.015703462064266205, 0.00852914061397314, 0.04066002368927002, 0.009332331828773022, 0.009325527586042881, 0.08381155878305435, 0.16530339419841766, 0.019851570948958397, 0.008583464659750462, 0.18618397414684296, 0.009423844516277313, 0.033912599086761475, 0.008216054178774357, 0.008587334305047989, 0.08557727187871933, 0.02450290508568287, 0.025133205577731133, 0.008584283292293549, 0.16043239831924438, 0.06405598670244217, 0.02428971230983734], [0.008923450484871864, 0.18985728919506073, 0.05514970421791077, 0.055737193673849106, 0.013905199244618416, 0.0015646161045879126, 0.005080852657556534, 0.006134588271379471, 0.18467989563941956, 0.008847812190651894, 0.005974170286208391, 0.04710531607270241, 0.009294520132243633, 0.18478986620903015, 0.0012601386988535523, 0.004193542990833521, 0.0048203980550169945, 0.18499162793159485, 0.00627293111756444, 0.006894758436828852, 0.014522191137075424], [0.012133247219026089, 0.16976065933704376, 0.08788063377141953, 0.03165678679943085, 0.03494936227798462, 0.0023110886104404926, 0.010205007158219814, 0.001555348513647914, 0.16388963162899017, 0.010931973345577717, 0.011070013977587223, 0.07962890714406967, 0.011303341016173363, 0.16382957994937897, 0.005765555892139673, 0.001826551160775125, 0.001399315195158124, 0.1639864146709442, 0.011195818893611431, 0.008113646879792213, 0.016607152298092842], [0.014563420787453651, 0.18726693093776703, 0.0230843648314476, 0.0066027590073645115, 0.03290106728672981, 0.050632741302251816, 0.06742104142904282, 0.014683610759675503, 0.18232306838035583, 0.004551879595965147, 0.006971522234380245, 0.007339665200561285, 0.002424662234261632, 0.18196280300617218, 0.00430041179060936, 0.005083129741251469, 0.001105370232835412, 0.1822391003370285, 0.007546958047896624, 0.00376985059119761, 0.013225726783275604], [4.4638116378337145e-05, 0.0009731639875099063, 0.00010201097757089883, 1.9377963326405734e-05, 2.746827158262022e-05, 0.0029006991535425186, 0.9871171116828918, 0.0010436942102387547, 0.0009495275444351137, 0.0004297215200494975, 3.7780885122629115e-06, 7.894172449596226e-05, 1.527839594928082e-05, 0.0009509471128694713, 0.00036660980549640954, 0.003283370053395629, 4.818823072127998e-05, 0.0009520514286123216, 0.0003970273828599602, 0.00015067779168020934, 0.00014575626119039953], [0.0010897564934566617, 0.08735979348421097, 0.0025583943352103233, 0.003587311366572976, 0.0066518764942884445, 0.020165234804153442, 0.4400414228439331, 0.10913943499326706, 0.08635394275188446, 0.012419797480106354, 0.0017993266228586435, 0.0009706856217235327, 0.002864333800971508, 0.08635067194700241, 0.0015788761666044593, 0.02008102834224701, 0.015066582709550858, 0.08647506684064865, 0.0035390923731029034, 0.007170327007770538, 0.0047371662221848965], [0.013776597566902637, 0.21665827929973602, 0.00219707447104156, 0.002504656556993723, 0.003164804307743907, 0.004425405990332365, 0.010685409419238567, 0.013233404606580734, 0.21220985054969788, 0.0575961135327816, 0.0017780095804482698, 0.0008524541626684368, 0.0031337523832917213, 0.21184203028678894, 0.003554238937795162, 0.0029915855266153812, 0.004095848184078932, 0.21221327781677246, 0.012016745284199715, 0.005162729416042566, 0.005907937418669462], [0.01586306095123291, 0.008726922795176506, 0.04024522379040718, 0.009412155486643314, 0.009463555179536343, 0.08475132286548615, 0.16292813420295715, 0.0202740877866745, 0.008784068748354912, 0.18528535962104797, 0.009572021663188934, 0.03365089371800423, 0.008385683409869671, 0.008787978440523148, 0.08609241992235184, 0.024806614965200424, 0.025627894327044487, 0.008784903213381767, 0.15960140526294708, 0.06463175266981125, 0.024324456229805946], [0.02044416032731533, 0.19409771263599396, 0.007906127721071243, 0.00822930783033371, 0.007968886755406857, 0.0015843333676457405, 0.0042277052998542786, 0.022094227373600006, 0.1890982687473297, 0.008765793405473232, 0.014299895614385605, 0.010075041092932224, 0.010197841562330723, 0.18889620900154114, 0.0015080871526151896, 0.06222335994243622, 0.017127200961112976, 0.18923310935497284, 0.007858028635382652, 0.016394848003983498, 0.01776994578540325], [0.0017230004305019975, 0.006097993813455105, 0.30650800466537476, 0.0150410495698452, 0.003152637742459774, 0.000509035075083375, 0.0022672421764582396, 0.0004592365585267544, 0.005867804866284132, 0.022503141313791275, 0.015363799408078194, 0.520469605922699, 0.00543253542855382, 0.005848959553986788, 0.006829490885138512, 0.0017271166434511542, 0.0013653876958414912, 0.005841019097715616, 0.021805062890052795, 0.020333966240286827, 0.030853968113660812], [0.00827088113874197, 0.20270997285842896, 0.021098794415593147, 0.013994729146361351, 0.004840319510549307, 0.0011007010471075773, 0.002822291338816285, 0.002366981003433466, 0.19703137874603271, 0.0034813424572348595, 0.005321781150996685, 0.07741913199424744, 0.019004177302122116, 0.19740146398544312, 0.003978985361754894, 0.009966270066797733, 0.004470011219382286, 0.19745677709579468, 0.007037382572889328, 0.009050085209310055, 0.011176596395671368], [0.028032008558511734, 0.17627514898777008, 0.010761185549199581, 0.006706956308335066, 0.013392100110650063, 0.013004668988287449, 0.015575543977320194, 0.004564725793898106, 0.17198757827281952, 0.003926979377865791, 0.0066802892833948135, 0.020007416605949402, 0.03484170138835907, 0.1721232682466507, 0.06094500422477722, 0.044785626232624054, 0.004734670277684927, 0.172104150056839, 0.016941839829087257, 0.007221152074635029, 0.015387937426567078], [0.015902826562523842, 0.00878186896443367, 0.040157660841941833, 0.009400665760040283, 0.009473375976085663, 0.08488345146179199, 0.16288916766643524, 0.02031123638153076, 0.008839454501867294, 0.1847042590379715, 0.009561849758028984, 0.03361979126930237, 0.008406375534832478, 0.00884343683719635, 0.08608793467283249, 0.024863766506314278, 0.025645554065704346, 0.008840363472700119, 0.15977299213409424, 0.06472945958375931, 0.024284496903419495], [0.0004045293608214706, 0.0016153836622834206, 0.00019647004955913872, 0.00013016541197430342, 5.940431583439931e-05, 0.002929513808339834, 0.04522545263171196, 0.003878749441355467, 0.0015664326492697, 0.00015929609071463346, 4.3423715396784246e-05, 0.000299926963634789, 0.00020547339227050543, 0.0015698393108323216, 0.005791098810732365, 0.9209500551223755, 0.00612121494486928, 0.0015699591021984816, 0.003450928721576929, 0.0027669514529407024, 0.001065758871845901], [0.003490366507321596, 0.017521662637591362, 0.004576489794999361, 0.006238784175366163, 0.0011770413257181644, 0.0007251838687807322, 0.014177825301885605, 0.05944976583123207, 0.016835367307066917, 0.011414088308811188, 0.0006052831304259598, 0.006000195164233446, 0.0024642369244247675, 0.016880672425031662, 0.007957348600029945, 0.14952726662158966, 0.5040485262870789, 0.01688350923359394, 0.028264174237847328, 0.11457319557666779, 0.017189012840390205], [0.0428110808134079, 0.1609055995941162, 0.007805194240063429, 0.0036872108466923237, 0.006218517664819956, 0.0024684355594217777, 0.0019760746508836746, 0.004135747440159321, 0.15576137602329254, 0.017935197800397873, 0.0058916532434523106, 0.006676238961517811, 0.01064901240170002, 0.15571704506874084, 0.012371574528515339, 0.014236880466341972, 0.01981748826801777, 0.1559056043624878, 0.1434682458639145, 0.051045846194028854, 0.0205160491168499], [0.01591191627085209, 0.008775436319410801, 0.04016204550862312, 0.009411036968231201, 0.009490331634879112, 0.08486707508563995, 0.16274556517601013, 0.020337197929620743, 0.008832979947328568, 0.18489603698253632, 0.009574037976562977, 0.0335940383374691, 0.008413422852754593, 0.008836948312819004, 0.0860353410243988, 0.02484472468495369, 0.02566417306661606, 0.008833877742290497, 0.1597001701593399, 0.064768485724926, 0.024305226281285286], [0.010971253737807274, 0.06854655593633652, 0.03895832970738411, 0.005175538826733828, 0.029704226180911064, 0.0009178144973702729, 0.0021498326677829027, 0.018025053665041924, 0.06619873642921448, 0.00630651880055666, 0.005335320718586445, 0.04473382234573364, 0.015185533091425896, 0.06621641665697098, 0.0025953357107937336, 0.11155696213245392, 0.028080729767680168, 0.06631587445735931, 0.03945785015821457, 0.3502965271472931, 0.023271668702363968], [0.07000868022441864, 0.1585809886455536, 0.02461875230073929, 0.012254787608981133, 0.02066974528133869, 0.001653445651754737, 0.0018331599421799183, 0.0014954134821891785, 0.1535196453332901, 0.01049811951816082, 0.005798112601041794, 0.03598354384303093, 0.011731605976819992, 0.1536102294921875, 0.006904320325702429, 0.01938687637448311, 0.004430679138749838, 0.1538487672805786, 0.08017871528863907, 0.05095723271369934, 0.02203715406358242], [0.04418075457215309, 0.07227612286806107, 0.1571054458618164, 0.01818922348320484, 0.0395648218691349, 0.005436429288238287, 0.010807326063513756, 0.005550871603190899, 0.06971403956413269, 0.04564820975065231, 0.01503001432865858, 0.11725867539644241, 0.02117885649204254, 0.06971113383769989, 0.017559751868247986, 0.0153314508497715, 0.0058982339687645435, 0.06974594295024872, 0.0834759995341301, 0.06100688874721527, 0.05532979965209961]], [[0.09847813844680786, 0.04766658693552017, 0.039415545761585236, 0.07870899140834808, 0.018876556307077408, 0.0021184540819376707, 0.0012858634581789374, 0.011270317249000072, 0.046593077480793, 0.027973512187600136, 0.03365747258067131, 0.026913121342658997, 0.014486027881503105, 0.046633001416921616, 0.033984940499067307, 0.019268598407506943, 0.03733781725168228, 0.04664899781346321, 0.04812547564506531, 0.03506658226251602, 0.28549087047576904], [0.01675952784717083, 0.043814148753881454, 0.03053794614970684, 0.0365779735147953, 0.06082604452967644, 0.11072862148284912, 0.08730600029230118, 0.06555138528347015, 0.04397707059979439, 0.11461734771728516, 0.028169088065624237, 0.033592309802770615, 0.03269501030445099, 0.04400305077433586, 0.04016082361340523, 0.03861112892627716, 0.04100510850548744, 0.044004034250974655, 0.030232714489102364, 0.035876091569662094, 0.020954592153429985], [0.014343149960041046, 0.18861281871795654, 0.031730346381664276, 0.06638120114803314, 0.015835311263799667, 0.0007556540658697486, 0.001023046555928886, 0.004650286864489317, 0.18241657316684723, 0.008381037041544914, 0.014961338602006435, 0.008345483802258968, 0.00401220703497529, 0.18220290541648865, 0.0022479172330349684, 0.0023005688562989235, 0.010762443765997887, 0.18244771659374237, 0.007014147937297821, 0.008688659407198429, 0.06288732588291168], [0.015901150181889534, 0.09085895121097565, 0.1704675555229187, 0.13913580775260925, 0.039945513010025024, 0.001052949344739318, 0.0007007686072029173, 0.01163639035075903, 0.08798757940530777, 0.010084329172968864, 0.03056628257036209, 0.05294644087553024, 0.02430768311023712, 0.08790265768766403, 0.004668550565838814, 0.003363629337400198, 0.024647288024425507, 0.08800029009580612, 0.013471159152686596, 0.012372088618576527, 0.0899830088019371], [0.005030475556850433, 0.22267350554466248, 0.025761306285858154, 0.03326635807752609, 0.011860783211886883, 0.0006087281508371234, 0.00044769950909540057, 0.004491250496357679, 0.21662263572216034, 0.004288091324269772, 0.004930615425109863, 0.006252946797758341, 0.004476939793676138, 0.21649852395057678, 0.0014195453841239214, 0.0012125312350690365, 0.006088839378207922, 0.21689064800739288, 0.004248437471687794, 0.0024812621995806694, 0.010448801331222057], [0.00017363585357088596, 0.24970382452011108, 0.0007803694461472332, 0.0040796841494739056, 0.002882725792005658, 0.001917880610562861, 0.0015246192924678326, 0.0021858687978237867, 0.2431962490081787, 0.0032784028444439173, 0.0008965159649960697, 0.00016196799697354436, 0.00039254504372365773, 0.24303790926933289, 0.00012632373545784503, 9.866825712379068e-05, 0.0005425825947895646, 0.24353976547718048, 0.00045821050298400223, 0.0004223113355692476, 0.0006000685971230268], [0.0010621101828292012, 0.2413395345211029, 0.0029773018322885036, 0.007532442454248667, 0.015473434701561928, 0.003056484507396817, 0.0017487603472545743, 0.004303827881813049, 0.23434825241565704, 0.005304843652993441, 0.003049807855859399, 0.0008572171209380031, 0.0016808237414807081, 0.2342100590467453, 0.0007208414026536047, 0.00025496305897831917, 0.0011806136462837458, 0.23459991812705994, 0.0010959483915939927, 0.0011091855121776462, 0.004093571100383997], [0.0009374766377732158, 0.23660123348236084, 0.004661852028220892, 0.013206342235207558, 0.018958697095513344, 0.004031254909932613, 0.0010091158328577876, 0.005588953848928213, 0.23115409910678864, 0.003977993968874216, 0.0036174359265714884, 0.0018056080443784595, 0.0023747608065605164, 0.23101657629013062, 0.00039395777275785804, 0.0002193877735408023, 0.0012362860143184662, 0.23146867752075195, 0.0014181709848344326, 0.0012560919858515263, 0.0050660185515880585], [0.016747301444411278, 0.043706901371479034, 0.03047715499997139, 0.03612866997718811, 0.061017438769340515, 0.11161191761493683, 0.08824693411588669, 0.06591171771287918, 0.043873660266399384, 0.11444016546010971, 0.02801201492547989, 0.03339247405529022, 0.03261289745569229, 0.04389866068959236, 0.039896588772535324, 0.038392700254917145, 0.04084230959415436, 0.04389972239732742, 0.030138524249196053, 0.03592611476778984, 0.020826146006584167], [0.0031448304653167725, 0.22788573801517487, 0.006679343059659004, 0.014527160674333572, 0.02711854875087738, 0.006290757097303867, 0.002460838295519352, 0.008882390335202217, 0.2222798615694046, 0.011108636856079102, 0.004190557636320591, 0.001405513845384121, 0.0016417726874351501, 0.22205379605293274, 0.0008033470367081463, 0.0006170819979161024, 0.002050442388281226, 0.2223803699016571, 0.001443863264285028, 0.0019489903934299946, 0.01108620222657919], [0.027775343507528305, 0.07008272409439087, 0.07020490616559982, 0.24430762231349945, 0.05887080729007721, 0.0052405064925551414, 0.001671557198278606, 0.023546189069747925, 0.06886125355958939, 0.01898743398487568, 0.04124508798122406, 0.03705161437392235, 0.020239543169736862, 0.06882558017969131, 0.010138587094843388, 0.006944945547729731, 0.017632262781262398, 0.0688905268907547, 0.009380402974784374, 0.013634244911372662, 0.11646880954504013], [0.01983341947197914, 0.11280474066734314, 0.06969570368528366, 0.14302664995193481, 0.022620655596256256, 0.0012711059534922242, 0.0011822185479104519, 0.01114656962454319, 0.11019282788038254, 0.011190337128937244, 0.03292868658900261, 0.04288281500339508, 0.016555897891521454, 0.10993010550737381, 0.006404961459338665, 0.0057713985443115234, 0.025831574574112892, 0.11006120592355728, 0.010743169113993645, 0.0188694316893816, 0.11705657094717026], [0.0055215321481227875, 0.16981962323188782, 0.043703388422727585, 0.04881595820188522, 0.017701998353004456, 0.0012689623981714249, 0.0007219528779387474, 0.0075032575987279415, 0.16607847809791565, 0.007033774629235268, 0.019990649074316025, 0.07136175036430359, 0.03174398094415665, 0.16603128612041473, 0.008089502342045307, 0.004096102435141802, 0.012090779840946198, 0.16626475751399994, 0.012381331995129585, 0.008645576424896717, 0.031135348603129387], [0.01671857014298439, 0.043629616498947144, 0.030477073043584824, 0.036109451204538345, 0.06101636588573456, 0.11163052916526794, 0.08828908950090408, 0.06592313945293427, 0.043795906007289886, 0.11446892470121384, 0.028030816465616226, 0.03346326947212219, 0.03265712410211563, 0.043820884078741074, 0.039937324821949005, 0.03841554746031761, 0.04084597900509834, 0.04382194206118584, 0.030166897922754288, 0.03596286475658417, 0.020818697288632393], [0.0019168893340975046, 0.23700401186943054, 0.0033397492952644825, 0.009390766732394695, 0.009142578579485416, 0.001473920652642846, 0.0004885947564616799, 0.0030033448711037636, 0.23102430999279022, 0.0042360695078969, 0.010027107782661915, 0.004130211658775806, 0.003414537524804473, 0.23099324107170105, 0.0023747843224555254, 0.0011080512776970863, 0.0031482975464314222, 0.23132865130901337, 0.0024552112445235252, 0.002749927807599306, 0.007249839603900909], [0.0017691809916868806, 0.24474167823791504, 0.0013145537814125419, 0.003629822749644518, 0.0019583944231271744, 0.0004017988976556808, 6.13965094089508e-05, 0.0013301082653924823, 0.23957332968711853, 0.0016588199650868773, 0.0043784393928945065, 0.0020103370770812035, 0.002060080412775278, 0.239549458026886, 0.002067644614726305, 0.0010124958353117108, 0.003035411238670349, 0.2398650348186493, 0.001881696400232613, 0.0014182470040395856, 0.006282129790633917], [0.006844579707831144, 0.16903634369373322, 0.024515556171536446, 0.0561467781662941, 0.03220786899328232, 0.0007104634423740208, 0.00019862271437887102, 0.006977562326937914, 0.16593770682811737, 0.006289638113230467, 0.03137863799929619, 0.04195793345570564, 0.03040159121155739, 0.16588865220546722, 0.006546519696712494, 0.004535987973213196, 0.02202264964580536, 0.16612756252288818, 0.009305933490395546, 0.0063359676860272884, 0.04663350060582161], [0.016730405390262604, 0.043547481298446655, 0.030484899878501892, 0.036095499992370605, 0.06105419620871544, 0.11171171814203262, 0.08837204426527023, 0.06592977792024612, 0.04371371492743492, 0.11451937258243561, 0.028027283027768135, 0.03346182778477669, 0.03265715390443802, 0.04373861476778984, 0.039950963109731674, 0.03843652829527855, 0.04085865616798401, 0.04373965784907341, 0.03017355129122734, 0.035975486040115356, 0.020821237936615944], [0.011014255695044994, 0.2036176323890686, 0.01061862614005804, 0.014097769744694233, 0.017472732812166214, 0.001993864541873336, 0.0003541780461091548, 0.006064087618142366, 0.19843816757202148, 0.008041128516197205, 0.02443120814859867, 0.01275121234357357, 0.014967737719416618, 0.1984110027551651, 0.009790759533643723, 0.004806939046829939, 0.019797716289758682, 0.19854918122291565, 0.008841710165143013, 0.006551668047904968, 0.029388511553406715], [0.011483751237392426, 0.2025476098060608, 0.01356547325849533, 0.02133314311504364, 0.01085618045181036, 0.0014124076114967465, 0.0005354117602109909, 0.00747890817001462, 0.1989276111125946, 0.0075307004153728485, 0.017727721482515335, 0.018566209822893143, 0.01147756539285183, 0.199020117521286, 0.00917277205735445, 0.00582509022206068, 0.013656179420650005, 0.19926662743091583, 0.008058413863182068, 0.006175825837999582, 0.03538227081298828], [0.01653985120356083, 0.14352424442768097, 0.032291069626808167, 0.05072397366166115, 0.015894899144768715, 0.0031672329641878605, 0.00184541754424572, 0.015116305090487003, 0.1402573138475418, 0.027934880927205086, 0.024598756805062294, 0.03480459749698639, 0.016488049179315567, 0.14038872718811035, 0.019320905208587646, 0.012096191756427288, 0.0283797774463892, 0.1405399739742279, 0.033354103565216064, 0.02023831196129322, 0.08249537646770477]], [[0.11618337035179138, 0.012228022329509258, 0.04938571900129318, 0.06289058178663254, 0.010182489641010761, 0.0153384730219841, 0.020091282203793526, 0.035365376621484756, 0.011893370188772678, 0.09706804156303406, 0.02342299371957779, 0.03147602081298828, 0.016460314393043518, 0.011909916065633297, 0.056872718036174774, 0.011178625747561455, 0.011630057357251644, 0.011908823624253273, 0.07075956463813782, 0.11095128953456879, 0.21280302107334137], [0.016213873401284218, 0.07937999069690704, 0.035254478454589844, 0.050684187561273575, 0.06993864476680756, 0.056094035506248474, 0.04737686365842819, 0.025464043021202087, 0.08008651435375214, 0.02733497880399227, 0.02198793552815914, 0.04079129919409752, 0.07580312341451645, 0.08020811527967453, 0.05084894970059395, 0.037886664271354675, 0.04125869274139404, 0.08021403849124908, 0.03710036724805832, 0.02481096237897873, 0.0212622731924057], [0.04687858000397682, 0.06876014173030853, 0.04460607469081879, 0.11783669888973236, 0.05672667175531387, 0.01566300541162491, 0.009019236080348492, 0.03082258813083172, 0.06718577444553375, 0.0436432883143425, 0.0249184500426054, 0.024016832932829857, 0.04633018746972084, 0.06727246195077896, 0.024718886241316795, 0.009457769803702831, 0.016784027218818665, 0.06728062778711319, 0.043900638818740845, 0.06110508739948273, 0.1130729392170906], [0.033831968903541565, 0.07407274097204208, 0.04650215432047844, 0.08258172869682312, 0.08343635499477386, 0.023353738710284233, 0.010451196692883968, 0.031657855957746506, 0.0719805657863617, 0.021002933382987976, 0.013609427027404308, 0.026391776278614998, 0.04950929805636406, 0.07206398248672485, 0.03427964076399803, 0.00731315091252327, 0.02186829410493374, 0.07206717878580093, 0.02614522911608219, 0.0463496558368206, 0.1515311747789383], [0.013858710415661335, 0.17445968091487885, 0.012697952799499035, 0.052976515144109726, 0.019826039671897888, 0.006705369800329208, 0.004700108431279659, 0.017603276297450066, 0.1709582656621933, 0.019443223252892494, 0.012886811047792435, 0.009790326468646526, 0.012837252579629421, 0.17127302289009094, 0.010011096484959126, 0.006833724211901426, 0.016346057876944542, 0.17128367722034454, 0.022736195474863052, 0.016002831980586052, 0.056769825518131256], [0.02008702978491783, 0.14053671061992645, 0.010134787298738956, 0.028414981439709663, 0.003263686317950487, 0.006748633459210396, 0.006072765216231346, 0.06714934855699539, 0.13668766617774963, 0.056645989418029785, 0.019683340564370155, 0.008246221579611301, 0.005314847454428673, 0.13692547380924225, 0.011765042319893837, 0.007880361750721931, 0.030343635007739067, 0.13692311942577362, 0.04292307794094086, 0.02391488291323185, 0.10033835470676422], [0.016692088916897774, 0.08425217121839523, 0.01736815646290779, 0.03768974170088768, 0.004712122026830912, 0.00894007459282875, 0.005993582308292389, 0.0699940025806427, 0.08278771489858627, 0.20380614697933197, 0.023284481838345528, 0.00995706394314766, 0.007560680620372295, 0.08280283212661743, 0.029219208285212517, 0.011362767778337002, 0.02907395362854004, 0.08281811326742172, 0.060361266136169434, 0.04119177535176277, 0.09013207256793976], [0.010799930430948734, 0.2000100165605545, 0.008926312439143658, 0.025055399164557457, 0.009632881730794907, 0.008042583242058754, 0.0033882386051118374, 0.015484883449971676, 0.1960483342409134, 0.01773736998438835, 0.007795685436576605, 0.0060501242987811565, 0.009420807473361492, 0.19629697501659393, 0.01347254030406475, 0.0038938785437494516, 0.009527992457151413, 0.19634491205215454, 0.015640074387192726, 0.011917287483811378, 0.03451373800635338], [0.016218064352869987, 0.07952924072742462, 0.03523802384734154, 0.04987160116434097, 0.06933653354644775, 0.056640852242708206, 0.047544799745082855, 0.025297371670603752, 0.08024099469184875, 0.027588985860347748, 0.022059930488467216, 0.04072193428874016, 0.07509014010429382, 0.08035987615585327, 0.051191359758377075, 0.03820748254656792, 0.0411536768078804, 0.0803663432598114, 0.03728347644209862, 0.024854786694049835, 0.021204501390457153], [0.06096135079860687, 0.11009962111711502, 0.02739630453288555, 0.055122483521699905, 0.009701204486191273, 0.008025591261684895, 0.011188570410013199, 0.04188064858317375, 0.10782601684331894, 0.08275382965803146, 0.023913195356726646, 0.011283679865300655, 0.010784084908664227, 0.10782189667224884, 0.03410308435559273, 0.00939220655709505, 0.01585949957370758, 0.1078973263502121, 0.03377549722790718, 0.04391874745488167, 0.08629518747329712], [0.03932185098528862, 0.08781016618013382, 0.02568480558693409, 0.09661666303873062, 0.03929084911942482, 0.021217789500951767, 0.008260189555585384, 0.03085203655064106, 0.0858432948589325, 0.024608321487903595, 0.014927278272807598, 0.026943320408463478, 0.06203937530517578, 0.08605417609214783, 0.021025871858000755, 0.005883210338652134, 0.019088389351963997, 0.08605245500802994, 0.022937893867492676, 0.05836217850446701, 0.13717977702617645], [0.021138127893209457, 0.09145127981901169, 0.03667375445365906, 0.06406882405281067, 0.0317208394408226, 0.015786515548825264, 0.007294496521353722, 0.02497904747724533, 0.0894395262002945, 0.031840551644563675, 0.018546173349022865, 0.03179125115275383, 0.04879287630319595, 0.08959032595157623, 0.03972182422876358, 0.01127615850418806, 0.026224760338664055, 0.08960863202810287, 0.06261850893497467, 0.0751342922449112, 0.09230227023363113], [0.01586611196398735, 0.11790071427822113, 0.00922493077814579, 0.060532815754413605, 0.01700422912836075, 0.005137299187481403, 0.000960606150329113, 0.0336628258228302, 0.1151004433631897, 0.011575602926313877, 0.025620125234127045, 0.020136769860982895, 0.03740635886788368, 0.11537352204322815, 0.035854700952768326, 0.013018288649618626, 0.0601414293050766, 0.11529501527547836, 0.02972790040075779, 0.038971830159425735, 0.12148836255073547], [0.01625552400946617, 0.07943034917116165, 0.03529033809900284, 0.049894724041223526, 0.0693107470870018, 0.056579578667879105, 0.04745563864707947, 0.025315379723906517, 0.08014027029275894, 0.027583008632063866, 0.022115912288427353, 0.04082242771983147, 0.07513880729675293, 0.08025874942541122, 0.051266662776470184, 0.038264449685811996, 0.041184231638908386, 0.08026519417762756, 0.03730299323797226, 0.02487417310476303, 0.021250853314995766], [0.06378453969955444, 0.06740201264619827, 0.014128275215625763, 0.036673396825790405, 0.00284101371653378, 0.004325171932578087, 0.005057943053543568, 0.04882008209824562, 0.06576421111822128, 0.046998292207717896, 0.037930794060230255, 0.015180705115199089, 0.008764819242060184, 0.0657903179526329, 0.04236374795436859, 0.013321056962013245, 0.038205891847610474, 0.06578914821147919, 0.058506641536951065, 0.07604502141475677, 0.22230683267116547], [0.025212420150637627, 0.17995187640190125, 0.0051157413981854916, 0.015080993063747883, 0.0023536819498986006, 0.005069036036729813, 0.002633380703628063, 0.014457078650593758, 0.1762385219335556, 0.017571084201335907, 0.007630171254277229, 0.005847761407494545, 0.0059463754296302795, 0.17646931111812592, 0.023103149607777596, 0.007480382453650236, 0.014691334217786789, 0.17653104662895203, 0.03877672925591469, 0.028979714959859848, 0.07086009532213211], [0.01819794438779354, 0.17990487813949585, 0.009563235566020012, 0.03579344227910042, 0.010903452523052692, 0.008933955803513527, 0.0016520165372639894, 0.00928418431431055, 0.17583973705768585, 0.010131294839084148, 0.012692905031144619, 0.012609045952558517, 0.01778154820203781, 0.17603500187397003, 0.029054051265120506, 0.006465198937803507, 0.009625700302422047, 0.1760232001543045, 0.018267406150698662, 0.021781817078590393, 0.059459932148456573], [0.016253827139735222, 0.07929521799087524, 0.03534459322690964, 0.0498616062104702, 0.06939790397882462, 0.0566505528986454, 0.04756069555878639, 0.02532161958515644, 0.08000418543815613, 0.02763882465660572, 0.022111594676971436, 0.040848977863788605, 0.07517386972904205, 0.08012232929468155, 0.051339272409677505, 0.03830842301249504, 0.04118290916085243, 0.08012876659631729, 0.037328824400901794, 0.024882307276129723, 0.021243661642074585], [0.06944284588098526, 0.0898885726928711, 0.03155570104718208, 0.03612680733203888, 0.008364204317331314, 0.010040918365120888, 0.009569340385496616, 0.03163130581378937, 0.08757533133029938, 0.06642480194568634, 0.027209240943193436, 0.0233438853174448, 0.01289484091103077, 0.0875520184636116, 0.04665173590183258, 0.014566821977496147, 0.026260804384946823, 0.08758705109357834, 0.03845406696200371, 0.05608362331986427, 0.13877606391906738], [0.025014640763401985, 0.157138392329216, 0.01592145673930645, 0.02860993891954422, 0.010317236185073853, 0.009306694380939007, 0.010696097277104855, 0.030328454449772835, 0.15417250990867615, 0.037109583616256714, 0.006196038331836462, 0.011415092274546623, 0.012185019440948963, 0.15436281263828278, 0.03588443994522095, 0.009267416782677174, 0.02412145771086216, 0.15443629026412964, 0.0309271439909935, 0.02956674061715603, 0.053022515028715134], [0.02792512997984886, 0.12212124466896057, 0.02665187604725361, 0.051742080599069595, 0.01402729470282793, 0.014890797436237335, 0.01301303505897522, 0.01887386664748192, 0.11965326219797134, 0.0639645904302597, 0.013669666834175587, 0.015470599755644798, 0.022482819855213165, 0.11981012672185898, 0.03450227156281471, 0.0065261926501989365, 0.016090944409370422, 0.11983463913202286, 0.04898795485496521, 0.05782150849699974, 0.071940116584301]], [[0.15247909724712372, 0.000286596710793674, 0.0434814915060997, 0.007600660435855389, 0.012812480330467224, 0.010518127121031284, 0.004215673077851534, 0.011474008671939373, 0.00027869956102222204, 0.057075709104537964, 0.056049082428216934, 0.038739871233701706, 0.013408814556896687, 0.00027924589812755585, 0.03381936624646187, 0.029076315462589264, 0.026788566261529922, 0.0002791110600810498, 0.05737863481044769, 0.09320748597383499, 0.3507510721683502], [0.08619425445795059, 0.021084370091557503, 0.04582056775689125, 0.055178746581077576, 0.04421841725707054, 0.05706426873803139, 0.06649918854236603, 0.05405348539352417, 0.02122526243329048, 0.03375259414315224, 0.052785445004701614, 0.050485529005527496, 0.05949234589934349, 0.021236218512058258, 0.054671138525009155, 0.07134127616882324, 0.054507795721292496, 0.02123173512518406, 0.03632362186908722, 0.04655246064066887, 0.04628128930926323], [0.00918332114815712, 0.08467817306518555, 0.10512956976890564, 0.06225407123565674, 0.03497612103819847, 0.013715214096009731, 0.015845315530896187, 0.012267151847481728, 0.08248148113489151, 0.06393299251794815, 0.020559191703796387, 0.05067937821149826, 0.017633704468607903, 0.08268319815397263, 0.01791408471763134, 0.012417055666446686, 0.0156327486038208, 0.08271178603172302, 0.046882569789886475, 0.03416641429066658, 0.13425640761852264], [0.00445790309458971, 0.08804648369550705, 0.05780712887644768, 0.23446504771709442, 0.09645236283540726, 0.00578072527423501, 0.0018146733054891229, 0.005221682135015726, 0.0858985185623169, 0.007726455572992563, 0.017672695219516754, 0.04048441722989082, 0.07098353654146194, 0.086082324385643, 0.00477605452761054, 0.00632064463570714, 0.01787032000720501, 0.08614351600408554, 0.01191526185721159, 0.011409806087613106, 0.058670513331890106], [0.0005967081524431705, 0.11559969186782837, 0.01596747525036335, 0.0822531133890152, 0.32981401681900024, 0.007675290107727051, 0.001935173524543643, 0.009714324027299881, 0.1106707900762558, 0.00422354182228446, 0.0039638192392885685, 0.010694123804569244, 0.053003065288066864, 0.1107548251748085, 0.0030085358303040266, 0.00270623411051929, 0.009640264324843884, 0.11090201139450073, 0.0034836314152926207, 0.0027845699805766344, 0.01060880720615387], [0.006487295962870121, 0.06449703127145767, 0.021781953051686287, 0.035212818533182144, 0.04832376539707184, 0.180106982588768, 0.029639435932040215, 0.08815136551856995, 0.06194695085287094, 0.06307651847600937, 0.025969628244638443, 0.013192244805395603, 0.021406037732958794, 0.06185916066169739, 0.04097305238246918, 0.029437841847538948, 0.024044698104262352, 0.06185512617230415, 0.014529420994222164, 0.014857204630970955, 0.09265142679214478], [0.0038037304766476154, 0.0809832438826561, 0.04588887095451355, 0.03054812178015709, 0.04535764455795288, 0.04224914684891701, 0.16859526932239532, 0.06540116667747498, 0.07847443222999573, 0.03448784351348877, 0.018945174291729927, 0.020405594259500504, 0.01840914972126484, 0.07829234004020691, 0.006131015717983246, 0.09049122035503387, 0.021431120112538338, 0.07833708077669144, 0.01140550710260868, 0.0169111005961895, 0.043451301753520966], [0.0027845583390444517, 0.1386967897415161, 0.01412595622241497, 0.025882193818688393, 0.043537601828575134, 0.02959268167614937, 0.013986690901219845, 0.07382101565599442, 0.13488446176052094, 0.039244137704372406, 0.007102195639163256, 0.007846342399716377, 0.022636715322732925, 0.13499964773654938, 0.013556530699133873, 0.021385207772254944, 0.06007095053792, 0.13502345979213715, 0.020376693457365036, 0.016034003347158432, 0.04441218823194504], [0.08610080182552338, 0.02119642309844494, 0.04578552395105362, 0.05529007688164711, 0.04437895119190216, 0.05713919550180435, 0.06714853644371033, 0.05426275357604027, 0.021340152248740196, 0.03400716558098793, 0.05247664079070091, 0.050550587475299835, 0.05934109166264534, 0.021350806578993797, 0.05433596670627594, 0.07111957669258118, 0.054163821041584015, 0.02134639583528042, 0.03638777881860733, 0.04641811177134514, 0.045859627425670624], [0.009312592446804047, 0.027116896584630013, 0.044837262481451035, 0.004475683439522982, 0.011129951104521751, 0.02680431865155697, 0.02310345508158207, 0.07776960730552673, 0.026522574946284294, 0.16048842668533325, 0.015551717020571232, 0.01198645494878292, 0.012043755501508713, 0.026537850499153137, 0.017832254990935326, 0.0259909238666296, 0.05631226301193237, 0.026526913046836853, 0.05959127098321915, 0.09264802187681198, 0.2434178590774536], [0.04774501919746399, 0.05214139446616173, 0.04967355355620384, 0.050375938415527344, 0.023701107129454613, 0.008549002930521965, 0.0026683486066758633, 0.012962205335497856, 0.05029544606804848, 0.03463245555758476, 0.07957863062620163, 0.036351341754198074, 0.026993120089173317, 0.05040999874472618, 0.02288047783076763, 0.015426632016897202, 0.028150353580713272, 0.050396014004945755, 0.03909459710121155, 0.04546331241726875, 0.27251115441322327], [0.007343367673456669, 0.08820554614067078, 0.05884812772274017, 0.06885264813899994, 0.043698471039533615, 0.014068933203816414, 0.00902133621275425, 0.007195005193352699, 0.08593405783176422, 0.055176109075546265, 0.02387022227048874, 0.06189056113362312, 0.026700271293520927, 0.08622387796640396, 0.025657089427113533, 0.02056693099439144, 0.020106246694922447, 0.08627701550722122, 0.054954446852207184, 0.043305497616529465, 0.11210436373949051], [0.0015966949285939336, 0.10718972980976105, 0.022530831396579742, 0.09040654450654984, 0.11552244424819946, 0.015538303181529045, 0.0024230643175542355, 0.011372121050953865, 0.10316424816846848, 0.01840336248278618, 0.01138088945299387, 0.01860453560948372, 0.12048240751028061, 0.10330449044704437, 0.024036239832639694, 0.014355143532156944, 0.04288072884082794, 0.10340966284275055, 0.013328487053513527, 0.018328551203012466, 0.041741494089365005], [0.08621878921985626, 0.021167967468500137, 0.04581012949347496, 0.05537686124444008, 0.0445016585290432, 0.057148486375808716, 0.0669809952378273, 0.05424567312002182, 0.021311424672603607, 0.033968016505241394, 0.052453793585300446, 0.05062912777066231, 0.059417787939310074, 0.02132214605808258, 0.05427134782075882, 0.0710785984992981, 0.054203733801841736, 0.021317748352885246, 0.03634936362504959, 0.04638022556900978, 0.04584620147943497], [0.02766667865216732, 0.02069382555782795, 0.016896113753318787, 0.001951959915459156, 0.004872273188084364, 0.04191407188773155, 0.01733631081879139, 0.03447604551911354, 0.020141638815402985, 0.10630004107952118, 0.00990828312933445, 0.013696273788809776, 0.008095060475170612, 0.02016032300889492, 0.19937370717525482, 0.08872921764850616, 0.046463899314403534, 0.020154541358351707, 0.05824611708521843, 0.07671590149402618, 0.1662076711654663], [0.01855395920574665, 0.019075727090239525, 0.03249190375208855, 0.019884880632162094, 0.011290615424513817, 0.00557228596881032, 0.010503876954317093, 0.020059071481227875, 0.01846471056342125, 0.008813528344035149, 0.009228629991412163, 0.03179854899644852, 0.018736397847533226, 0.018469011411070824, 0.03259102255105972, 0.4576827883720398, 0.1279519647359848, 0.018482094630599022, 0.023275677114725113, 0.021766846999526024, 0.07530640065670013], [0.013357342220842838, 0.03966957703232765, 0.018197976052761078, 0.03188006579875946, 0.029822206124663353, 0.005143832415342331, 0.0018034720560535789, 0.03376820683479309, 0.03826624155044556, 0.01598210260272026, 0.011638159863650799, 0.017967524006962776, 0.044142886996269226, 0.03829066455364227, 0.019485250115394592, 0.03498247265815735, 0.3775336444377899, 0.03829236328601837, 0.03425077348947525, 0.03408828005194664, 0.1214369460940361], [0.08625518530607224, 0.021133383736014366, 0.04582945629954338, 0.05535002797842026, 0.04452073201537132, 0.05712652951478958, 0.06704352796077728, 0.05424569547176361, 0.021276798099279404, 0.03399639576673508, 0.05244741216301918, 0.05063535273075104, 0.05942923203110695, 0.021287472918629646, 0.054256316274404526, 0.07108413428068161, 0.05418678745627403, 0.021283099427819252, 0.036363936960697174, 0.04640815779566765, 0.0458403155207634], [0.06371530890464783, 0.014947189949452877, 0.019574042409658432, 0.0028051971457898617, 0.0036541216541081667, 0.005973268765956163, 0.0022592495661228895, 0.020734144374728203, 0.014509082771837711, 0.048162881284952164, 0.013374407775700092, 0.012290779501199722, 0.008287345059216022, 0.014543140307068825, 0.013739091344177723, 0.020593810826539993, 0.06757305562496185, 0.014539527706801891, 0.1924859881401062, 0.14336484670639038, 0.30287349224090576], [0.023839153349399567, 0.05054696649312973, 0.01724095270037651, 0.013650238513946533, 0.011845553293824196, 0.009257856756448746, 0.003596168477088213, 0.024636344984173775, 0.049051642417907715, 0.05275002121925354, 0.01475056167691946, 0.014467102475464344, 0.01649186946451664, 0.049159374088048935, 0.021086348220705986, 0.025016525760293007, 0.09043457359075546, 0.0491437204182148, 0.08858837187290192, 0.09822151809930801, 0.27622511982917786], [0.02273564599454403, 0.010379980318248272, 0.0345422625541687, 0.017350761219859123, 0.016578707844018936, 0.011119604110717773, 0.005198040511459112, 0.017723608762025833, 0.01005788054317236, 0.12789331376552582, 0.02283657342195511, 0.020624326542019844, 0.01865978166460991, 0.010080700740218163, 0.021966440603137016, 0.016257964074611664, 0.04850786551833153, 0.010076583363115788, 0.09370975941419601, 0.11540597677230835, 0.348294198513031]], [[0.05097242817282677, 0.07669235020875931, 0.04463658109307289, 0.15020467340946198, 0.030654743313789368, 0.0017679152078926563, 0.0027834856882691383, 0.004932538140565157, 0.07517524808645248, 0.0031356478575617075, 0.021198498085141182, 0.042601577937603, 0.039786625653505325, 0.07531943917274475, 0.030309999361634254, 0.019811414182186127, 0.03274030610918999, 0.07539253681898117, 0.046605996787548065, 0.05756910890340805, 0.11770901829004288], [0.027910035103559494, 0.0171662550419569, 0.053648896515369415, 0.09683969616889954, 0.10160686820745468, 0.04033247008919716, 0.04414859786629677, 0.02775777317583561, 0.017244892194867134, 0.04731549322605133, 0.050204597413539886, 0.08453123271465302, 0.14367017149925232, 0.017236195504665375, 0.034503694623708725, 0.03776952251791954, 0.030898623168468475, 0.017232608050107956, 0.04236245155334473, 0.04391144588589668, 0.023708485066890717], [0.0017048354493454099, 0.1312863975763321, 0.04518187418580055, 0.20410262048244476, 0.05624010041356087, 0.0009690958540886641, 0.0015167444944381714, 0.0018811225891113281, 0.13022850453853607, 0.003323212033137679, 0.013545719906687737, 0.038463227450847626, 0.06274843961000443, 0.13039100170135498, 0.002700529992580414, 0.0007980159716680646, 0.007212888449430466, 0.1305653303861618, 0.014719927683472633, 0.011646508239209652, 0.010773825459182262], [0.0021304702386260033, 0.1101999506354332, 0.07688918709754944, 0.1604861617088318, 0.1436038464307785, 0.005929827690124512, 0.003424733877182007, 0.004949134308844805, 0.10879519581794739, 0.004797805566340685, 0.007868516258895397, 0.03791854530572891, 0.07046078890562057, 0.10893677920103073, 0.010196699760854244, 0.001983517548069358, 0.006311181001365185, 0.10908807069063187, 0.0074550011195242405, 0.008417055010795593, 0.010157530196011066], [0.00048791756853461266, 0.2162914127111435, 0.026924002915620804, 0.06476721167564392, 0.02594958432018757, 0.0028310809284448624, 0.0006257010973058641, 0.0009307680302299559, 0.2118658721446991, 0.0010290215723216534, 0.003086286364123225, 0.010021897964179516, 0.004073933698236942, 0.21177919209003448, 0.0021773288026452065, 0.0003267492866143584, 0.0004503841046243906, 0.21222753822803497, 0.0013272338546812534, 0.0008808090933598578, 0.0019461705815047026], [3.5332916013430804e-05, 0.24708522856235504, 0.0004589752934407443, 0.00025750353233888745, 0.0003969229874201119, 0.0055559431202709675, 0.0019656731747090816, 0.0008825011900626123, 0.24420636892318726, 0.007193326484411955, 0.00014541155542246997, 0.00018528288637753576, 7.584950071759522e-05, 0.24466711282730103, 0.0005013812333345413, 4.959226498613134e-05, 8.774240268394351e-05, 0.2452452927827835, 0.0006017292034812272, 0.00028327081236056983, 0.00011963972065132111], [0.00013717307592742145, 0.23341740667819977, 0.0015035279793664813, 0.0017972956411540508, 0.0032937289215624332, 0.035887639969587326, 0.004223117604851723, 0.0016464050859212875, 0.23064400255680084, 0.019489748403429985, 0.00042622818727977574, 0.0008883531554602087, 0.0006653746822848916, 0.2311321645975113, 0.0007207288290373981, 0.00011680166790029034, 0.00025492990971542895, 0.23155918717384338, 0.0011379143688827753, 0.000623847940005362, 0.00043444515904411674], [0.0002795141190290451, 0.2326352894306183, 0.004793777130544186, 0.005638051312416792, 0.0035901807714253664, 0.02983568049967289, 0.002844296395778656, 0.002278050174936652, 0.2301216572523117, 0.013834059238433838, 0.0013971893349662423, 0.003009878331795335, 0.0015894263051450253, 0.23042911291122437, 0.0036889021284878254, 0.0002644170308485627, 0.00043332428322173655, 0.23082567751407623, 0.0012322060065343976, 0.0006585184601135552, 0.0006208256236277521], [0.02788291685283184, 0.017268609255552292, 0.05353250354528427, 0.09621238708496094, 0.10143615305423737, 0.04071987047791481, 0.04426531121134758, 0.027930838987231255, 0.017349503934383392, 0.04755300655961037, 0.05026397109031677, 0.08503603935241699, 0.14352427423000336, 0.01734074018895626, 0.03450712934136391, 0.03789367526769638, 0.030761105939745903, 0.017337044700980186, 0.04199106618762016, 0.0436641164124012, 0.023529794067144394], [0.0015472178347408772, 0.21920424699783325, 0.007988040335476398, 0.00557807506993413, 0.007425770629197359, 0.022855328395962715, 0.012958582490682602, 0.007777049671858549, 0.21689459681510925, 0.021245548501610756, 0.0021420931443572044, 0.004317828454077244, 0.003983053844422102, 0.2172299474477768, 0.003812916809692979, 0.0013360041193664074, 0.005544502753764391, 0.21764196455478668, 0.008721168152987957, 0.005571265704929829, 0.006224826443940401], [0.005277132615447044, 0.14269809424877167, 0.03692099079489708, 0.06946501135826111, 0.027009636163711548, 0.004704199731349945, 0.0045527503825724125, 0.006693737115710974, 0.14125390350818634, 0.005456976126879454, 0.017154201865196228, 0.06171445548534393, 0.07752624899148941, 0.14155042171478271, 0.02125447802245617, 0.0052184537053108215, 0.010779021307826042, 0.14168274402618408, 0.0315510630607605, 0.025755293667316437, 0.021781152114272118], [0.00133804720826447, 0.14287006855010986, 0.015695558860898018, 0.07194511592388153, 0.01573530212044716, 0.0007094782777130604, 0.0007754890830256045, 0.0013230564072728157, 0.14161662757396698, 0.002087208442389965, 0.014720759354531765, 0.08561456948518753, 0.14786756038665771, 0.14201703667640686, 0.00848215352743864, 0.0019787035416811705, 0.010057018138468266, 0.14209531247615814, 0.02083408087491989, 0.017010308802127838, 0.015226616524159908], [0.0008017491782084107, 0.19526776671409607, 0.019474633038043976, 0.03692939132452011, 0.00528261624276638, 0.0007713806699030101, 0.00036420419928617775, 0.0006865350296720862, 0.19107091426849365, 0.0005221939645707607, 0.0039653293788433075, 0.058701980859041214, 0.049078699201345444, 0.19204023480415344, 0.017717793583869934, 0.0023712138645350933, 0.003072767984122038, 0.19223958253860474, 0.011548485606908798, 0.008970500901341438, 0.009122083894908428], [0.02791086584329605, 0.01729813776910305, 0.05354156345129013, 0.09618780761957169, 0.1013016402721405, 0.04066576436161995, 0.04418350011110306, 0.027941346168518066, 0.017378970980644226, 0.047471076250076294, 0.0502142459154129, 0.0850774347782135, 0.1435140073299408, 0.01737023890018463, 0.034543052315711975, 0.03794180601835251, 0.03079184889793396, 0.017366554588079453, 0.0420171394944191, 0.043727148324251175, 0.02355596236884594], [0.0012699179351329803, 0.20424853265285492, 0.0059479232877492905, 0.006421385332942009, 0.003746047616004944, 0.0017993233632296324, 0.003873318200930953, 0.002880515530705452, 0.20219413936138153, 0.0033939811401069164, 0.005258261226117611, 0.00976431742310524, 0.015688244253396988, 0.20285923779010773, 0.010400975123047829, 0.005892863031476736, 0.01969136856496334, 0.20314441621303558, 0.046387944370508194, 0.029478976503014565, 0.015658339485526085], [0.0004487535625230521, 0.2402007281780243, 0.0025527544785290956, 0.004943756852298975, 0.0011947706807404757, 0.00046706595458090305, 0.0003146506496705115, 0.0003670385922305286, 0.23656348884105682, 0.0004910851712338626, 0.0008810758008621633, 0.0044436329044401646, 0.005386474542319775, 0.23755618929862976, 0.004761810880154371, 0.000875704048667103, 0.0016820926684886217, 0.2378055453300476, 0.009062808938324451, 0.006951730698347092, 0.003048865357413888], [0.0008487103623338044, 0.22396939992904663, 0.009202620945870876, 0.019410280510783195, 0.004115391988307238, 0.001203221152536571, 0.0004160434182267636, 0.0003660910006146878, 0.22106525301933289, 0.0006112151313573122, 0.002374490024521947, 0.017199035733938217, 0.01757182367146015, 0.22170127928256989, 0.015230301767587662, 0.0022301580756902695, 0.0031453687697649, 0.22202911972999573, 0.0070920963771641254, 0.00683229137212038, 0.003385767340660095], [0.027916336432099342, 0.017252067103981972, 0.05354919657111168, 0.09618069231510162, 0.10137156397104263, 0.04070405289530754, 0.04425860568881035, 0.027961185202002525, 0.017332900315523148, 0.047506462782621384, 0.05024081468582153, 0.08509557694196701, 0.14353324472904205, 0.017324140295386314, 0.034529246389865875, 0.03795383870601654, 0.030769728124141693, 0.01732044853270054, 0.04197561368346214, 0.04368779435753822, 0.023536471650004387], [0.006536024622619152, 0.1950744092464447, 0.014463101513683796, 0.01959189772605896, 0.007637125439941883, 0.002856975421309471, 0.0016726230969652534, 0.0019107313128188252, 0.1917809247970581, 0.002373369410634041, 0.0030013860668987036, 0.019730115309357643, 0.026447808369994164, 0.19270765781402588, 0.022959891706705093, 0.009324409067630768, 0.016513481736183167, 0.19297297298908234, 0.01809713989496231, 0.021880319342017174, 0.03246765583753586], [0.0018749593291431665, 0.22915306687355042, 0.008304357528686523, 0.009924075566232204, 0.002921712351962924, 0.0014944529393687844, 0.0013885328080505133, 0.0013555120676755905, 0.22510308027267456, 0.0012713762698695064, 0.0019846244249492884, 0.006951549090445042, 0.007615878712385893, 0.22590608894824982, 0.015150317922234535, 0.0034436595160514116, 0.004826399032026529, 0.22618979215621948, 0.007863353006541729, 0.006339216139167547, 0.010938042774796486], [0.004844564478844404, 0.16781216859817505, 0.040643759071826935, 0.08917538076639175, 0.013914999552071095, 0.0021803623531013727, 0.0027700630016624928, 0.0029211302753537893, 0.16511762142181396, 0.004039447288960218, 0.009586875326931477, 0.0352817177772522, 0.025929566472768784, 0.16555124521255493, 0.02143101766705513, 0.004030948970466852, 0.006320626474916935, 0.1658581644296646, 0.024978557601571083, 0.021680811420083046, 0.025931067764759064]], [[0.2327502965927124, 0.0027030189521610737, 0.033494170755147934, 0.04215104877948761, 0.012657545506954193, 0.01469850167632103, 0.002307143760845065, 0.02377953752875328, 0.0026050317101180553, 0.029600251466035843, 0.05334141105413437, 0.027876269072294235, 0.016785619780421257, 0.002605130197480321, 0.031796783208847046, 0.014521358534693718, 0.047525204718112946, 0.002605120185762644, 0.04305936023592949, 0.0875273048877716, 0.2756098806858063], [0.07548815757036209, 0.01606146991252899, 0.03404466435313225, 0.06665104627609253, 0.05679531767964363, 0.09142441302537918, 0.034031882882118225, 0.04332511126995087, 0.016054455190896988, 0.04014242812991142, 0.05925450846552849, 0.03932832181453705, 0.08539517968893051, 0.01604645885527134, 0.05563221499323845, 0.03773179650306702, 0.06104115769267082, 0.016039028763771057, 0.03684306517243385, 0.05663729086518288, 0.0620320588350296], [0.015420823357999325, 0.1846810132265091, 0.05935417860746384, 0.049523744732141495, 0.011573261581361294, 0.006670958362519741, 0.0005461450782604516, 0.00927681289613247, 0.17746275663375854, 0.0024932054802775383, 0.041138287633657455, 0.027596676722168922, 0.007646698039025068, 0.1771063208580017, 0.003941916860640049, 0.00273869838565588, 0.007927746511995792, 0.17723405361175537, 0.0047109294682741165, 0.009557675570249557, 0.0233981404453516], [0.01210862584412098, 0.008055916987359524, 0.2738412320613861, 0.2632550001144409, 0.05407130345702171, 0.004234533756971359, 0.0007218625978566706, 0.016031229868531227, 0.007791753392666578, 0.0017518701497465372, 0.07708984613418579, 0.1461922526359558, 0.03711776062846184, 0.007775474805384874, 0.007598884869366884, 0.006291684228926897, 0.026211988180875778, 0.00777757354080677, 0.0028510671108961105, 0.011079971678555012, 0.028150184080004692], [0.004356761928647757, 0.2032046914100647, 0.030761616304516792, 0.08492011576890945, 0.02470860816538334, 0.0010596731444820762, 0.0002748836122918874, 0.0072411480359733105, 0.19525377452373505, 0.0002209215163020417, 0.023999108001589775, 0.018316522240638733, 0.00472610630095005, 0.19460341334342957, 0.0014048280427232385, 0.001294345478527248, 0.0022951019927859306, 0.19494882225990295, 0.0003207890840712935, 0.0015752364415675402, 0.004513544496148825], [0.0035149280447512865, 0.23544903099536896, 0.0021404833532869816, 0.0020046622958034277, 0.0011196148116141558, 0.01966720260679722, 0.006947644520550966, 0.02003687620162964, 0.23060862720012665, 0.001552083995193243, 0.0013206977164372802, 0.0012783451238647103, 0.0009497752762399614, 0.23077285289764404, 0.0018018496921285987, 0.002283710055053234, 0.003689730539917946, 0.23091837763786316, 0.0008646824862807989, 0.0017328393878415227, 0.0013460386544466019], [0.026377398520708084, 0.12473410367965698, 0.028843382373452187, 0.00758108077570796, 0.009319481439888477, 0.25867965817451477, 0.011185334995388985, 0.03247223049402237, 0.12177366763353348, 0.03225300461053848, 0.0193162988871336, 0.012162581086158752, 0.008873872458934784, 0.12175378203392029, 0.016430381685495377, 0.003346939105540514, 0.009493784978985786, 0.12177985161542892, 0.00571772875264287, 0.012588294222950935, 0.015317092649638653], [0.01941324956715107, 0.1289958357810974, 0.0059447865933179855, 0.009660843759775162, 0.006652739364653826, 0.3155241012573242, 0.007460770197212696, 0.07625812292098999, 0.12499187886714935, 0.010574137791991234, 0.0071804095059633255, 0.0033353709150105715, 0.006424659863114357, 0.12499075382947922, 0.0057940552942454815, 0.002930349437519908, 0.004715106450021267, 0.12495236843824387, 0.0010633299825713038, 0.006566014606505632, 0.006571118254214525], [0.0753018781542778, 0.016527317464351654, 0.03378032520413399, 0.06587713211774826, 0.05733847618103027, 0.09156251698732376, 0.03387758880853653, 0.043513402342796326, 0.016521716490387917, 0.040327489376068115, 0.05922774225473404, 0.03882356360554695, 0.08573275804519653, 0.016513407230377197, 0.05520272254943848, 0.03760655224323273, 0.06087525188922882, 0.016505688428878784, 0.0365743413567543, 0.05636347085237503, 0.0619465596973896], [0.022396065294742584, 0.1160922572016716, 0.02190230041742325, 0.014634677208960056, 0.03421543538570404, 0.10254516452550888, 0.05972427874803543, 0.10546516627073288, 0.11271484196186066, 0.0810406431555748, 0.01369613315910101, 0.006521185860037804, 0.009584806859493256, 0.11257865279912949, 0.008573071099817753, 0.005194677039980888, 0.009951606392860413, 0.11257178336381912, 0.008512688800692558, 0.013644058257341385, 0.028440503403544426], [0.03395926207304001, 0.0006603594520129263, 0.06373672932386398, 0.33136820793151855, 0.01704997755587101, 0.013828273862600327, 0.004008687566965818, 0.025055892765522003, 0.000641927239485085, 0.01231144368648529, 0.03479710593819618, 0.12435975670814514, 0.06707344949245453, 0.0006436497787944973, 0.02679908089339733, 0.014417797327041626, 0.044199198484420776, 0.0006433733506128192, 0.025805233046412468, 0.05093906447291374, 0.10770151019096375], [0.011616100557148457, 0.15935951471328735, 0.038196224719285965, 0.037378013134002686, 0.003996069077402353, 0.0035396155435591936, 0.0002592489472590387, 0.008857752196490765, 0.15369679033756256, 0.0016478544566780329, 0.06238067150115967, 0.10101629048585892, 0.025735268369317055, 0.15365122258663177, 0.008390129543840885, 0.004421996884047985, 0.022755475714802742, 0.15366359055042267, 0.0053788707591593266, 0.014950594864785671, 0.029108796268701553], [0.0038723372854292393, 0.21916788816452026, 0.009889875538647175, 0.018101569265127182, 0.003206613240763545, 0.0002358807105338201, 5.6247390602948144e-05, 0.001881134114228189, 0.2112099528312683, 0.00016314782260451466, 0.030575528740882874, 0.0377153605222702, 0.015332533977925777, 0.21124832332134247, 0.0032738863956183195, 0.00171799270901829, 0.005447052419185638, 0.21136309206485748, 0.0008368297712877393, 0.003861900418996811, 0.010842868126928806], [0.07539528608322144, 0.016536517068743706, 0.03373536467552185, 0.06578001379966736, 0.05733709782361984, 0.09145687520503998, 0.03372970595955849, 0.04348912090063095, 0.01653100736439228, 0.040180087089538574, 0.05921819433569908, 0.038818445056676865, 0.08590243756771088, 0.01652275212109089, 0.05521755665540695, 0.03769166022539139, 0.06097276881337166, 0.016515037044882774, 0.0365750752389431, 0.056402288377285004, 0.06199273467063904], [0.06320535391569138, 0.0165865421295166, 0.014184342697262764, 0.02789022959768772, 0.005909535568207502, 0.015220017172396183, 0.002719562267884612, 0.034434590488672256, 0.01628558523952961, 0.00233595073223114, 0.03588820993900299, 0.03781617805361748, 0.0522477850317955, 0.016327686607837677, 0.1033354252576828, 0.10364104807376862, 0.1900710016489029, 0.016334710642695427, 0.04163525998592377, 0.1416274607181549, 0.062303557991981506], [0.038223281502723694, 0.15163648128509521, 0.005399772431701422, 0.009025074541568756, 0.0019126636907458305, 0.029522983357310295, 0.00025729555636644363, 0.02231028862297535, 0.14754508435726166, 0.0011573471128940582, 0.01088595949113369, 0.007187108043581247, 0.020126191899180412, 0.14794304966926575, 0.05300728231668472, 0.03867794945836067, 0.08709461987018585, 0.14800266921520233, 0.007865101099014282, 0.04371442273259163, 0.028505457565188408], [0.04466569051146507, 0.08203616738319397, 0.0135343661531806, 0.038993049412965775, 0.00877396110445261, 0.051591262221336365, 0.0008714781142771244, 0.02483087219297886, 0.08004043996334076, 0.004909828770905733, 0.041898731142282486, 0.024170037358999252, 0.04941732808947563, 0.08009114116430283, 0.13444998860359192, 0.057529889047145844, 0.0691959485411644, 0.08007892221212387, 0.010619085282087326, 0.06181740388274193, 0.040484435856342316], [0.07536057382822037, 0.01652604155242443, 0.03373521938920021, 0.06579317152500153, 0.057384032756090164, 0.09151045978069305, 0.033754173666238785, 0.04351969063282013, 0.016520576551556587, 0.04022086411714554, 0.05918734520673752, 0.038795679807662964, 0.08586779236793518, 0.016512298956513405, 0.055196475237607956, 0.037682272493839264, 0.06096823140978813, 0.01650458760559559, 0.036573559045791626, 0.05640125647187233, 0.06198570877313614], [0.05111214891076088, 0.04135232791304588, 0.021895520389080048, 0.020972002297639847, 0.00796275120228529, 0.017837150022387505, 0.0054154833778738976, 0.03896975517272949, 0.04019681736826897, 0.01604294963181019, 0.03950246050953865, 0.0334940105676651, 0.02997497096657753, 0.04018595442175865, 0.1339167058467865, 0.10742282122373581, 0.08016357570886612, 0.040182702243328094, 0.0648895800113678, 0.06872472167015076, 0.09978553652763367], [0.020065760239958763, 0.17920160293579102, 0.00578466197475791, 0.008534827269613743, 0.0027100250590592623, 0.00904097966849804, 0.0011922199046239257, 0.01893814094364643, 0.17376013100147247, 0.004189587198197842, 0.016519911587238312, 0.0074220686219632626, 0.01199977844953537, 0.17376983165740967, 0.05611482635140419, 0.03004179708659649, 0.028039706870913506, 0.1737641990184784, 0.011019999161362648, 0.0424126461148262, 0.025477275252342224], [0.041973553597927094, 0.09881595522165298, 0.04178258031606674, 0.06734061241149902, 0.011672732420265675, 0.017812853679060936, 0.002894086530432105, 0.024549230933189392, 0.09613648802042007, 0.013124116696417332, 0.04519074410200119, 0.06587566435337067, 0.03780397027730942, 0.09618055075407028, 0.03492503985762596, 0.01784241758286953, 0.03571488335728645, 0.09621313959360123, 0.02591470070183277, 0.0503956638276577, 0.07784098386764526]], [[0.1632193624973297, 0.018076051026582718, 0.021997053176164627, 0.006619287189096212, 0.020123209804296494, 0.03907296061515808, 0.005957723129540682, 0.0686679482460022, 0.018054312095046043, 0.08152279257774353, 0.009447441436350346, 0.010783503763377666, 0.014582548290491104, 0.018075982108712196, 0.0867852196097374, 0.048900194466114044, 0.10030985623598099, 0.01806417852640152, 0.08151078224182129, 0.12730753421783447, 0.04092203080654144], [0.049602776765823364, 0.00992518663406372, 0.04349174350500107, 0.030536415055394173, 0.07371089607477188, 0.04025663435459137, 0.025030560791492462, 0.14727237820625305, 0.009824635460972786, 0.021260438486933708, 0.038004837930202484, 0.04099239781498909, 0.07108688354492188, 0.009827518835663795, 0.04646328091621399, 0.03570278361439705, 0.12744997441768646, 0.009824422188103199, 0.01851569302380085, 0.0467512309551239, 0.10446930676698685], [0.017157182097434998, 0.17422114312648773, 0.07502235472202301, 0.019161712378263474, 0.015179571695625782, 0.011981070972979069, 0.009606036357581615, 0.015683121979236603, 0.16963325440883636, 0.02517302893102169, 0.04032695293426514, 0.020221134647727013, 0.010938681662082672, 0.1691453605890274, 0.007402149029076099, 0.007685510441660881, 0.005468819290399551, 0.16918709874153137, 0.011419312097132206, 0.006932305637747049, 0.018454235047101974], [0.014660476706922054, 0.06559368222951889, 0.28189754486083984, 0.04095334932208061, 0.0586840882897377, 0.00782979279756546, 0.004989491309970617, 0.039046648889780045, 0.06375043094158173, 0.041646819561719894, 0.03659671172499657, 0.04430850222706795, 0.018077125772833824, 0.0637020394206047, 0.018062831833958626, 0.02075452357530594, 0.01424399483948946, 0.06372198462486267, 0.026639806106686592, 0.03473804146051407, 0.040102146565914154], [0.0041754343546926975, 0.07289750874042511, 0.0498633049428463, 0.39429807662963867, 0.11042844504117966, 0.005057747475802898, 0.0012482687598094344, 0.05404650792479515, 0.07066887617111206, 0.002697730204090476, 0.008781115524470806, 0.029287133365869522, 0.01621083728969097, 0.07045689970254898, 0.002245391719043255, 0.003400065004825592, 0.0051343319937586784, 0.07057885825634003, 0.00445636035874486, 0.008278115652501583, 0.0157889686524868], [0.00013432500418275595, 0.24550805985927582, 0.0002596453414298594, 0.0006990015972405672, 0.009055995382368565, 0.013081224635243416, 0.0005990477511659265, 0.0030295776668936014, 0.24099300801753998, 0.0005181303713470697, 0.000303653854643926, 0.00013309868518263102, 0.0018257932970300317, 0.24069155752658844, 0.0007459334447048604, 0.00014836693299002945, 0.0006117837619967759, 0.24097152054309845, 0.00011125663877464831, 0.00024078313435893506, 0.0003382543509360403], [0.00019467220408841968, 0.01029706560075283, 0.0006659469217993319, 0.00018975847342517227, 0.002413730137050152, 0.9370079040527344, 0.010600854642689228, 0.0026551668997853994, 0.00994966272264719, 0.0008895981009118259, 0.0003477386198937893, 0.0003072675899602473, 0.00048610675730742514, 0.009935321286320686, 0.002881246618926525, 0.000377440796000883, 0.00010496461618458852, 0.009938277304172516, 0.0001538916549179703, 0.00041417486499994993, 0.00018921562877949327], [0.0024582657497376204, 0.07893431186676025, 0.004492432344704866, 0.0025821253657341003, 0.0022009036038070917, 0.02163938246667385, 0.53061842918396, 0.03573957085609436, 0.07847437262535095, 0.019613074138760567, 0.0006656346959061921, 0.0021335326600819826, 0.0005442586843855679, 0.07832552492618561, 0.025611162185668945, 0.027118761092424393, 0.002472030697390437, 0.07842016965150833, 0.004289262928068638, 0.002339771715924144, 0.001326982514001429], [0.04925544187426567, 0.010023180395364761, 0.04329893738031387, 0.030685758218169212, 0.07418710738420486, 0.04040990024805069, 0.024830320850014687, 0.14686113595962524, 0.009922393597662449, 0.021302292123436928, 0.038497067987918854, 0.041061870753765106, 0.07122375816106796, 0.009925170801579952, 0.0464249812066555, 0.03573452681303024, 0.12736569344997406, 0.009922060184180737, 0.01847609132528305, 0.046606097370386124, 0.1039862185716629], [0.005464300513267517, 0.14505097270011902, 0.006763491313904524, 0.0020919274538755417, 0.017957746982574463, 0.08133592456579208, 0.05551822483539581, 0.050507813692092896, 0.14308199286460876, 0.11858750134706497, 0.01651936210691929, 0.0014547043247148395, 0.002422785386443138, 0.14267852902412415, 0.016368664801120758, 0.014123048633337021, 0.00886424258351326, 0.14289020001888275, 0.014384032227098942, 0.010360963642597198, 0.0035735396668314934], [0.012632114812731743, 0.07008762657642365, 0.026994433254003525, 0.004647867754101753, 0.03351471200585365, 0.0025672914925962687, 0.012255714274942875, 0.19322875142097473, 0.07024678587913513, 0.19405768811702728, 0.0013285441091284156, 0.008282006718218327, 0.023949960246682167, 0.07020604610443115, 0.03915810585021973, 0.02382837049663067, 0.07923942059278488, 0.07021085172891617, 0.015049759298563004, 0.01823062263429165, 0.030283305794000626], [0.03337165713310242, 0.1032881885766983, 0.05785099044442177, 0.01514875516295433, 0.007094573695212603, 0.00666799396276474, 0.006694653537124395, 0.02355336956679821, 0.10194716602563858, 0.043974850326776505, 0.16103509068489075, 0.06279676407575607, 0.025302374735474586, 0.10177910327911377, 0.03499476611614227, 0.03216758742928505, 0.02188573032617569, 0.10172544419765472, 0.021228117868304253, 0.013310834765434265, 0.024182075634598732], [0.008282910101115704, 0.08302327245473862, 0.08903393894433975, 0.01896696537733078, 0.017626123502850533, 0.0027969195507466793, 0.001789054716937244, 0.05828715115785599, 0.08153457194566727, 0.025550758466124535, 0.014697954058647156, 0.17334723472595215, 0.06325499713420868, 0.08151346445083618, 0.03684552386403084, 0.027927303686738014, 0.05977882072329521, 0.08154194056987762, 0.02110493928194046, 0.026205334812402725, 0.026890819892287254], [0.04923838749527931, 0.01004374772310257, 0.04331337660551071, 0.03062036819756031, 0.0741230919957161, 0.04045477882027626, 0.0248128492385149, 0.14644385874271393, 0.009942502714693546, 0.021275483071804047, 0.03857727721333504, 0.04113208130002022, 0.07135104387998581, 0.009945319034159184, 0.04652870073914528, 0.03578755632042885, 0.1273212432861328, 0.009942194446921349, 0.018499160185456276, 0.04661577567458153, 0.10403111577033997], [0.001506744883954525, 0.21419832110404968, 0.002993309870362282, 0.0006823505973443389, 0.008338836953043938, 0.04009276628494263, 0.00144079455640167, 0.008921664208173752, 0.21065618097782135, 0.003995161969214678, 0.007001528050750494, 0.003727222327142954, 0.022895609959959984, 0.2108580768108368, 0.03195589408278465, 0.004113479517400265, 0.008376427926123142, 0.21072931587696075, 0.0027791077736765146, 0.0023860321380198, 0.0023511333856731653], [0.0021694370079785585, 0.17913396656513214, 0.0015120599418878555, 0.0014025698183104396, 0.002481654053553939, 0.025904277339577675, 0.0039522782899439335, 0.0050552464090287685, 0.17742088437080383, 0.006189316511154175, 0.0011984271695837379, 0.0028307423926889896, 0.005484284833073616, 0.17774875462055206, 0.18608368933200836, 0.02354220114648342, 0.00580955995246768, 0.17761564254760742, 0.008210644125938416, 0.004088372923433781, 0.0021659350022673607], [0.004446563310921192, 0.03438505157828331, 0.008956954814493656, 0.0019218811066821218, 0.0023127379827201366, 0.0040938956663012505, 0.007646369282156229, 0.019832460209727287, 0.03413056582212448, 0.014391228556632996, 0.002293121302500367, 0.011030349880456924, 0.004794381093233824, 0.03414922207593918, 0.43808501958847046, 0.21201404929161072, 0.08043321222066879, 0.034127041697502136, 0.03816830739378929, 0.00808483175933361, 0.004702759440988302], [0.04921792820096016, 0.01002553477883339, 0.043338410556316376, 0.030609270557761192, 0.07414529472589493, 0.04047395661473274, 0.024795668199658394, 0.1463766247034073, 0.009924366138875484, 0.021288931369781494, 0.03857792168855667, 0.04113059863448143, 0.07131678611040115, 0.009927173145115376, 0.04651906341314316, 0.035794276744127274, 0.12732087075710297, 0.009924056008458138, 0.018528712913393974, 0.04665162041783333, 0.10411302000284195], [0.005798256956040859, 0.12780249118804932, 0.004906679503619671, 0.0013644968857988715, 0.004963725805282593, 0.01865326426923275, 0.003079112619161606, 0.007519448176026344, 0.1274145245552063, 0.017394939437508583, 0.008187668398022652, 0.004547969438135624, 0.0073579223826527596, 0.12744583189487457, 0.1383306384086609, 0.03141718730330467, 0.05229710415005684, 0.12736225128173828, 0.16271047294139862, 0.017810190096497536, 0.0036358607467263937], [0.007591004483401775, 0.07862847298383713, 0.008273343555629253, 0.0008877123473212123, 0.003419525921344757, 0.005872682668268681, 0.0045246221125125885, 0.011846581473946571, 0.07825745642185211, 0.046116217970848083, 0.006681469269096851, 0.005727097857743502, 0.00696555944159627, 0.078284852206707, 0.15272289514541626, 0.11205416172742844, 0.04933571070432663, 0.0782725140452385, 0.2202633172273636, 0.03734475374221802, 0.006930026691406965], [0.025903189554810524, 0.07402189821004868, 0.043009866029024124, 0.005041650030761957, 0.011508090421557426, 0.014940433204174042, 0.023760365322232246, 0.03965026140213013, 0.07381065934896469, 0.07798834890127182, 0.0073363687843084335, 0.021586824208498, 0.01072059664875269, 0.0738142654299736, 0.0779254138469696, 0.06526324152946472, 0.04118901118636131, 0.07381940633058548, 0.16600379347801208, 0.05272333696484566, 0.019982855767011642]]]], \"left_text\": [\"[CLS]\", \"\\u0627\\u0644+\", \"\\u062d\\u0642\", \"\\u0645\\u0634\", \"\\u0639\\u0644\\u0649\", \"\\u0644+\", \"\\u062c\\u0646\", \"+\\u0647\", \"\\u0627\\u0644+\", \"\\u062a\\u062d\\u0643\\u064a\\u0645\", \"\\u0627\\u0644+\", \"\\u062d\\u0642\", \"\\u0639\\u0644\\u0649\", \"\\u0627\\u0644+\", \"\\u0627\\u063a\\u0628\", \"##\\u064a\", \"##\\u0647\", \"\\u0627\\u0644+\", \"\\u0645\\u0634\\u062a\\u0631\\u0643\", \"+\\u064a\\u0646\", \"[SEP]\"], \"right_text\": [\"[CLS]\", \"\\u0627\\u0644+\", \"\\u062d\\u0642\", \"\\u0645\\u0634\", \"\\u0639\\u0644\\u0649\", \"\\u0644+\", \"\\u062c\\u0646\", \"+\\u0647\", \"\\u0627\\u0644+\", \"\\u062a\\u062d\\u0643\\u064a\\u0645\", \"\\u0627\\u0644+\", \"\\u062d\\u0642\", \"\\u0639\\u0644\\u0649\", \"\\u0627\\u0644+\", \"\\u0627\\u063a\\u0628\", \"##\\u064a\", \"##\\u0647\", \"\\u0627\\u0644+\", \"\\u0645\\u0634\\u062a\\u0631\\u0643\", \"+\\u064a\\u0646\", \"[SEP]\"]}}, \"default_filter\": \"all\"}" + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "display_data", + "data": { + "application/javascript": [ + "/**\n", + " * @fileoverview Transformer Visualization D3 javascript code.\n", + " *\n", + " * Based on: https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/visualization/attention.js\n", + " *\n", + " * Change log:\n", + " *\n", + " * 02/01/19 Jesse Vig Initial implementation\n", + " */\n", + "\n", + "\n", + "requirejs(['jquery', 'd3'], function($, d3) {\n", + "\n", + " var params = window.params;\n", + " var config = {};\n", + "\n", + " const MIN_X = 0;\n", + " const MIN_Y = 0;\n", + " const DIV_WIDTH = 970;\n", + " const THUMBNAIL_PADDING = 5;\n", + " const DETAIL_WIDTH = 300;\n", + " const DETAIL_ATTENTION_WIDTH = 140;\n", + " const DETAIL_BOX_WIDTH = 80;\n", + " const DETAIL_BOX_HEIGHT = 20;\n", + " const DETAIL_PADDING = 5;\n", + " const ATTN_PADDING = 0;\n", + " const DETAIL_HEADING_HEIGHT = 47;\n", + " const DETAIL_HEADING_TEXT_SIZE = 15;\n", + " const TEXT_SIZE = 13;\n", + " const LAYER_COLORS = d3.schemeCategory10;\n", + "\n", + " function render() {\n", + "\n", + " // Set global state variables\n", + "\n", + " var attData = config.attention[config.filter];\n", + " config.leftText = attData.left_text;\n", + " config.rightText = attData.right_text;\n", + " config.attn = attData.attn;\n", + " config.numLayers = config.attn.length;\n", + " config.numHeads = config.attn[0].length;\n", + " config.thumbnailBoxHeight = 7 * (12 / config.numHeads);\n", + " config.thumbnailHeight = Math.max(config.leftText.length, config.rightText.length) * config.thumbnailBoxHeight + 2 * THUMBNAIL_PADDING;\n", + " config.thumbnailWidth = DIV_WIDTH / config.numHeads;\n", + " config.detailHeight = Math.max(config.leftText.length, config.rightText.length) * DETAIL_BOX_HEIGHT + 2 * DETAIL_PADDING + DETAIL_HEADING_HEIGHT;\n", + " config.divHeight = config.numLayers * config.thumbnailHeight;\n", + "\n", + " $(\"#vis\").empty();\n", + " $(\"#vis\").attr(\"height\", config.divHeight);\n", + " config.svg = d3.select(\"#vis\")\n", + " .append('svg')\n", + " .attr(\"width\", DIV_WIDTH)\n", + " .attr(\"height\", config.divHeight)\n", + " .attr(\"fill\", \"black\");\n", + "\n", + " var i;\n", + " var j;\n", + " for (i = 0; i < config.numLayers; i++) {\n", + " for (j = 0; j < config.numHeads; j++) {\n", + " renderThumbnail(i, j);\n", + " }\n", + " }\n", + " }\n", + "\n", + " function renderThumbnail(layerIndex, headIndex) {\n", + " var x = headIndex * config.thumbnailWidth;\n", + " var y = layerIndex * config.thumbnailHeight;\n", + " renderThumbnailAttn(x, y, config.attn[layerIndex][headIndex], layerIndex, headIndex);\n", + " }\n", + "\n", + " function renderDetail(att, layerIndex, headIndex) {\n", + " var xOffset = .8 * config.thumbnailWidth;\n", + " var maxX = DIV_WIDTH;\n", + " var maxY = config.divHeight;\n", + " var leftPos = (headIndex / config.numHeads) * DIV_WIDTH\n", + " var x = leftPos + THUMBNAIL_PADDING + xOffset;\n", + " if (x < MIN_X) {\n", + " x = MIN_X;\n", + " } else if (x + DETAIL_WIDTH > maxX) {\n", + " x = leftPos + THUMBNAIL_PADDING - DETAIL_WIDTH + 8;\n", + " }\n", + " var posLeftText = x;\n", + " var posAttention = posLeftText + DETAIL_BOX_WIDTH;\n", + " var posRightText = posAttention + DETAIL_ATTENTION_WIDTH;\n", + " var thumbnailHeight = Math.max(config.leftText.length, config.rightText.length) * config.thumbnailBoxHeight + 2 * THUMBNAIL_PADDING;\n", + " var yOffset = 20;\n", + " var y = layerIndex * thumbnailHeight + THUMBNAIL_PADDING + yOffset;\n", + " if (y < MIN_Y) {\n", + " y = MIN_Y;\n", + " } else if (y + config.detailHeight > maxY) {\n", + " y = maxY - config.detailHeight;\n", + " }\n", + " renderDetailFrame(x, y, layerIndex);\n", + " renderDetailHeading(x, y, layerIndex, headIndex);\n", + " renderText(config.leftText, \"leftText\", posLeftText, y + DETAIL_HEADING_HEIGHT, layerIndex);\n", + " renderDetailAttn(posAttention, y + DETAIL_HEADING_HEIGHT, att, layerIndex, headIndex);\n", + " renderText(config.rightText, \"rightText\", posRightText, y + DETAIL_HEADING_HEIGHT, layerIndex);\n", + " }\n", + "\n", + " function renderDetailHeading(x, y, layerIndex, headIndex) {\n", + " var fillColor = getColor(layerIndex);\n", + " config.svg.append(\"text\")\n", + " .classed(\"detail\", true)\n", + " .text('Layer ' + layerIndex + \", Head \" + headIndex)\n", + " .attr(\"font-size\", DETAIL_HEADING_TEXT_SIZE + \"px\")\n", + " .style(\"cursor\", \"default\")\n", + " .style(\"-webkit-user-select\", \"none\")\n", + " .style(\"font-weight\", \"bold\")\n", + " .attr(\"fill\", fillColor)\n", + " .attr(\"x\", x + 87)\n", + " .attr(\"y\", y + 16)\n", + " .attr(\"height\", DETAIL_HEADING_HEIGHT)\n", + " .attr(\"width\", DETAIL_WIDTH)\n", + " .attr(\"dy\", DETAIL_HEADING_TEXT_SIZE);\n", + " }\n", + "\n", + " function renderText(text, id, x, y, layerIndex) {\n", + " var tokenContainer = config.svg.append(\"svg:g\")\n", + " .classed(\"detail\", true)\n", + " .selectAll(\"g\")\n", + " .data(text)\n", + " .enter()\n", + " .append(\"g\");\n", + "\n", + " var fillColor = getColor(layerIndex);\n", + "\n", + " tokenContainer.append(\"rect\")\n", + " .classed(\"highlight\", true)\n", + " .attr(\"fill\", fillColor)\n", + " .style(\"opacity\", 0.0)\n", + " .attr(\"height\", DETAIL_BOX_HEIGHT)\n", + " .attr(\"width\", DETAIL_BOX_WIDTH)\n", + " .attr(\"x\", x)\n", + " .attr(\"y\", function (d, i) {\n", + " return y + i * DETAIL_BOX_HEIGHT - 1;\n", + " });\n", + "\n", + " var textContainer = tokenContainer.append(\"text\")\n", + " .classed(\"token\", true)\n", + " .text(function (d) {\n", + " return d;\n", + " })\n", + " .attr(\"font-size\", TEXT_SIZE + \"px\")\n", + " .style(\"cursor\", \"default\")\n", + " .style(\"-webkit-user-select\", \"none\")\n", + " .attr(\"fill\", fillColor)\n", + " .attr(\"x\", x)\n", + " .attr(\"y\", function (d, i) {\n", + " return i * DETAIL_BOX_HEIGHT + y;\n", + " })\n", + " .attr(\"height\", DETAIL_BOX_HEIGHT)\n", + " .attr(\"width\", DETAIL_BOX_WIDTH)\n", + " .attr(\"dy\", TEXT_SIZE);\n", + "\n", + " if (id == \"leftText\") {\n", + " textContainer.style(\"text-anchor\", \"end\")\n", + " .attr(\"dx\", DETAIL_BOX_WIDTH - 2);\n", + " tokenContainer.on(\"mouseover\", function (d, index) {\n", + " highlightSelection(index);\n", + " });\n", + " tokenContainer.on(\"mouseleave\", function () {\n", + " unhighlightSelection();\n", + " });\n", + " }\n", + " }\n", + "\n", + " function highlightSelection(index) {\n", + " config.svg.select(\"#leftText\")\n", + " .selectAll(\".highlight\")\n", + " .style(\"opacity\", function (d, i) {\n", + " return i == index ? 1.0 : 0.0;\n", + " });\n", + " config.svg.selectAll(\".attn-line-group\")\n", + " .style(\"opacity\", function (d, i) {\n", + " return i == index ? 1.0 : 0.0;\n", + " });\n", + " }\n", + "\n", + " function unhighlightSelection() {\n", + " config.svg.select(\"#leftText\")\n", + " .selectAll(\".highlight\")\n", + " .style(\"opacity\", 0.0);\n", + " config.svg.selectAll(\".attn-line-group\")\n", + " .style(\"opacity\", 1);\n", + " }\n", + "\n", + " function renderThumbnailAttn(x, y, att, layerIndex, headIndex) {\n", + "\n", + " var attnContainer = config.svg.append(\"svg:g\");\n", + "\n", + " var attnBackground = attnContainer.append(\"rect\")\n", + " .attr(\"id\", 'attn_background_' + layerIndex + \"_\" + headIndex)\n", + " .classed(\"attn_background\", true)\n", + " .attr(\"x\", x)\n", + " .attr(\"y\", y)\n", + " .attr(\"height\", config.thumbnailHeight)\n", + " .attr(\"width\", config.thumbnailWidth)\n", + " .attr(\"stroke-width\", 2)\n", + " .attr(\"stroke\", getColor(layerIndex))\n", + " .attr(\"stroke-opacity\", 0);\n", + " var x1 = x + THUMBNAIL_PADDING;\n", + " var x2 = x1 + config.thumbnailWidth - 14;\n", + " var y1 = y + THUMBNAIL_PADDING;\n", + "\n", + " attnContainer.selectAll(\"g\")\n", + " .data(att)\n", + " .enter()\n", + " .append(\"g\") // Add group for each source token\n", + " .attr(\"source-index\", function (d, i) { // Save index of source token\n", + " return i;\n", + " })\n", + " .selectAll(\"line\")\n", + " .data(function (d) { // Loop over all target tokens\n", + " return d;\n", + " })\n", + " .enter() // When entering\n", + " .append(\"line\")\n", + " .attr(\"x1\", x1)\n", + " .attr(\"y1\", function (d) {\n", + " var sourceIndex = +this.parentNode.getAttribute(\"source-index\");\n", + " return y1 + (sourceIndex + .5) * config.thumbnailBoxHeight;\n", + " })\n", + " .attr(\"x2\", x2)\n", + " .attr(\"y2\", function (d, targetIndex) {\n", + " return y1 + (targetIndex + .5) * config.thumbnailBoxHeight;\n", + " })\n", + " .attr(\"stroke-width\", 2.2)\n", + " .attr(\"stroke\", getColor(layerIndex))\n", + " .attr(\"stroke-opacity\", function (d) {\n", + " return d;\n", + " });\n", + "\n", + " var clickRegion = attnContainer.append(\"rect\")\n", + " .attr(\"x\", x)\n", + " .attr(\"y\", y)\n", + " .attr(\"height\", config.thumbnailHeight)\n", + " .attr(\"width\", config.thumbnailWidth)\n", + " .style(\"opacity\", 0);\n", + "\n", + " clickRegion.on(\"click\", function (d, index) {\n", + " var attnBackgroundOther = config.svg.selectAll(\".attn_background\");\n", + " attnBackgroundOther.attr(\"fill\", \"black\");\n", + " attnBackgroundOther.attr(\"stroke-opacity\", 0);\n", + "\n", + " config.svg.selectAll(\".detail\").remove();\n", + " if (config.detail_layer != layerIndex || config.detail_head != headIndex) {\n", + " renderDetail(att, layerIndex, headIndex);\n", + " config.detail_layer = layerIndex;\n", + " config.detail_head = headIndex;\n", + " attnBackground.attr(\"fill\", \"#202020\");\n", + " attnBackground.attr(\"stroke-opacity\", .8);\n", + " } else {\n", + " config.detail_layer = null;\n", + " config.detail_head = null;\n", + " attnBackground.attr(\"fill\", \"black\");\n", + " attnBackground.attr(\"stroke-opacity\", 0);\n", + " }\n", + " });\n", + "\n", + " clickRegion.on(\"mouseover\", function (d) {\n", + " d3.select(this).style(\"cursor\", \"pointer\");\n", + " });\n", + " }\n", + "\n", + " function renderDetailFrame(x, y, layerIndex) {\n", + " var detailFrame = config.svg.append(\"rect\")\n", + " .classed(\"detail\", true)\n", + " .attr(\"x\", x)\n", + " .attr(\"y\", y)\n", + " .attr(\"height\", config.detailHeight)\n", + " .attr(\"width\", DETAIL_WIDTH)\n", + " .style(\"opacity\", 1)\n", + " .attr(\"fill\", \"white\")\n", + " .attr(\"stroke-width\", 2)\n", + " .attr(\"stroke-opacity\", 0.7)\n", + " .attr(\"stroke\", getColor(layerIndex));\n", + " }\n", + "\n", + " function renderDetailAttn(x, y, att, layerIndex) {\n", + " var attnContainer = config.svg.append(\"svg:g\")\n", + " .classed(\"detail\", true)\n", + " .attr(\"pointer-events\", \"none\");\n", + " attnContainer.selectAll(\"g\")\n", + " .data(att)\n", + " .enter()\n", + " .append(\"g\") // Add group for each source token\n", + " .classed('attn-line-group', true)\n", + " .attr(\"source-index\", function (d, i) { // Save index of source token\n", + " return i;\n", + " })\n", + " .selectAll(\"line\")\n", + " .data(function (d) { // Loop over all target tokens\n", + " return d;\n", + " })\n", + " .enter()\n", + " .append(\"line\")\n", + " .attr(\"x1\", x + ATTN_PADDING)\n", + " .attr(\"y1\", function (d) {\n", + " var sourceIndex = +this.parentNode.getAttribute(\"source-index\");\n", + " return y + (sourceIndex + .5) * DETAIL_BOX_HEIGHT;\n", + " })\n", + " .attr(\"x2\", x + DETAIL_ATTENTION_WIDTH - ATTN_PADDING)\n", + " .attr(\"y2\", function (d, targetIndex) {\n", + " return y + (targetIndex + .5) * DETAIL_BOX_HEIGHT;\n", + " })\n", + " .attr(\"stroke-width\", 2)\n", + " .attr(\"stroke\", getColor(layerIndex))\n", + " .attr(\"stroke-opacity\", function (d) {\n", + " return d;\n", + " });\n", + " }\n", + " \n", + " function getColor(layer) {\n", + " return LAYER_COLORS[layer % 10];\n", + " }\n", + "\n", + " function initialize() {\n", + " config.attention = params['attention'];\n", + " config.filter = params['default_filter'];\n", + " }\n", + "\n", + " $(\"#filter\").on('change', function (e) {\n", + " config.filter = e.currentTarget.value;\n", + " render();\n", + " });\n", + "\n", + " initialize();\n", + " render();\n", + "\n", + " });" + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "zzYryqLmrLLk", + "colab_type": "code", + "colab": {} + }, + "source": [ + "" + ], + "execution_count": 0, + "outputs": [] + } + ] +} \ No newline at end of file diff --git a/arabert/examples/old/AraBERT_with_fast_bert.ipynb b/arabert/examples/old/AraBERT_with_fast_bert.ipynb new file mode 100644 index 0000000000000000000000000000000000000000..d9f616bcaeeb34f399baffdd9e0edb67bd7a1caf --- /dev/null +++ b/arabert/examples/old/AraBERT_with_fast_bert.ipynb @@ -0,0 +1,634 @@ +{ + "nbformat": 4, + "nbformat_minor": 0, + "metadata": { + "colab": { + "name": "AraBERT with fast-bert.ipynb", + "provenance": [], + "collapsed_sections": [] + }, + "kernelspec": { + "name": "python3", + "display_name": "Python 3" + }, + "accelerator": "GPU" + }, + "cells": [ + { + "cell_type": "markdown", + "metadata": { + "id": "AJjO8aFQKZ2T", + "colab_type": "text" + }, + "source": [ + "#Fine-tune AraBERT with Fast-BERT library\n", + "https://github.com/kaushaltrivedi/fast-ber" + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "vTWKMKNjKi6R", + "colab_type": "text" + }, + "source": [ + "##Get Requirements" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "8B0SkCH-BWQ2", + "colab_type": "code", + "colab": {} + }, + "source": [ + "!git clone https://github.com/aub-mind/arabert\n", + "!pip install PyArabic farasapy fast-bert" + ], + "execution_count": null, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "yF046S5JKnCw", + "colab_type": "text" + }, + "source": [ + "##Prepare the data" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "iCcdj_eiBrj3", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 255 + }, + "outputId": "65d4db85-679b-4c1e-e5eb-00206e39dd6a" + }, + "source": [ + "import pandas as pd\n", + "#from py4j.java_gateway import JavaGateway\n", + "from farasa.segmenter import FarasaSegmenter\n", + "from arabert.preprocess_arabert import preprocess\n", + "from sklearn.model_selection import train_test_split\n", + "\n", + "# !pkill \"java\"\n", + "# gateway = JavaGateway.launch_gateway(classpath='./FarasaSegmenterJar.jar')\n", + "# farasa_segmenter = gateway.jvm.com.qcri.farasa.segmenter.Farasa()\n", + "\n", + "farasa_segmenter = FarasaSegmenter(interactive=True)\n", + "\n", + "df_AJGT = pd.read_excel('./arabert/AJGT.xlsx',header=0)\n", + "\n", + "DATA_COLUMN = 'text'\n", + "LABEL_COLUMN = 'label'\n", + "\n", + "df_AJGT = df_AJGT[['Feed', 'Sentiment']]\n", + "df_AJGT.columns = [DATA_COLUMN, LABEL_COLUMN]\n", + "\n", + "label_map = {\n", + " 'Negative' : 0,\n", + " 'Positive' : 1\n", + "}\n", + "\n", + "df_AJGT[DATA_COLUMN] = df_AJGT[DATA_COLUMN].apply(lambda x: preprocess(x, do_farasa_tokenization=True , farasa=farasa_segmenter, use_farasapy = True))\n", + "# df_AJGT[LABEL_COLUMN] = df_AJGT[LABEL_COLUMN].apply(lambda x: label_map[x])\n", + "\n", + "train_AJGT, test_AJGT = train_test_split(df_AJGT, test_size=0.2,random_state=42)\n", + "!mkdir data\n", + "train_AJGT.to_csv(\"data/train.csv\",index=True,columns=train_AJGT.columns,sep=',',header=True)\n", + "test_AJGT.to_csv(\"data/dev.csv\",index=True,columns=test_AJGT.columns,sep=',',header=True)\n", + "with open('data/labels.csv','w') as f:\n", + " f.write(\"\\n\".join(df_AJGT['label'].unique()))" + ], + "execution_count": 2, + "outputs": [ + { + "output_type": "stream", + "text": [ + "perform system check...\n", + "check java version...\n", + "Your java version is 11.0 which is compatiple with Farasa \n", + "check toolkit binaries...\n", + "some binaries are not existed..\n", + "downloading zipped binaries...\n", + "100%|██████████| 200M/200M [00:06<00:00, 30.6MiB/s]\n", + "extracting...\n", + "toolkit binaries are downloaded and extracted.\n", + "Dependencies seem to be satisfied..\n", + "\u001b[37minitializing [SEGMENT] task in \u001b[32mINTERACTIVE \u001b[37mmode...\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/farasa/__base.py:45: UserWarning: Be careful with large lines as they may break on interactive mode. You may switch to Standalone mode for such cases.\n", + " \"Be careful with large lines as they may break on interactive mode. You may switch to Standalone mode for such cases.\"\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "task [SEGMENT] is initialized interactively.\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "7pE7BPGACAHs", + "colab_type": "code", + "colab": {} + }, + "source": [ + "with open('data/labels.csv','w') as f:\n", + " f.write(\"\\n\".join(df_AJGT['label'].unique()))" + ], + "execution_count": 5, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "-LANtQdwKrFn", + "colab_type": "text" + }, + "source": [ + "##Create a DataBunch Object:\n", + "see https://github.com/kaushaltrivedi/fast-bert#text-classification" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "2lVY_0-tCFRL", + "colab_type": "code", + "colab": {} + }, + "source": [ + "from fast_bert.data_cls import BertDataBunch\n", + "from transformers import AutoTokenizer\n", + "\n", + "tokenizer = AutoTokenizer.from_pretrained('aubmindlab/bert-base-arabert')\n", + "\n", + "databunch = BertDataBunch('./data/', './data/',\n", + " tokenizer=tokenizer,\n", + " train_file='train.csv',\n", + " val_file='dev.csv',\n", + " label_file='labels.csv',\n", + " text_col='text',\n", + " label_col='label',\n", + " batch_size_per_gpu=16,\n", + " max_seq_length=256,\n", + " multi_gpu=True,\n", + " multi_label=False,\n", + " model_type='bert',\n", + " )" + ], + "execution_count": 9, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "G41boItaK4dP", + "colab_type": "text" + }, + "source": [ + "##Create the Learner Object\n", + "see https://github.com/kaushaltrivedi/fast-bert#2-create-a-learner-object" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "5ZDfOBDUCkH0", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 632 + }, + "outputId": "2d620b2d-a929-4673-fa08-a84fc6d724f2" + }, + "source": [ + "import logging\n", + "import torch\n", + "\n", + "from fast_bert.learner_cls import BertLearner\n", + "from fast_bert.metrics import accuracy\n", + "\n", + "logging.basicConfig(level=logging.INFO)\n", + "logger = logging.getLogger(__name__)\n", + "\n", + "device_cuda = torch.device(\"cuda\")\n", + "metrics = [{'name': 'accuracy', 'function': accuracy}]\n", + "\n", + "!mkdir 'output'\n", + "learner = BertLearner.from_pretrained_model(\n", + "\t\t\t\t\t\tdatabunch,\n", + "\t\t\t\t\t\tpretrained_path='aubmindlab/bert-base-arabert',\n", + "\t\t\t\t\t\tmetrics=metrics,\n", + "\t\t\t\t\t\tdevice=device_cuda,\n", + "\t\t\t\t\t\tlogger=logger,\n", + "\t\t\t\t\t\toutput_dir='output',\n", + "\t\t\t\t\t\tfinetuned_wgts_path=None,\n", + "\t\t\t\t\t\twarmup_steps=30,\n", + "\t\t\t\t\t\tmulti_gpu=False,\n", + "\t\t\t\t\t\tis_fp16=False,\n", + "\t\t\t\t\t\tmulti_label=False,\n", + "\t\t\t\t\t\tlogging_steps=0)" + ], + "execution_count": 27, + "outputs": [ + { + "output_type": "stream", + "text": [ + "mkdir: cannot create directory ‘output’: File exists\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "INFO:transformers.configuration_utils:loading configuration file https://s3.amazonaws.com/models.huggingface.co/bert/aubmindlab/bert-base-arabert/config.json from cache at /root/.cache/torch/transformers/91c3e98e149f6e88215bffd705e4ef9bd8a355f4c317973e4f3868c6f93fa24a.6eb3bdeb0de95f2f47fb89640edd8008987e27ff2fafa62e0210100371359306\n", + "INFO:transformers.configuration_utils:Model config BertConfig {\n", + " \"architectures\": [\n", + " \"BertModel\"\n", + " ],\n", + " \"attention_probs_dropout_prob\": 0.1,\n", + " \"directionality\": \"bidi\",\n", + " \"gradient_checkpointing\": false,\n", + " \"hidden_act\": \"gelu\",\n", + " \"hidden_dropout_prob\": 0.1,\n", + " \"hidden_size\": 768,\n", + " \"initializer_range\": 0.02,\n", + " \"intermediate_size\": 3072,\n", + " \"layer_norm_eps\": 1e-12,\n", + " \"max_position_embeddings\": 512,\n", + " \"model_type\": \"bert\",\n", + " \"num_attention_heads\": 12,\n", + " \"num_hidden_layers\": 12,\n", + " \"pad_token_id\": 0,\n", + " \"pooler_fc_size\": 768,\n", + " \"pooler_num_attention_heads\": 12,\n", + " \"pooler_num_fc_layers\": 3,\n", + " \"pooler_size_per_head\": 128,\n", + " \"pooler_type\": \"first_token_transform\",\n", + " \"type_vocab_size\": 2,\n", + " \"vocab_size\": 64000\n", + "}\n", + "\n", + "INFO:transformers.modeling_utils:loading weights file https://cdn.huggingface.co/aubmindlab/bert-base-arabert/pytorch_model.bin from cache at /root/.cache/torch/transformers/26f8720a79d80f7ae70d448d93e09fed364a6b0393c95a026519402dbd1313b2.8867d4172d26dd413ba8029e13bbe7eb5b9ae301b62c259f8be84ee78c0beb0c\n", + "WARNING:transformers.modeling_utils:Some weights of the model checkpoint at aubmindlab/bert-base-arabert were not used when initializing BertForSequenceClassification: ['cls.predictions.bias', 'cls.predictions.transform.dense.weight', 'cls.predictions.transform.dense.bias', 'cls.predictions.transform.LayerNorm.weight', 'cls.predictions.transform.LayerNorm.bias', 'cls.predictions.decoder.weight', 'cls.seq_relationship.weight', 'cls.seq_relationship.bias']\n", + "- This IS expected if you are initializing BertForSequenceClassification from the checkpoint of a model trained on another task or with another architecture (e.g. initializing a BertForSequenceClassification model from a BertForPretraining model).\n", + "- This IS NOT expected if you are initializing BertForSequenceClassification from the checkpoint of a model that you expect to be exactly identical (initializing a BertForSequenceClassification model from a BertForSequenceClassification model).\n", + "WARNING:transformers.modeling_utils:Some weights of BertForSequenceClassification were not initialized from the model checkpoint at aubmindlab/bert-base-arabert and are newly initialized: ['classifier.weight', 'classifier.bias']\n", + "You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference.\n" + ], + "name": "stderr" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "h-6B7bGDLAVD", + "colab_type": "text" + }, + "source": [ + "##Start Training and Validating" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "FKNQZffIC6aX", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000 + }, + "outputId": "1a38429a-e594-4942-aa54-b1458c7a1158" + }, + "source": [ + "learner.fit(epochs=5,\n", + "\t\t\tlr=2e-5,\n", + "\t\t\tvalidate=True, \t# Evaluate the model after each epoch\n", + "\t\t\tschedule_type=\"warmup_linear\",\n", + "\t\t\toptimizer_type=\"adamw\")" + ], + "execution_count": 28, + "outputs": [ + { + "output_type": "stream", + "text": [ + "INFO:__main__:***** Running training *****\n", + "INFO:__main__: Num examples = 1440\n", + "INFO:__main__: Num Epochs = 5\n", + "INFO:__main__: Total train batch size (w. parallel, distributed & accumulation) = 16\n", + "INFO:__main__: Gradient Accumulation steps = 1\n", + "INFO:__main__: Total optimization steps = 450\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "text/html": [ + "" + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:__main__:Running evaluation\n", + "INFO:__main__: Num examples = 360\n", + "INFO:__main__: Batch size = 32\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "text/html": [ + "\n", + "
\n", + " \n", + " \n", + " 100.00% [12/12 00:02<00:00]\n", + "
\n", + " " + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:__main__:eval_loss after epoch 1: 0.21195762356122336: \n", + "INFO:__main__:eval_accuracy after epoch 1: 0.9111111111111111: \n", + "/usr/local/lib/python3.6/dist-packages/torch/optim/lr_scheduler.py:231: UserWarning: To get the last learning rate computed by the scheduler, please use `get_last_lr()`.\n", + " warnings.warn(\"To get the last learning rate computed by the scheduler, \"\n", + "INFO:__main__:lr after epoch 1: 1.7142857142857142e-05\n", + "INFO:__main__:train_loss after epoch 1: 0.42563389043013256\n", + "INFO:__main__:\n", + "\n", + "INFO:__main__:Running evaluation\n", + "INFO:__main__: Num examples = 360\n", + "INFO:__main__: Batch size = 32\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "text/html": [ + "\n", + "
\n", + " \n", + " \n", + " 100.00% [12/12 00:02<00:00]\n", + "
\n", + " " + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:__main__:eval_loss after epoch 2: 0.2557687560717265: \n", + "INFO:__main__:eval_accuracy after epoch 2: 0.9111111111111111: \n", + "INFO:__main__:lr after epoch 2: 1.2857142857142859e-05\n", + "INFO:__main__:train_loss after epoch 2: 0.1966747651911444\n", + "INFO:__main__:\n", + "\n", + "INFO:__main__:Running evaluation\n", + "INFO:__main__: Num examples = 360\n", + "INFO:__main__: Batch size = 32\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "text/html": [ + "\n", + "
\n", + " \n", + " \n", + " 100.00% [12/12 00:02<00:00]\n", + "
\n", + " " + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:__main__:eval_loss after epoch 3: 0.2621495487789313: \n", + "INFO:__main__:eval_accuracy after epoch 3: 0.9333333333333333: \n", + "INFO:__main__:lr after epoch 3: 8.571428571428571e-06\n", + "INFO:__main__:train_loss after epoch 3: 0.09381214525136683\n", + "INFO:__main__:\n", + "\n", + "INFO:__main__:Running evaluation\n", + "INFO:__main__: Num examples = 360\n", + "INFO:__main__: Batch size = 32\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "text/html": [ + "\n", + "
\n", + " \n", + " \n", + " 100.00% [12/12 00:02<00:00]\n", + "
\n", + " " + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:__main__:eval_loss after epoch 4: 0.2937438429022829: \n", + "INFO:__main__:eval_accuracy after epoch 4: 0.9333333333333333: \n", + "INFO:__main__:lr after epoch 4: 4.2857142857142855e-06\n", + "INFO:__main__:train_loss after epoch 4: 0.03164816682951318\n", + "INFO:__main__:\n", + "\n", + "INFO:__main__:Running evaluation\n", + "INFO:__main__: Num examples = 360\n", + "INFO:__main__: Batch size = 32\n" + ], + "name": "stderr" + }, + { + "output_type": "display_data", + "data": { + "text/html": [ + "\n", + "
\n", + " \n", + " \n", + " 100.00% [12/12 00:02<00:00]\n", + "
\n", + " " + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "INFO:__main__:eval_loss after epoch 5: 0.3140492020174861: \n", + "INFO:__main__:eval_accuracy after epoch 5: 0.9222222222222223: \n", + "INFO:__main__:lr after epoch 5: 0.0\n", + "INFO:__main__:train_loss after epoch 5: 0.020089184989531834\n", + "INFO:__main__:\n", + "\n" + ], + "name": "stderr" + }, + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "(450, 0.15357163053833775)" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 28 + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "Pi7SI3OCLEkE", + "colab_type": "text" + }, + "source": [ + "##You can see the output using tensorboard" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "G1BLaw3xDYL4", + "colab_type": "code", + "colab": {} + }, + "source": [ + "%load_ext tensorboard\n", + "%tensorboard --logdir './output/tensorboard'" + ], + "execution_count": null, + "outputs": [] + } + ] +} \ No newline at end of file diff --git a/arabert/examples/old/AraBert_output_Embeddings_PyTorch.ipynb b/arabert/examples/old/AraBert_output_Embeddings_PyTorch.ipynb new file mode 100644 index 0000000000000000000000000000000000000000..f7dabc365de15ba7f6ed2df3cf85a16bb66fcef1 --- /dev/null +++ b/arabert/examples/old/AraBert_output_Embeddings_PyTorch.ipynb @@ -0,0 +1,1184 @@ +{ + "nbformat": 4, + "nbformat_minor": 0, + "metadata": { + "kernelspec": { + "display_name": "Python 3", + "language": "python", + "name": "python3" + }, + "language_info": { + "codemirror_mode": { + "name": "ipython", + "version": 3 + }, + "file_extension": ".py", + "mimetype": "text/x-python", + "name": "python", + "nbconvert_exporter": "python", + "pygments_lexer": "ipython3", + "version": "3.8.3" + }, + "colab": { + "name": "AraBert output Embeddings - PyTorch.ipynb", + "provenance": [], + "collapsed_sections": [] + }, + "widgets": { + "application/vnd.jupyter.widget-state+json": { + "854fc85905904877bdd188392584a0eb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_1833452be0b04736a7f1fa8f2d9cb4da", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_79be542f4c144beebdc038976bcf9cc8", + "IPY_MODEL_e06f6ef13f5c46ef9cdad1901605a159" + ] + } + }, + "1833452be0b04736a7f1fa8f2d9cb4da": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "79be542f4c144beebdc038976bcf9cc8": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_fb12ee856871474d99492064c1b1a814", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 580, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 580, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_074d994a7d8642e483c0a011fd9b7b45" + } + }, + "e06f6ef13f5c46ef9cdad1901605a159": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_b086bc6629684e7e91b377bc681976eb", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 580/580 [00:00<00:00, 746B/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_bcfed4bb69f14a08ab2afaf1c2b70b5c" + } + }, + "fb12ee856871474d99492064c1b1a814": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "074d994a7d8642e483c0a011fd9b7b45": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "b086bc6629684e7e91b377bc681976eb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "bcfed4bb69f14a08ab2afaf1c2b70b5c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "9217e1d8d2424d3a85cd38555a18bf59": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_3c585aefa1b54066bcd2a7a931ac5a1c", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_1a7fff9d58ad4a2ca7090bbab5b21733", + "IPY_MODEL_35835ae44d19486cba8c34a0c488561d" + ] + } + }, + "3c585aefa1b54066bcd2a7a931ac5a1c": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "1a7fff9d58ad4a2ca7090bbab5b21733": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_8fe725f0fa3140538a5df031d1785643", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 717153, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 717153, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_0c9e747cfd004bd1b93fc02fa04a54cf" + } + }, + "35835ae44d19486cba8c34a0c488561d": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_81ce4cb0ea0c46dbb2c63466fde2a4eb", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 717k/717k [00:03<00:00, 182kB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_d756fbf4ba1d4c2f9bd1ca1d5359d923" + } + }, + "8fe725f0fa3140538a5df031d1785643": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "0c9e747cfd004bd1b93fc02fa04a54cf": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "81ce4cb0ea0c46dbb2c63466fde2a4eb": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "d756fbf4ba1d4c2f9bd1ca1d5359d923": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "a87dd1736ddb45aba797e15f44c8776b": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HBoxModel", + "state": { + "_view_name": "HBoxView", + "_dom_classes": [], + "_model_name": "HBoxModel", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.5.0", + "box_style": "", + "layout": "IPY_MODEL_78e8617af99f4175923b83f99177fb46", + "_model_module": "@jupyter-widgets/controls", + "children": [ + "IPY_MODEL_eef9894d92044e558cfaf45ff2b3e66a", + "IPY_MODEL_0e991a2df4584261a64af02637279af6" + ] + } + }, + "78e8617af99f4175923b83f99177fb46": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "eef9894d92044e558cfaf45ff2b3e66a": { + "model_module": "@jupyter-widgets/controls", + "model_name": "FloatProgressModel", + "state": { + "_view_name": "ProgressView", + "style": "IPY_MODEL_781ba8c7f77f49718a35d4ab918ae806", + "_dom_classes": [], + "description": "Downloading: 100%", + "_model_name": "FloatProgressModel", + "bar_style": "success", + "max": 543450661, + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": 543450661, + "_view_count": null, + "_view_module_version": "1.5.0", + "orientation": "horizontal", + "min": 0, + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_22fa6ae514134836975907afb146de1d" + } + }, + "0e991a2df4584261a64af02637279af6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "HTMLModel", + "state": { + "_view_name": "HTMLView", + "style": "IPY_MODEL_8673398ee3184573953cfd042c00c6f6", + "_dom_classes": [], + "description": "", + "_model_name": "HTMLModel", + "placeholder": "​", + "_view_module": "@jupyter-widgets/controls", + "_model_module_version": "1.5.0", + "value": " 543M/543M [00:08<00:00, 63.9MB/s]", + "_view_count": null, + "_view_module_version": "1.5.0", + "description_tooltip": null, + "_model_module": "@jupyter-widgets/controls", + "layout": "IPY_MODEL_7e3ad5b7e8484d309999b43c8fd56322" + } + }, + "781ba8c7f77f49718a35d4ab918ae806": { + "model_module": "@jupyter-widgets/controls", + "model_name": "ProgressStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "ProgressStyleModel", + "description_width": "initial", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "bar_color": null, + "_model_module": "@jupyter-widgets/controls" + } + }, + "22fa6ae514134836975907afb146de1d": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + }, + "8673398ee3184573953cfd042c00c6f6": { + "model_module": "@jupyter-widgets/controls", + "model_name": "DescriptionStyleModel", + "state": { + "_view_name": "StyleView", + "_model_name": "DescriptionStyleModel", + "description_width": "", + "_view_module": "@jupyter-widgets/base", + "_model_module_version": "1.5.0", + "_view_count": null, + "_view_module_version": "1.2.0", + "_model_module": "@jupyter-widgets/controls" + } + }, + "7e3ad5b7e8484d309999b43c8fd56322": { + "model_module": "@jupyter-widgets/base", + "model_name": "LayoutModel", + "state": { + "_view_name": "LayoutView", + "grid_template_rows": null, + "right": null, + "justify_content": null, + "_view_module": "@jupyter-widgets/base", + "overflow": null, + "_model_module_version": "1.2.0", + "_view_count": null, + "flex_flow": null, + "width": null, + "min_width": null, + "border": null, + "align_items": null, + "bottom": null, + "_model_module": "@jupyter-widgets/base", + "top": null, + "grid_column": null, + "overflow_y": null, + "overflow_x": null, + "grid_auto_flow": null, + "grid_area": null, + "grid_template_columns": null, + "flex": null, + "_model_name": "LayoutModel", + "justify_items": null, + "grid_row": null, + "max_height": null, + "align_content": null, + "visibility": null, + "align_self": null, + "height": null, + "min_height": null, + "padding": null, + "grid_auto_rows": null, + "grid_gap": null, + "max_width": null, + "order": null, + "_view_module_version": "1.2.0", + "grid_template_areas": null, + "object_position": null, + "object_fit": null, + "grid_auto_columns": null, + "margin": null, + "display": null, + "left": null + } + } + } + } + }, + "cells": [ + { + "cell_type": "code", + "metadata": { + "id": "N-FLoZGM2tjC", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000 + }, + "outputId": "ce8637c8-1d03-4a90-873a-847b216a736b" + }, + "source": [ + "!pip install transformers\n", + "!git clone https://github.com/aub-mind/arabert\n", + "!pip install pyarabic\n", + "!pip install farasapy" + ], + "execution_count": 1, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Collecting transformers\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/9c/35/1c3f6e62d81f5f0daff1384e6d5e6c5758682a8357ebc765ece2b9def62b/transformers-3.0.0-py3-none-any.whl (754kB)\n", + "\u001b[K |████████████████████████████████| 757kB 2.8MB/s \n", + "\u001b[?25hCollecting sentencepiece\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/d4/a4/d0a884c4300004a78cca907a6ff9a5e9fe4f090f5d95ab341c53d28cbc58/sentencepiece-0.1.91-cp36-cp36m-manylinux1_x86_64.whl (1.1MB)\n", + "\u001b[K |████████████████████████████████| 1.1MB 14.6MB/s \n", + "\u001b[?25hRequirement already satisfied: regex!=2019.12.17 in /usr/local/lib/python3.6/dist-packages (from transformers) (2019.12.20)\n", + "Collecting tokenizers==0.8.0-rc4\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/e8/bd/e5abec46af977c8a1375c1dca7cb1e5b3ec392ef279067af7f6bc50491a0/tokenizers-0.8.0rc4-cp36-cp36m-manylinux1_x86_64.whl (3.0MB)\n", + "\u001b[K |████████████████████████████████| 3.0MB 13.9MB/s \n", + "\u001b[?25hCollecting sacremoses\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/7d/34/09d19aff26edcc8eb2a01bed8e98f13a1537005d31e95233fd48216eed10/sacremoses-0.0.43.tar.gz (883kB)\n", + "\u001b[K |████████████████████████████████| 890kB 41.0MB/s \n", + "\u001b[?25hRequirement already satisfied: packaging in /usr/local/lib/python3.6/dist-packages (from transformers) (20.4)\n", + "Requirement already satisfied: numpy in /usr/local/lib/python3.6/dist-packages (from transformers) (1.18.5)\n", + "Requirement already satisfied: dataclasses; python_version < \"3.7\" in /usr/local/lib/python3.6/dist-packages (from transformers) (0.7)\n", + "Requirement already satisfied: filelock in /usr/local/lib/python3.6/dist-packages (from transformers) (3.0.12)\n", + "Requirement already satisfied: requests in /usr/local/lib/python3.6/dist-packages (from transformers) (2.23.0)\n", + "Requirement already satisfied: tqdm>=4.27 in /usr/local/lib/python3.6/dist-packages (from transformers) (4.41.1)\n", + "Requirement already satisfied: six in /usr/local/lib/python3.6/dist-packages (from sacremoses->transformers) (1.12.0)\n", + "Requirement already satisfied: click in /usr/local/lib/python3.6/dist-packages (from sacremoses->transformers) (7.1.2)\n", + "Requirement already satisfied: joblib in /usr/local/lib/python3.6/dist-packages (from sacremoses->transformers) (0.15.1)\n", + "Requirement already satisfied: pyparsing>=2.0.2 in /usr/local/lib/python3.6/dist-packages (from packaging->transformers) (2.4.7)\n", + "Requirement already satisfied: urllib3!=1.25.0,!=1.25.1,<1.26,>=1.21.1 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (1.24.3)\n", + "Requirement already satisfied: certifi>=2017.4.17 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (2020.6.20)\n", + "Requirement already satisfied: chardet<4,>=3.0.2 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (3.0.4)\n", + "Requirement already satisfied: idna<3,>=2.5 in /usr/local/lib/python3.6/dist-packages (from requests->transformers) (2.9)\n", + "Building wheels for collected packages: sacremoses\n", + " Building wheel for sacremoses (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for sacremoses: filename=sacremoses-0.0.43-cp36-none-any.whl size=893260 sha256=44a0bddb233906b1fed45e51bdb7aa7737141f24ae25aeb9464eba3d2faf0e6e\n", + " Stored in directory: /root/.cache/pip/wheels/29/3c/fd/7ce5c3f0666dab31a50123635e6fb5e19ceb42ce38d4e58f45\n", + "Successfully built sacremoses\n", + "Installing collected packages: sentencepiece, tokenizers, sacremoses, transformers\n", + "Successfully installed sacremoses-0.0.43 sentencepiece-0.1.91 tokenizers-0.8.0rc4 transformers-3.0.0\n", + "Cloning into 'arabert'...\n", + "remote: Enumerating objects: 198, done.\u001b[K\n", + "remote: Counting objects: 100% (198/198), done.\u001b[K\n", + "remote: Compressing objects: 100% (165/165), done.\u001b[K\n", + "remote: Total 198 (delta 112), reused 73 (delta 31), pack-reused 0\u001b[K\n", + "Receiving objects: 100% (198/198), 2.24 MiB | 2.19 MiB/s, done.\n", + "Resolving deltas: 100% (112/112), done.\n", + "Collecting pyarabic\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/2c/d4/8b5b7288dd313680d6fdea9c9ded2946f12ed2c81be4b44940bbd478da8c/PyArabic-0.6.8.tar.gz (105kB)\n", + "\u001b[K |████████████████████████████████| 112kB 2.8MB/s \n", + "\u001b[?25hBuilding wheels for collected packages: pyarabic\n", + " Building wheel for pyarabic (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for pyarabic: filename=PyArabic-0.6.8-cp36-none-any.whl size=110609 sha256=5ca1c47ddd7d091338376db356cd41bc0c5ae1b7bf6c4496b4ff27dd444931c6\n", + " Stored in directory: /root/.cache/pip/wheels/ca/fa/26/d82414a6635b3ee82bee0729bfdb1dc8d09879742206e004bb\n", + "Successfully built pyarabic\n", + "Installing collected packages: pyarabic\n", + "Successfully installed pyarabic-0.6.8\n", + "Collecting farasapy\n", + " Downloading https://files.pythonhosted.org/packages/c9/32/3647a6763dbd2cb4d5777a9a7b0f8443daa2924277518d7a9700617e82c4/farasapy-0.0.5-py3-none-any.whl\n", + "Requirement already satisfied: tqdm in /usr/local/lib/python3.6/dist-packages (from farasapy) (4.41.1)\n", + "Requirement already satisfied: requests in /usr/local/lib/python3.6/dist-packages (from farasapy) (2.23.0)\n", + "Requirement already satisfied: urllib3!=1.25.0,!=1.25.1,<1.26,>=1.21.1 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (1.24.3)\n", + "Requirement already satisfied: chardet<4,>=3.0.2 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (3.0.4)\n", + "Requirement already satisfied: certifi>=2017.4.17 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (2020.6.20)\n", + "Requirement already satisfied: idna<3,>=2.5 in /usr/local/lib/python3.6/dist-packages (from requests->farasapy) (2.9)\n", + "Installing collected packages: farasapy\n", + "Successfully installed farasapy-0.0.5\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "ieh6jjDVwAMP", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 385, + "referenced_widgets": [ + "854fc85905904877bdd188392584a0eb", + "1833452be0b04736a7f1fa8f2d9cb4da", + "79be542f4c144beebdc038976bcf9cc8", + "e06f6ef13f5c46ef9cdad1901605a159", + "fb12ee856871474d99492064c1b1a814", + "074d994a7d8642e483c0a011fd9b7b45", + "b086bc6629684e7e91b377bc681976eb", + "bcfed4bb69f14a08ab2afaf1c2b70b5c", + "9217e1d8d2424d3a85cd38555a18bf59", + "3c585aefa1b54066bcd2a7a931ac5a1c", + "1a7fff9d58ad4a2ca7090bbab5b21733", + "35835ae44d19486cba8c34a0c488561d", + "8fe725f0fa3140538a5df031d1785643", + "0c9e747cfd004bd1b93fc02fa04a54cf", + "81ce4cb0ea0c46dbb2c63466fde2a4eb", + "d756fbf4ba1d4c2f9bd1ca1d5359d923", + "a87dd1736ddb45aba797e15f44c8776b", + "78e8617af99f4175923b83f99177fb46", + "eef9894d92044e558cfaf45ff2b3e66a", + "0e991a2df4584261a64af02637279af6", + "781ba8c7f77f49718a35d4ab918ae806", + "22fa6ae514134836975907afb146de1d", + "8673398ee3184573953cfd042c00c6f6", + "7e3ad5b7e8484d309999b43c8fd56322" + ] + }, + "outputId": "a9c20bd0-4a7d-494a-d3d6-8c275284a7c4" + }, + "source": [ + "from transformers import AutoTokenizer, AutoModel\n", + "from arabert.preprocess_arabert import never_split_tokens, preprocess\n", + "from farasa.segmenter import FarasaSegmenter\n", + "import torch\n", + "\n", + "arabert_tokenizer = AutoTokenizer.from_pretrained(\n", + " \"aubmindlab/bert-base-arabert\",\n", + " do_lower_case=False,\n", + " do_basic_tokenize=True,\n", + " never_split=never_split_tokens)\n", + "arabert_model = AutoModel.from_pretrained(\"aubmindlab/bert-base-arabert\") #you can replace the path here with the folder containing the the pytorch model\n", + "\n", + "farasa_segmenter = FarasaSegmenter(interactive=True)" + ], + "execution_count": 2, + "outputs": [ + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "854fc85905904877bdd188392584a0eb", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=580.0, style=ProgressStyle(description_…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "9217e1d8d2424d3a85cd38555a18bf59", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=717153.0, style=ProgressStyle(descripti…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stdout" + }, + { + "output_type": "display_data", + "data": { + "application/vnd.jupyter.widget-view+json": { + "model_id": "a87dd1736ddb45aba797e15f44c8776b", + "version_minor": 0, + "version_major": 2 + }, + "text/plain": [ + "HBox(children=(FloatProgress(value=0.0, description='Downloading', max=543450661.0, style=ProgressStyle(descri…" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "\n", + "perform system check...\n", + "check java version...\n", + "Your java version is 11.0 which is compatiple with Farasa \n", + "check toolkit binaries...\n", + "some binaries are not existed..\n", + "downloading zipped binaries...\n", + " 99%|█████████▉| 198M/200M [00:13<00:00, 14.8MiB/s]extracting...\n", + "toolkit binaries are downloaded and extracted.\n", + "Dependencies seem to be satisfied..\n", + "\u001b[37minitializing [SEGMENT] task in \u001b[32mINTERACTIVE \u001b[37mmode...\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "/usr/local/lib/python3.6/dist-packages/farasa/__base.py:45: UserWarning: Be careful with large lines as they may break on interactive mode. You may switch to Standalone mode for such cases.\n", + " \"Be careful with large lines as they may break on interactive mode. You may switch to Standalone mode for such cases.\"\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "task [SEGMENT] is initialized interactively.\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "7nFgjN_KwSyQ", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 68 + }, + "outputId": "a8c7c48f-1fe5-4ffd-a73d-f9985c9e7ae5" + }, + "source": [ + "text= \"الجو جميل اليوم\"\n", + "text_preprocessed = preprocess( text,\n", + " do_farasa_tokenization = True,\n", + " farasa = farasa_segmenter,\n", + " use_farasapy = True) # if you want to use AraBERT v0.1 do_farasa_tokenization = False\n", + "print(text)\n", + "print(\"---------------------\")\n", + "print(text_preprocessed)" + ], + "execution_count": 3, + "outputs": [ + { + "output_type": "stream", + "text": [ + "الجو جميل اليوم\n", + "---------------------\n", + "ال+ جو جميل ال+ يوم\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "xfd4wszWwaxs", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 51 + }, + "outputId": "ca2b70bb-c70b-4a67-98c2-64db1b6edfb2" + }, + "source": [ + "arabert_input = arabert_tokenizer.encode(text_preprocessed,add_special_tokens=True)\n", + "print(arabert_input)\n", + "print(arabert_tokenizer.convert_ids_to_tokens(arabert_input))\n", + "# you should ignore the fisrt and the last embeddings" + ], + "execution_count": 4, + "outputs": [ + { + "output_type": "stream", + "text": [ + "[29756, 3000, 516, 15724, 3000, 7447, 29758]\n", + "['[CLS]', 'ال+', 'جو', 'جميل', 'ال+', 'يوم', '[SEP]']\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "zXQ-bhV8x035", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 34 + }, + "outputId": "548a5be2-0419-4b1a-dccc-b871981edd7a" + }, + "source": [ + "tensor_input_ids = torch.tensor(arabert_input).unsqueeze(0)\n", + "print(tensor_input_ids)" + ], + "execution_count": 5, + "outputs": [ + { + "output_type": "stream", + "text": [ + "tensor([[29756, 3000, 516, 15724, 3000, 7447, 29758]])\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "kH6DquqBxGIi", + "colab_type": "code", + "colab": {} + }, + "source": [ + "output = arabert_model(tensor_input_ids)" + ], + "execution_count": 6, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "HhuCCQgExQpv", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 34 + }, + "outputId": "e5bcc1ce-6515-4a32-cab3-68fc205143d9" + }, + "source": [ + "output[0].shape # batch_size x seq_len x emb_dim" + ], + "execution_count": 7, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "torch.Size([1, 7, 768])" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 7 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "l7D4sTFv0eHz", + "colab_type": "code", + "colab": {} + }, + "source": [ + "embeddings = output[0][0][1:-1]" + ], + "execution_count": 8, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "yg8vCudW1ftS", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 136 + }, + "outputId": "a20c7480-bb43-4e35-f5c6-6c943a85e68b" + }, + "source": [ + "print(embeddings.shape)\n", + "print(embeddings)" + ], + "execution_count": 9, + "outputs": [ + { + "output_type": "stream", + "text": [ + "torch.Size([5, 768])\n", + "tensor([[ 0.3447, 1.3039, 1.3462, ..., -0.4002, 0.5298, 0.2837],\n", + " [-0.0045, -0.0522, 0.4295, ..., -1.0770, 0.0021, -0.3939],\n", + " [ 0.3940, -0.2821, 0.3980, ..., -0.2659, 0.3846, -0.4675],\n", + " [ 0.3452, 1.3047, 1.3463, ..., -0.3996, 0.5308, 0.2845],\n", + " [ 0.3442, 0.0026, -0.1066, ..., -0.2442, 0.2427, -0.3018]],\n", + " grad_fn=)\n" + ], + "name": "stdout" + } + ] + } + ] +} \ No newline at end of file diff --git a/arabert/examples/old/MTL_AraBERT_Offensive_Lanaguage_detection.ipynb b/arabert/examples/old/MTL_AraBERT_Offensive_Lanaguage_detection.ipynb new file mode 100644 index 0000000000000000000000000000000000000000..935111a659ac7bcec4f2c107e12e07856b0431c4 --- /dev/null +++ b/arabert/examples/old/MTL_AraBERT_Offensive_Lanaguage_detection.ipynb @@ -0,0 +1,2667 @@ +{ + "nbformat": 4, + "nbformat_minor": 0, + "metadata": { + "colab": { + "name": "MTL-Bert LREC for github.ipynb", + "provenance": [], + "collapsed_sections": [ + "PXTixssZe1Rm" + ], + "toc_visible": true + }, + "kernelspec": { + "name": "python3", + "display_name": "Python 3" + }, + "accelerator": "GPU" + }, + "cells": [ + { + "cell_type": "markdown", + "metadata": { + "id": "q639yW9Sunhy", + "colab_type": "text" + }, + "source": [ + "#Multi-Task Learning using AraBert for Offensive Language Detection\n", + "\n", + "Notebook used in the OSACT4 - shared task on Offensive language detection (LREC 2020)\n", + "http://edinburghnlp.inf.ed.ac.uk/workshops/OSACT4/ \n", + "\n", + "Task Paper: https://www.aclweb.org/anthology/2020.osact-1.16/ \n", + "\n", + "Authors: Marc Djandji, Fady Baly, Wissam Antoun" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "pYrVtpSu04iI", + "colab_type": "code", + "outputId": "1ad66211-61ad-4052-e2a8-e638008dc205", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 175 + } + }, + "source": [ + "import os\n", + "import collections\n", + "import pandas as pd\n", + "import tensorflow as tf\n", + "import tensorflow_hub as hub\n", + "from datetime import datetime\n", + "##install arabert if not already done\n", + "!git clone -b macrof1 https://github.com/WissamAntoun/bert\n", + "\n", + "import bert.tokenization as tokenization\n", + "import bert.modeling as modeling\n", + "import bert.optimization as optimization\n", + "from tqdm import tqdm\n", + "import numpy as np\n", + "\n", + "from google.colab import auth, drive\n", + "auth.authenticate_user()" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "display_data", + "data": { + "text/html": [ + "

\n", + "The default version of TensorFlow in Colab will soon switch to TensorFlow 2.x.
\n", + "We recommend you upgrade now \n", + "or ensure your notebook will continue to use TensorFlow 1.x via the %tensorflow_version 1.x magic:\n", + "more info.

\n" + ], + "text/plain": [ + "" + ] + }, + "metadata": { + "tags": [] + } + }, + { + "output_type": "stream", + "text": [ + "Cloning into 'bert'...\n", + "remote: Enumerating objects: 415, done.\u001b[K\n", + "Receiving objects: 0% (1/415) \rReceiving objects: 1% (5/415) \rReceiving objects: 2% (9/415) \rReceiving objects: 3% (13/415) \rReceiving objects: 4% (17/415) \rReceiving objects: 5% (21/415) \rReceiving objects: 6% (25/415) \rReceiving objects: 7% (30/415) \rReceiving objects: 8% (34/415) \rReceiving objects: 9% (38/415) \rReceiving objects: 10% (42/415) \rReceiving objects: 11% (46/415) \rReceiving objects: 12% (50/415) \rReceiving objects: 13% (54/415) \rReceiving objects: 14% (59/415) \rReceiving objects: 15% (63/415) \rReceiving objects: 16% (67/415) \rReceiving objects: 17% (71/415) \rReceiving objects: 18% (75/415) \rReceiving objects: 19% (79/415) \rReceiving objects: 20% (83/415) \rReceiving objects: 21% (88/415) \rReceiving objects: 22% (92/415) \rReceiving objects: 23% (96/415) \rReceiving objects: 24% (100/415) \rReceiving objects: 25% (104/415) \rReceiving objects: 26% (108/415) \rReceiving objects: 27% (113/415) \rReceiving objects: 28% (117/415) \rReceiving objects: 29% (121/415) \rReceiving objects: 30% (125/415) \rReceiving objects: 31% (129/415) \rReceiving objects: 32% (133/415) \rReceiving objects: 33% (137/415) \rReceiving objects: 34% (142/415) \rReceiving objects: 35% (146/415) \rReceiving objects: 36% (150/415) \rReceiving objects: 37% (154/415) \rReceiving objects: 38% (158/415) \rReceiving objects: 39% (162/415) \rReceiving objects: 40% (166/415) \rReceiving objects: 41% (171/415) \rReceiving objects: 42% (175/415) \rReceiving objects: 43% (179/415) \rReceiving objects: 44% (183/415) \rReceiving objects: 45% (187/415) \rReceiving objects: 46% (191/415) \rReceiving objects: 47% (196/415) \rReceiving objects: 48% (200/415) \rReceiving objects: 49% (204/415) \rReceiving objects: 50% (208/415) \rReceiving objects: 51% (212/415) \rReceiving objects: 52% (216/415) \rReceiving objects: 53% (220/415) \rReceiving objects: 54% (225/415) \rReceiving objects: 55% (229/415) \rReceiving objects: 56% (233/415) \rReceiving objects: 57% (237/415) \rReceiving objects: 58% (241/415) \rReceiving objects: 59% (245/415) \rReceiving objects: 60% (249/415) \rReceiving objects: 61% (254/415) \rReceiving objects: 62% (258/415) \rReceiving objects: 63% (262/415) \rReceiving objects: 64% (266/415) \rReceiving objects: 65% (270/415) \rReceiving objects: 66% (274/415) \rReceiving objects: 67% (279/415) \rReceiving objects: 68% (283/415) \rReceiving objects: 69% (287/415) \rReceiving objects: 70% (291/415) \rReceiving objects: 71% (295/415) \rReceiving objects: 72% (299/415) \rReceiving objects: 73% (303/415) \rReceiving objects: 74% (308/415) \rReceiving objects: 75% (312/415) \rReceiving objects: 76% (316/415) \rReceiving objects: 77% (320/415) \rReceiving objects: 78% (324/415) \rReceiving objects: 79% (328/415) \rReceiving objects: 80% (332/415) \rReceiving objects: 81% (337/415) \rReceiving objects: 82% (341/415) \rReceiving objects: 83% (345/415) \rReceiving objects: 84% (349/415) \rReceiving objects: 85% (353/415) \rReceiving objects: 86% (357/415) \rReceiving objects: 87% (362/415) \rremote: Total 415 (delta 0), reused 0 (delta 0), pack-reused 415\u001b[K\n", + "Receiving objects: 88% (366/415) \rReceiving objects: 89% (370/415) \rReceiving objects: 90% (374/415) \rReceiving objects: 91% (378/415) \rReceiving objects: 92% (382/415) \rReceiving objects: 93% (386/415) \rReceiving objects: 94% (391/415) \rReceiving objects: 95% (395/415) \rReceiving objects: 96% (399/415) \rReceiving objects: 97% (403/415) \rReceiving objects: 98% (407/415) \rReceiving objects: 99% (411/415) \rReceiving objects: 100% (415/415) \rReceiving objects: 100% (415/415), 420.19 KiB | 20.01 MiB/s, done.\n", + "Resolving deltas: 0% (0/234) \rResolving deltas: 1% (4/234) \rResolving deltas: 2% (5/234) \rResolving deltas: 3% (8/234) \rResolving deltas: 4% (10/234) \rResolving deltas: 5% (14/234) \rResolving deltas: 7% (17/234) \rResolving deltas: 8% (21/234) \rResolving deltas: 9% (22/234) \rResolving deltas: 10% (24/234) \rResolving deltas: 28% (67/234) \rResolving deltas: 30% (71/234) \rResolving deltas: 33% (78/234) \rResolving deltas: 34% (81/234) \rResolving deltas: 36% (86/234) \rResolving deltas: 38% (89/234) \rResolving deltas: 41% (96/234) \rResolving deltas: 52% (123/234) \rResolving deltas: 58% (138/234) \rResolving deltas: 60% (142/234) \rResolving deltas: 93% (219/234) \rResolving deltas: 94% (220/234) \rResolving deltas: 100% (234/234) \rResolving deltas: 100% (234/234), done.\n", + "WARNING:tensorflow:From /content/bert/optimization.py:87: The name tf.train.Optimizer is deprecated. Please use tf.compat.v1.train.Optimizer instead.\n", + "\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "6POYz6YRJ-bv", + "colab_type": "code", + "outputId": "af952439-8ec7-441f-f204-7267ccf45238", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 33 + } + }, + "source": [ + "import pynvml\n", + "pynvml.nvmlInit()\n", + "handle = pynvml.nvmlDeviceGetHandleByIndex(0)\n", + "device_name = pynvml.nvmlDeviceGetName(handle)\n", + "print(device_name)" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "b'Tesla P4'\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "7EOWk73XB2aD", + "colab_type": "code", + "outputId": "0d05ba75-3d86-4e23-b807-a4ea09c481da", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 118 + } + }, + "source": [ + "from google.colab import drive\n", + "drive.mount('/content/drive')" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Go to this URL in a browser: https://accounts.google.com/o/oauth2/auth?client_id=947318989803-6bn6qk8qdgf4n4g3pfee6491hc0brc4i.apps.googleusercontent.com&redirect_uri=urn%3aietf%3awg%3aoauth%3a2.0%3aoob&response_type=code&scope=email%20https%3a%2f%2fwww.googleapis.com%2fauth%2fdocs.test%20https%3a%2f%2fwww.googleapis.com%2fauth%2fdrive%20https%3a%2f%2fwww.googleapis.com%2fauth%2fdrive.photos.readonly%20https%3a%2f%2fwww.googleapis.com%2fauth%2fpeopleapi.readonly\n", + "\n", + "Enter your authorization code:\n", + "··········\n", + "Mounted at /content/drive\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "W10ugCcAEpYY", + "colab_type": "code", + "colab": {} + }, + "source": [ + "!cp /content/drive/'My Drive'/best_MTL_model/best_model.zip ./" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "ej9HhYNVEvr9", + "colab_type": "code", + "outputId": "90d4b19c-5c90-45b1-eefe-bf94695d5cfb", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 147 + } + }, + "source": [ + "!unzip /content/best_model.zip " + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Archive: /content/best_model.zip\n", + " creating: content/best_model/\n", + " inflating: content/best_model/events.out.tfevents.1582011537.9f8209d16eb2 \n", + " inflating: content/best_model/checkpoint \n", + " inflating: content/best_model/model.ckpt-1200.meta \n", + " inflating: content/best_model/graph.pbtxt \n", + " inflating: content/best_model/model.ckpt-1200.index \n", + " inflating: content/best_model/model.ckpt-1200.data-00000-of-00001 \n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "LkDDkSYcEjm5", + "colab_type": "code", + "colab": {} + }, + "source": [ + "!cp -r /content/content/best_model/model.ckpt-1200.index /content/Output_Dir/1250000/\n", + "!cp -r /content/content/best_model/model.ckpt-1200.meta /content/Output_Dir/1250000/\n", + "!cp -r /content/content/best_model/model.ckpt-1200.data-00000-of-00001 /content/Output_Dir/1250000/" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "xowJMVAvFh8C", + "colab_type": "code", + "colab": {} + }, + "source": [ + "!mv /content/Output_Dir/1250000/model.ckpt-1200.data-00000-of-00001 /content/Output_Dir/1250000/model.ckpt-0.data-00000-of-00001\n", + "!mv /content/Output_Dir/1250000/model.ckpt-1200.index /content/Output_Dir/1250000/model.ckpt-0.index\n", + "!mv /content/Output_Dir/1250000/model.ckpt-1200.meta /content/Output_Dir/1250000/model.ckpt-0.meta" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "mjSgO2t3ZiVj", + "colab_type": "code", + "colab": {} + }, + "source": [ + "!cp -r /content/drive/'My Drive'/Bert/arabert.zip /content/\n", + "# # !cp -r /content/drive/'My Drive'/Trained_bert/Output_Dir.zip /content" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "4sLMPRfDHygJ", + "colab_type": "code", + "colab": {} + }, + "source": [ + "# # !unzip Output_Dir.zip\n", + "!unzip arabert.zip" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "aHP_MFYJ08XK", + "colab_type": "code", + "colab": {} + }, + "source": [ + "# ##use tf_arabert model, change path accordingly\n", + "BERT_VOCAB= ''\n", + "BERT_INIT_CHKPNT = ''\n", + "BERT_CONFIG = ''" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "q0kHR7py08Uz", + "colab_type": "code", + "outputId": "310c4244-6c76-4a9c-be1e-31ad79990f1e", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 50 + } + }, + "source": [ + "tokenization.validate_case_matches_checkpoint(True, BERT_INIT_CHKPNT)\n", + "tokenizer = tokenization.FullTokenizer(vocab_file=BERT_VOCAB,\n", + " do_lower_case=True)" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "WARNING:tensorflow:From /content/bert/tokenization.py:125: The name tf.gfile.GFile is deprecated. Please use tf.io.gfile.GFile instead.\n", + "\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "U6x0tLpWew0V", + "colab_type": "text" + }, + "source": [ + "### Data Preprocessing\n" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "4ntkpNwOKj4P", + "colab_type": "code", + "outputId": "5c9851db-56db-495b-c67a-6d7bcbd77c54", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 521 + } + }, + "source": [ + "!pip install pyarabic\n", + "!gsutil cp gs://bert_pretrain4/FarasaSegmenterJar.jar ./\n", + "!pip install emoji\n", + "\n", + "def install_java():\n", + " !apt-get install -y openjdk-8-jdk-headless -qq > /dev/null #install openjdk\n", + " os.environ[\"JAVA_HOME\"] = \"/usr/lib/jvm/java-8-openjdk-amd64\"\n", + " !java -version\n", + "install_java()\n", + "!pip install py4j\n", + "!pkill \"java\"" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Collecting pyarabic\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/b8/77/da852ee13bce3affc55b746cebc0fdc0fc48628dbc5898ce489112cd6bd1/PyArabic-0.6.6.tar.gz (101kB)\n", + "\r\u001b[K |███▎ | 10kB 31.5MB/s eta 0:00:01\r\u001b[K |██████▌ | 20kB 34.6MB/s eta 0:00:01\r\u001b[K |█████████▊ | 30kB 40.4MB/s eta 0:00:01\r\u001b[K |█████████████ | 40kB 39.7MB/s eta 0:00:01\r\u001b[K |████████████████▏ | 51kB 34.6MB/s eta 0:00:01\r\u001b[K |███████████████████▍ | 61kB 38.6MB/s eta 0:00:01\r\u001b[K |██████████████████████▋ | 71kB 28.0MB/s eta 0:00:01\r\u001b[K |█████████████████████████▉ | 81kB 25.5MB/s eta 0:00:01\r\u001b[K |█████████████████████████████ | 92kB 27.4MB/s eta 0:00:01\r\u001b[K |████████████████████████████████| 102kB 12.1MB/s \n", + "\u001b[?25hBuilding wheels for collected packages: pyarabic\n", + " Building wheel for pyarabic (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for pyarabic: filename=PyArabic-0.6.6-cp36-none-any.whl size=106208 sha256=7a3c3dcca57c1ec79e80a2db3f72f7234463bb8df9375c8d0a7ecce5730d95ee\n", + " Stored in directory: /root/.cache/pip/wheels/34/b5/2d/668d567e8c2b6f10309dbfaba5bfef6ea0b1c0f9f6fb37078f\n", + "Successfully built pyarabic\n", + "Installing collected packages: pyarabic\n", + "Successfully installed pyarabic-0.6.6\n", + "Copying gs://bert_pretrain4/FarasaSegmenterJar.jar...\n", + "/ [1 files][ 13.0 MiB/ 13.0 MiB] \n", + "Operation completed over 1 objects/13.0 MiB. \n", + "Collecting emoji\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/40/8d/521be7f0091fe0f2ae690cc044faf43e3445e0ff33c574eae752dd7e39fa/emoji-0.5.4.tar.gz (43kB)\n", + "\u001b[K |████████████████████████████████| 51kB 9.4MB/s \n", + "\u001b[?25hBuilding wheels for collected packages: emoji\n", + " Building wheel for emoji (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for emoji: filename=emoji-0.5.4-cp36-none-any.whl size=42176 sha256=e40cb86eb868f95d6934ce361da628a09b871a1cfefc23ddd22fc6d6fc234f8b\n", + " Stored in directory: /root/.cache/pip/wheels/2a/a9/0a/4f8e8cce8074232aba240caca3fade315bb49fac68808d1a9c\n", + "Successfully built emoji\n", + "Installing collected packages: emoji\n", + "Successfully installed emoji-0.5.4\n", + "openjdk version \"11.0.6\" 2020-01-14\n", + "OpenJDK Runtime Environment (build 11.0.6+10-post-Ubuntu-1ubuntu118.04.1)\n", + "OpenJDK 64-Bit Server VM (build 11.0.6+10-post-Ubuntu-1ubuntu118.04.1, mixed mode, sharing)\n", + "Collecting py4j\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/9e/b6/6a4fb90cd235dc8e265a6a2067f2a2c99f0d91787f06aca4bcf7c23f3f80/py4j-0.10.9-py2.py3-none-any.whl (198kB)\n", + "\u001b[K |████████████████████████████████| 204kB 42.1MB/s \n", + "\u001b[?25hInstalling collected packages: py4j\n", + "Successfully installed py4j-0.10.9\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "iDBveNiY08Sn", + "colab_type": "code", + "outputId": "9697dcc4-3d9d-4a17-eb4f-5350b92b7d01", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 82 + } + }, + "source": [ + "# get preprocessing script\n", + "# !gsutil cp gs://bert_pretrain4/preprocess_wiss.py ./\n", + "!cp -r /content/drive/'My Drive'/Bert/preprocess_wiss.py ./\n", + "from preprocess_wiss import preprocess\n", + "# download data\n", + "!gsutil cp -r gs://osact4/data ./\n", + "\n", + "import emoji\n", + "def remove_emoji(text):\n", + " \"\"\"\n", + " :param text: enter a string of words.\n", + " :return: removes emojis from the input string\n", + " \"\"\"\n", + " return emoji.get_emoji_regexp().sub(u'', text)\n", + "\n", + "eastern_to_western = {\"٠\":\"0\",\"١\":\"1\",\"٢\":\"2\",\"٣\":\"3\",\"٤\":\"4\",\"٥\":\"5\",\"٦\":\"6\",\"٧\":\"7\",\"٨\":\"8\",\"٩\":\"9\",\"٪\":\"%\",\"_\":\" \",\"ڤ\":\"ف\",\"|\":\" \"}\n", + "trans_string = str.maketrans(eastern_to_western)" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Copying gs://osact4/data/OSACT2020-sharedTask-dev.txt...\n", + "Copying gs://osact4/data/OSACT2020-sharedTask-train.txt...\n", + "/ [2 files][ 1.5 MiB/ 1.5 MiB] \n", + "Operation completed over 2 objects/1.5 MiB. \n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "zlHvDLm5bDhz", + "colab_type": "code", + "colab": {} + }, + "source": [ + "!cp /content/drive/'My Drive'/Bert/OSACT2020-sharedTask-test-tweets.txt /content/" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "qtE4KF0m08QZ", + "colab_type": "code", + "colab": {} + }, + "source": [ + "f = open('/content/OSACT2020-sharedTask-test-tweets.txt', 'r', encoding='utf-8')\n", + "lines = f.readlines()\n", + "test = pd.DataFrame(np.array(lines).reshape(-1,1),columns=['text'])\n", + "\n", + "train = pd.read_csv(\"./data/OSACT2020-sharedTask-train.txt\",sep=\"\\t\",header=None)\n", + "train.columns = [\"text\",\"offensive\",\"hate_speech\"]\n", + "\n", + "eval_ = pd.read_csv(\"./data/OSACT2020-sharedTask-dev.txt\",sep=\"\\t\",header=None)\n", + "eval_.columns = [\"text\",\"offensive\",\"hate_speech\"]\n", + "\n", + "train[\"text\"] = train[\"text\"].apply(lambda x : remove_emoji(x))\n", + "train[\"text\"] = train[\"text\"].apply(lambda x : x.replace(\"\",\" \"))\n", + "train[\"text\"] = train[\"text\"].apply(lambda x : x.translate(trans_string))\n", + "train[\"text\"] = train[\"text\"].apply(lambda x : preprocess(x, True))\n", + "train[\"text\"] = train[\"text\"].apply(lambda x : x.replace(\"\\\\\",\" \"))\n", + "train[\"offensive\"] = train[\"offensive\"].apply(lambda x : x.replace(\"NOT_OFF\", '0'))\n", + "train[\"offensive\"] = train[\"offensive\"].apply(lambda x : x.replace(\"OFF\", '1'))\n", + "train[\"hate_speech\"] = train[\"hate_speech\"].apply(lambda x : x.replace(\"NOT_HS\", '0'))\n", + "train[\"hate_speech\"] = train[\"hate_speech\"].apply(lambda x : x.replace(\"HS\", '1'))\n", + "\n", + "eval_[\"text\"] = eval_[\"text\"].apply(lambda x : remove_emoji(x))\n", + "eval_[\"text\"] = eval_[\"text\"].apply(lambda x : x.replace(\"\",\" \"))\n", + "eval_[\"text\"] = eval_[\"text\"].apply(lambda x : x.translate(trans_string))\n", + "eval_[\"text\"] = eval_[\"text\"].apply(lambda x : preprocess(x, True))\n", + "eval_[\"text\"] = eval_[\"text\"].apply(lambda x : x.replace(\"\\\\\",\" \"))\n", + "eval_[\"offensive\"] = eval_[\"offensive\"].apply(lambda x : x.replace(\"NOT_OFF\", '0'))\n", + "eval_[\"offensive\"] = eval_[\"offensive\"].apply(lambda x : x.replace(\"OFF\", '1'))\n", + "eval_[\"hate_speech\"] = eval_[\"hate_speech\"].apply(lambda x : x.replace(\"NOT_HS\", '0'))\n", + "eval_[\"hate_speech\"] = eval_[\"hate_speech\"].apply(lambda x : x.replace(\"HS\", '1'))" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "WZRAYxwZbHgs", + "colab_type": "code", + "colab": {} + }, + "source": [ + "test[\"text\"] = test[\"text\"].apply(lambda x : remove_emoji(x))\n", + "test[\"text\"] = test[\"text\"].apply(lambda x : x.replace(\"\",\" \"))\n", + "test[\"text\"] = test[\"text\"].apply(lambda x : x.translate(trans_string))\n", + "test[\"text\"] = test[\"text\"].apply(lambda x : preprocess(x, True))\n", + "test[\"text\"] = test[\"text\"].apply(lambda x : x.replace(\"\\\\\",\" \"))" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "GE89hIoy08OH", + "colab_type": "code", + "colab": {} + }, + "source": [ + "DATA_COLUMN = 'text'\n", + "LABEL_COLUMNS = ['offensive', 'hate_speech']" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "IqORf2akbJC5", + "colab_type": "code", + "colab": {} + }, + "source": [ + "x_train = train\n", + "x_val = eval_\n", + "x_test = test" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "6vkbh1xbG2CU", + "colab_type": "code", + "colab": {} + }, + "source": [ + "x_train_w_eval = pd.concat([x_train, x_val], axis=0)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "AXY_8w1yHHnm", + "colab_type": "code", + "outputId": "41008564-9944-4692-aafe-006fde367988", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 33 + } + }, + "source": [ + "x_train_w_eval.shape" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "(7839, 3)" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 52 + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "PXTixssZe1Rm", + "colab_type": "text" + }, + "source": [ + "#### Downlsampling" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "V0dC0rmkQ4em", + "colab_type": "code", + "colab": {} + }, + "source": [ + "x_train['hate_speech'] = x_train['hate_speech'].astype(np.uint8)\n", + "x_train['offensive'] = x_train['offensive'].astype(np.uint8)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "_dI4tsFeL_Oh", + "colab_type": "code", + "colab": {} + }, + "source": [ + "hate_idx = x_train[x_train.hate_speech == 1].index\n", + "off_idx = x_train[x_train.offensive == 1].index\n", + "non_hate_indices = x_train[x_train.hate_speech == 0].index\n", + "non_off_indices = x_train[x_train.offensive == 0].index" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "m00cKvyZbLaI", + "colab_type": "code", + "outputId": "0709f0b7-97c0-40b4-ba61-7386689b8790", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 82 + } + }, + "source": [ + "hate_idx" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "Int64Index([ 2, 40, 66, 74, 85, 94, 182, 183, 200, 212,\n", + " ...\n", + " 6670, 6697, 6713, 6732, 6735, 6745, 6753, 6773, 6791, 6806],\n", + " dtype='int64', length=350)" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 72 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "r8jtCoIzMKGc", + "colab_type": "code", + "colab": {} + }, + "source": [ + "diff = non_hate_indices.shape[0]-non_off_indices.shape[0]\n", + "nans = np.ones((diff,))*100000\n", + "non_hate_indices = np.asarray(non_hate_indices)\n", + "non_off_indices =np.concatenate((non_off_indices,nans),axis=0)\n", + "\n", + "matches = []\n", + "\n", + "for i in range(non_hate_indices.shape[0]):\n", + " for j in range(non_hate_indices.shape[0]):\n", + " if non_off_indices[j]== non_hate_indices[i]:\n", + " matches.append(non_off_indices[j])" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "SU9MPHKAMSbr", + "colab_type": "code", + "outputId": "5cc4b9e1-97cb-4e62-8250-5f7c0e34d4eb", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 98 + } + }, + "source": [ + "n_hate = len(hate_idx)\n", + "n_offense = len(off_idx)\n", + "n_neither = len(matches)\n", + "\n", + "from prettytable import PrettyTable\n", + " \n", + "tab = PrettyTable()\n", + "\n", + "tab.field_names = [\"\",\"Train Offensive\", 'Train Hate', 'Train Neither']\n", + "tab.add_row([\"count\", n_offense, n_hate, n_neither])\n", + "print(tab)" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "+-------+-----------------+------------+---------------+\n", + "| | Train Offensive | Train Hate | Train Neither |\n", + "+-------+-----------------+------------+---------------+\n", + "| count | 1371 | 350 | 5468 |\n", + "+-------+-----------------+------------+---------------+\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "6B-_l8dSrLFX", + "colab_type": "code", + "outputId": "01317df1-cb5c-4751-a839-a47cc79eb327", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 33 + } + }, + "source": [ + "int(n_neither/1.5)" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "3645" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 78 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "ExZw9P4mMOfx", + "colab_type": "code", + "colab": {} + }, + "source": [ + "\n", + "n_hate = len(hate_idx)\n", + "n_offense = len(off_idx)\n", + "random_indices = np.random.choice(matches, int(n_neither/1.5), replace=False)\n", + "\n", + "under_sample_indices = np.concatenate([hate_idx, off_idx, random_indices])\n", + "under_sampled = x_train.loc[under_sample_indices]\n", + "\n", + "hate_data = x_train.loc[hate_idx] \n", + "\n", + "under_sampled = under_sampled.sample(frac=1).reset_index(drop=True)\n", + "\n", + "# balanced = pd.concat([under_sampled, hate_data], axis=0)\n" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "JnSUretjTheR", + "colab_type": "code", + "colab": {} + }, + "source": [ + "x_train = under_sampled.sample(frac=1).reset_index(drop=True)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "u3REqJ01R050", + "colab_type": "code", + "outputId": "4b8bf895-46fa-487b-a51d-a6731d06dc69", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 98 + } + }, + "source": [ + "tot = len(under_sampled.values)\n", + "percentage_off = np.count_nonzero((under_sampled.values)[:,1] == 1)/tot\n", + "percentage_hate = np.count_nonzero((under_sampled.values)[:,2] == 1)/tot\n", + "percentage_non = 1-(percentage_off+ percentage_hate)\n", + "tab = PrettyTable()\n", + "\n", + "tab.field_names = [\"\",\"Test Offensive\", 'Test Hate', 'Test Neither']\n", + "tab.add_row([\"Percentage\", np.round(percentage_off,4)*100, np.round(percentage_hate,4)*100, np.round(percentage_non,4)*100])\n", + "print(tab)" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "+------------+----------------+-----------+--------------------+\n", + "| | Test Offensive | Test Hate | Test Neither |\n", + "+------------+----------------+-----------+--------------------+\n", + "| Percentage | 32.07 | 13.05 | 54.879999999999995 |\n", + "+------------+----------------+-----------+--------------------+\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "PJr7IGxuMrmO", + "colab_type": "code", + "outputId": "92513b09-2f1f-41a0-d7eb-192ca35dea11", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 191 + } + }, + "source": [ + "x_train.head()" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/html": [ + "
\n", + "\n", + "\n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + "
textoffensivehate_speech
0[مستخدم] يعني هياخدوا دوري ال+ أبطال السن +ه د...00
1[مستخدم] مبروك يا دوك يا مبدع و+ عقبال ال+ ملي...00
2[مستخدم] يا عبري +ة يا أيتها ال+ عاهر +ة فك +ي...11
3يا بسم +ة ال+ صبح يا ف+ ألي و+ يا أملي يا نغم ...00
4RT [مستخدم] : صباح ال+ زفت علي +كم [مستخدم] يا...10
\n", + "
" + ], + "text/plain": [ + " text offensive hate_speech\n", + "0 [مستخدم] يعني هياخدوا دوري ال+ أبطال السن +ه د... 0 0\n", + "1 [مستخدم] مبروك يا دوك يا مبدع و+ عقبال ال+ ملي... 0 0\n", + "2 [مستخدم] يا عبري +ة يا أيتها ال+ عاهر +ة فك +ي... 1 1\n", + "3 يا بسم +ة ال+ صبح يا ف+ ألي و+ يا أملي يا نغم ... 0 0\n", + "4 RT [مستخدم] : صباح ال+ زفت علي +كم [مستخدم] يا... 1 0" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 107 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "obgq5DAybFsc", + "colab_type": "code", + "outputId": "42600a63-68ca-4bdb-886d-9762508d6f3b", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 191 + } + }, + "source": [ + "balanced.head()" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/html": [ + "
\n", + "\n", + "\n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + "
textoffensivehate_speech
0RT [مستخدم] : يافاتنة كل ال+ مدن يا أرض ال+ نق...00
1أي يا حظ ، أي يا سفر ، أي يا فلوس ، أي ياجواز ...10
2أنا حاول +ت كتير أتصور ميرور سيلفي و+ ب+ يطلع ...10
3RT [مستخدم] : أقولك يا إيمان و+ لا يا نان +ا و...00
4#عبدالرحمن ال+ خشت +ي اللهم يا سيدي و+ يا خالق...00
\n", + "
" + ], + "text/plain": [ + " text offensive hate_speech\n", + "0 RT [مستخدم] : يافاتنة كل ال+ مدن يا أرض ال+ نق... 0 0\n", + "1 أي يا حظ ، أي يا سفر ، أي يا فلوس ، أي ياجواز ... 1 0\n", + "2 أنا حاول +ت كتير أتصور ميرور سيلفي و+ ب+ يطلع ... 1 0\n", + "3 RT [مستخدم] : أقولك يا إيمان و+ لا يا نان +ا و... 0 0\n", + "4 #عبدالرحمن ال+ خشت +ي اللهم يا سيدي و+ يا خالق... 0 0" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 40 + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "UNxWMU4BTW6r", + "colab_type": "text" + }, + "source": [ + "#### Class weighing\n" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "wsUDrwJ8TdB1", + "colab_type": "code", + "colab": {} + }, + "source": [ + "from sklearn.utils import class_weight\n", + "import numpy as np\n", + "\n", + "labels_off= x_train['offensive'].values\n", + "labels_hate= x_train['hate_speech'].values\n", + "class_weights_off = class_weight.compute_class_weight('balanced',\n", + " np.unique(labels_off),\n", + " labels_off)\n", + "class_weights_hate = class_weight.compute_class_weight('balanced',\n", + " np.unique(labels_hate),\n", + " labels_hate)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "Efa-LiTGUCHq", + "colab_type": "code", + "outputId": "16b0e57d-9a72-4894-bb65-7f1c37310026", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 33 + } + }, + "source": [ + "class_weights_off" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "array([0.62536576, 2.49416484])" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 54 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "aFSs-07HUFRe", + "colab_type": "code", + "outputId": "4138ce23-8f6e-4f7f-c6c0-495f1b3a1608", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 33 + } + }, + "source": [ + "class_weights_hate" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "array([0.52696872, 9.77 ])" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 55 + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "8q6Zx3J0e69P", + "colab_type": "text" + }, + "source": [ + "### Start model Components" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "YHvoreqj08MW", + "colab_type": "code", + "colab": {} + }, + "source": [ + "class InputExample(object):\n", + " \"\"\"A single training/test example for simple sequence classification.\"\"\"\n", + "\n", + " def __init__(self, guid, text_a, text_b=None, labels=None):\n", + " \"\"\"Constructs a InputExample.\n", + "\n", + " Args:\n", + " guid: Unique id for the example.\n", + " text_a: string. The untokenized text of the first sequence. For single\n", + " sequence tasks, only this sequence must be specified.\n", + " text_b: (Optional) string. The untokenized text of the second sequence.\n", + " Only must be specified for sequence pair tasks.\n", + " labels: (Optional) [string]. The label of the example. This should be\n", + " specified for train and dev examples, but not for test examples.\n", + " \"\"\"\n", + " self.guid = guid\n", + " self.text_a = text_a\n", + " self.text_b = text_b\n", + " self.labels = labels\n", + "\n", + "\n", + "class InputFeatures(object):\n", + " \"\"\"A single set of features of data.\"\"\"\n", + "\n", + " def __init__(self, input_ids, input_mask, segment_ids, label_ids, is_real_example=True):\n", + " self.input_ids = input_ids\n", + " self.input_mask = input_mask\n", + " self.segment_ids = segment_ids\n", + " self.label_ids = label_ids,\n", + " self.is_real_example=is_real_example" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "9eYaSmhZ08KA", + "colab_type": "code", + "colab": {} + }, + "source": [ + "def create_examples(df, labels_available=True):\n", + " \"\"\"Creates examples for the training and dev sets.\"\"\"\n", + " examples = []\n", + " for (i, row) in enumerate(df.values):\n", + " guid = ''\n", + " text_a = row[0]\n", + " if labels_available:\n", + " labels = row[1:]\n", + " else:\n", + " labels = [0,0]\n", + " print(text_a, labels)\n", + " examples.append(\n", + " InputExample(guid=guid, text_a=text_a, labels=labels))\n", + " return examples" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "NCd6CVex08F8", + "colab_type": "code", + "colab": {} + }, + "source": [ + "def convert_examples_to_features(examples, max_seq_length, tokenizer):\n", + " \"\"\"Loads a data file into a list of `InputBatch`s.\"\"\"\n", + "\n", + " features = []\n", + " for (ex_index, example) in enumerate(examples):\n", + " print(example.text_a)\n", + " tokens_a = tokenizer.tokenize(example.text_a)\n", + "\n", + " tokens_b = None\n", + " if example.text_b:\n", + " tokens_b = tokenizer.tokenize(example.text_b)\n", + " # Modifies `tokens_a` and `tokens_b` in place so that the total\n", + " # length is less than the specified length.\n", + " # Account for [CLS], [SEP], [SEP] with \"- 3\"\n", + " _truncate_seq_pair(tokens_a, tokens_b, max_seq_length - 3)\n", + " else:\n", + " # Account for [CLS] and [SEP] with \"- 2\"\n", + " if len(tokens_a) > max_seq_length - 2:\n", + " tokens_a = tokens_a[:(max_seq_length - 2)]\n", + "\n", + " # The convention in BERT is:\n", + " # (a) For sequence pairs:\n", + " # tokens: [CLS] is this jack ##son ##ville ? [SEP] no it is not . [SEP]\n", + " # type_ids: 0 0 0 0 0 0 0 0 1 1 1 1 1 1\n", + " # (b) For single sequences:\n", + " # tokens: [CLS] the dog is hairy . [SEP]\n", + " # type_ids: 0 0 0 0 0 0 0\n", + " #\n", + " # Where \"type_ids\" are used to indicate whether this is the first\n", + " # sequence or the second sequence. The embedding vectors for `type=0` and\n", + " # `type=1` were learned during pre-training and are added to the wordpiece\n", + " # embedding vector (and position vector). This is not *strictly* necessary\n", + " # since the [SEP] token unambigiously separates the sequences, but it makes\n", + " # it easier for the model to learn the concept of sequences.\n", + " #\n", + " # For classification tasks, the first vector (corresponding to [CLS]) is\n", + " # used as as the \"sentence vector\". Note that this only makes sense because\n", + " # the entire model is fine-tuned.\n", + " tokens = [\"[CLS]\"] + tokens_a + [\"[SEP]\"]\n", + " segment_ids = [0] * len(tokens)\n", + "\n", + " if tokens_b:\n", + " tokens += tokens_b + [\"[SEP]\"]\n", + " segment_ids += [1] * (len(tokens_b) + 1)\n", + "\n", + " input_ids = tokenizer.convert_tokens_to_ids(tokens)\n", + "\n", + " # The mask has 1 for real tokens and 0 for padding tokens. Only real\n", + " # tokens are attended to.\n", + " input_mask = [1] * len(input_ids)\n", + "\n", + " # Zero-pad up to the sequence length.\n", + " padding = [0] * (max_seq_length - len(input_ids))\n", + " input_ids += padding\n", + " input_mask += padding\n", + " segment_ids += padding\n", + "\n", + " assert len(input_ids) == max_seq_length\n", + " assert len(input_mask) == max_seq_length\n", + " assert len(segment_ids) == max_seq_length\n", + " \n", + " labels_ids = []\n", + " for label in example.labels:\n", + " labels_ids.append(int(label))\n", + "\n", + " if ex_index < 0:\n", + " logger.info(\"*** Example ***\")\n", + " logger.info(\"guid: %s\" % (example.guid))\n", + " logger.info(\"tokens: %s\" % \" \".join(\n", + " [str(x) for x in tokens]))\n", + " logger.info(\"input_ids: %s\" % \" \".join([str(x) for x in input_ids]))\n", + " logger.info(\"input_mask: %s\" % \" \".join([str(x) for x in input_mask]))\n", + " logger.info(\n", + " \"segment_ids: %s\" % \" \".join([str(x) for x in segment_ids]))\n", + " logger.info(\"label: %s (id = %s)\" % (example.labels, labels_ids))\n", + "\n", + " features.append(\n", + " InputFeatures(input_ids=input_ids,\n", + " input_mask=input_mask,\n", + " segment_ids=segment_ids,\n", + " label_ids=labels_ids))\n", + " return features" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "xXmO_n0808A4", + "colab_type": "code", + "colab": {} + }, + "source": [ + "class PaddingInputExample(object):\n", + " \"\"\"Fake example so the num input examples is a multiple of the batch size.\n", + " When running eval/predict on the TPU, we need to pad the number of examples\n", + " to be a multiple of the batch size, because the TPU requires a fixed batch\n", + " size. The alternative is to drop the last batch, which is bad because it means\n", + " the entire output data won't be generated.\n", + " We use this class instead of `None` because treating `None` as padding\n", + " batches could cause silent errors.\n", + " \"\"\"\n", + " \n", + " \n", + "def convert_single_example(ex_index, example, max_seq_length,\n", + " tokenizer):\n", + " \"\"\"Converts a single `InputExample` into a single `InputFeatures`.\"\"\"\n", + "\n", + " if isinstance(example, PaddingInputExample):\n", + " return InputFeatures(\n", + " input_ids=[0] * max_seq_length,\n", + " input_mask=[0] * max_seq_length,\n", + " segment_ids=[0] * max_seq_length,\n", + " label_ids=0,\n", + " is_real_example=False)\n", + "\n", + " tokens_a = tokenizer.tokenize(example.text_a)\n", + " tokens_b = None\n", + " if example.text_b:\n", + " tokens_b = tokenizer.tokenize(example.text_b)\n", + "\n", + " if tokens_b:\n", + " # Modifies `tokens_a` and `tokens_b` in place so that the total\n", + " # length is less than the specified length.\n", + " # Account for [CLS], [SEP], [SEP] with \"- 3\"\n", + " _truncate_seq_pair(tokens_a, tokens_b, max_seq_length - 3)\n", + " else:\n", + " # Account for [CLS] and [SEP] with \"- 2\"\n", + " if len(tokens_a) > max_seq_length - 2:\n", + " tokens_a = tokens_a[0:(max_seq_length - 2)]\n", + "\n", + " # The convention in BERT is:\n", + " # (a) For sequence pairs:\n", + " # tokens: [CLS] is this jack ##son ##ville ? [SEP] no it is not . [SEP]\n", + " # type_ids: 0 0 0 0 0 0 0 0 1 1 1 1 1 1\n", + " # (b) For single sequences:\n", + " # tokens: [CLS] the dog is hairy . [SEP]\n", + " # type_ids: 0 0 0 0 0 0 0\n", + " #\n", + " # Where \"type_ids\" are used to indicate whether this is the first\n", + " # sequence or the second sequence. The embedding vectors for `type=0` and\n", + " # `type=1` were learned during pre-training and are added to the wordpiece\n", + " # embedding vector (and position vector). This is not *strictly* necessary\n", + " # since the [SEP] token unambiguously separates the sequences, but it makes\n", + " # it easier for the model to learn the concept of sequences.\n", + " #\n", + " # For classification tasks, the first vector (corresponding to [CLS]) is\n", + " # used as the \"sentence vector\". Note that this only makes sense because\n", + " # the entire model is fine-tuned.\n", + " tokens = []\n", + " segment_ids = []\n", + " tokens.append(\"[CLS]\")\n", + " segment_ids.append(0)\n", + " for token in tokens_a:\n", + " tokens.append(token)\n", + " segment_ids.append(0)\n", + " tokens.append(\"[SEP]\")\n", + " segment_ids.append(0)\n", + "\n", + " if tokens_b:\n", + " for token in tokens_b:\n", + " tokens.append(token)\n", + " segment_ids.append(1)\n", + " tokens.append(\"[SEP]\")\n", + " segment_ids.append(1)\n", + "\n", + " input_ids = tokenizer.convert_tokens_to_ids(tokens)\n", + "\n", + " # The mask has 1 for real tokens and 0 for padding tokens. Only real\n", + " # tokens are attended to.\n", + " input_mask = [1] * len(input_ids)\n", + "\n", + " # Zero-pad up to the sequence length.\n", + " while len(input_ids) < max_seq_length:\n", + " input_ids.append(0)\n", + " input_mask.append(0)\n", + " segment_ids.append(0)\n", + "\n", + " assert len(input_ids) == max_seq_length\n", + " assert len(input_mask) == max_seq_length\n", + " assert len(segment_ids) == max_seq_length\n", + "\n", + " labels_ids = []\n", + " for label in example.labels:\n", + " labels_ids.append(int(label))\n", + "\n", + "\n", + " feature = InputFeatures(\n", + " input_ids=input_ids,\n", + " input_mask=input_mask,\n", + " segment_ids=segment_ids,\n", + " label_ids=labels_ids,\n", + " is_real_example=True)\n", + " return feature\n", + "\n", + "\n", + "def file_based_convert_examples_to_features(\n", + " examples, max_seq_length, tokenizer, output_file):\n", + " \"\"\"Convert a set of `InputExample`s to a TFRecord file.\"\"\"\n", + "\n", + " writer = tf.python_io.TFRecordWriter(output_file)\n", + "\n", + " for (ex_index, example) in enumerate(examples):\n", + " #if ex_index % 10000 == 0:\n", + " #tf.logging.info(\"Writing example %d of %d\" % (ex_index, len(examples)))\n", + "\n", + " feature = convert_single_example(ex_index, example,\n", + " max_seq_length, tokenizer)\n", + "\n", + " def create_int_feature(values):\n", + " f = tf.train.Feature(int64_list=tf.train.Int64List(value=list(values)))\n", + " return f\n", + "\n", + " features = collections.OrderedDict()\n", + " features[\"input_ids\"] = create_int_feature(feature.input_ids)\n", + " features[\"input_mask\"] = create_int_feature(feature.input_mask)\n", + " features[\"segment_ids\"] = create_int_feature(feature.segment_ids)\n", + " features[\"is_real_example\"] = create_int_feature(\n", + " [int(feature.is_real_example)])\n", + " if isinstance(feature.label_ids, list):\n", + " label_ids = feature.label_ids\n", + " else:\n", + " label_ids = feature.label_ids[0]\n", + " features[\"label_ids\"] = create_int_feature(label_ids)\n", + "\n", + " tf_example = tf.train.Example(features=tf.train.Features(feature=features))\n", + " writer.write(tf_example.SerializeToString())\n", + " writer.close()\n", + "\n", + "\n", + "def file_based_input_fn_builder(input_file, seq_length, is_training,\n", + " drop_remainder):\n", + " \"\"\"Creates an `input_fn` closure to be passed to TPUEstimator.\"\"\"\n", + "\n", + " name_to_features = {\n", + " \"input_ids\": tf.FixedLenFeature([seq_length], tf.int64),\n", + " \"input_mask\": tf.FixedLenFeature([seq_length], tf.int64),\n", + " \"segment_ids\": tf.FixedLenFeature([seq_length], tf.int64),\n", + " \"label_ids\": tf.FixedLenFeature([2], tf.int64),\n", + " \"is_real_example\": tf.FixedLenFeature([], tf.int64),\n", + " }\n", + "\n", + " def _decode_record(record, name_to_features):\n", + " \"\"\"Decodes a record to a TensorFlow example.\"\"\"\n", + " example = tf.parse_single_example(record, name_to_features)\n", + "\n", + " # tf.Example only supports tf.int64, but the TPU only supports tf.int32.\n", + " # So cast all int64 to int32.\n", + " for name in list(example.keys()):\n", + " t = example[name]\n", + " if t.dtype == tf.int64:\n", + " t = tf.to_int32(t)\n", + " example[name] = t\n", + "\n", + " return example\n", + "\n", + " def input_fn(params):\n", + " \"\"\"The actual input function.\"\"\"\n", + " batch_size = params[\"batch_size\"]\n", + "\n", + " # For training, we want a lot of parallel reading and shuffling.\n", + " # For eval, we want no shuffling and parallel reading doesn't matter.\n", + " d = tf.data.TFRecordDataset(input_file)\n", + " if is_training:\n", + " d = d.repeat()\n", + " d = d.shuffle(buffer_size=100)\n", + "\n", + " d = d.apply(\n", + " tf.contrib.data.map_and_batch(\n", + " lambda record: _decode_record(record, name_to_features),\n", + " batch_size=batch_size,\n", + " drop_remainder=drop_remainder))\n", + "\n", + " return d\n", + "\n", + " return input_fn\n", + "\n", + "\n", + "def _truncate_seq_pair(tokens_a, tokens_b, max_length):\n", + " \"\"\"Truncates a sequence pair in place to the maximum length.\"\"\"\n", + "\n", + " # This is a simple heuristic which will always truncate the longer sequence\n", + " # one token at a time. This makes more sense than truncating an equal percent\n", + " # of tokens from each, since if one sequence is very short then each token\n", + " # that's truncated likely contains more information than a longer sequence.\n", + " while True:\n", + " total_length = len(tokens_a) + len(tokens_b)\n", + " if total_length <= max_length:\n", + " break\n", + " if len(tokens_a) > len(tokens_b):\n", + " tokens_a.pop()\n", + " else:\n", + " tokens_b.pop()" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "LV7xGtjtJOaK", + "colab_type": "text" + }, + "source": [ + "#### Creating the MTL model" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "gMBZy46u4uY9", + "colab_type": "code", + "colab": {} + }, + "source": [ + "def create_model(bert_config, is_training, input_ids, input_mask, segment_ids,\n", + " labels, num_labels, use_one_hot_embeddings, class_weights_off = 1,\n", + " class_weights_Noff=1, class_weights_hate = 1, class_weights_Nhate=1 ):\n", + " \"\"\"Creates a classification model.\"\"\"\n", + " model = modeling.BertModel(\n", + " config=bert_config,\n", + " is_training=is_training,\n", + " input_ids=input_ids,\n", + " input_mask=input_mask,\n", + " token_type_ids=segment_ids,\n", + " use_one_hot_embeddings=use_one_hot_embeddings)\n", + "\n", + "\n", + " output_layer = model.get_pooled_output()\n", + " \n", + "\n", + "\n", + " hidden_size = output_layer.shape[-1].value\n", + " weights = {}\n", + " biases = {}\n", + " # creating weights and biases per task (lable)\n", + "\n", + " for task in range(num_labels):\n", + " \n", + " key = 'task_{}'.format(task)\n", + " weight_name = \"output_weights_{}\".format(task)\n", + " bias_name = \"output_bias_{}\".format(task)\n", + " \n", + " weights[key] = tf.get_variable(\n", + " weight_name, [2, hidden_size],\n", + " initializer = tf.truncated_normal_initializer(stddev=0.02))\n", + " \n", + " biases[key] = tf.get_variable(\n", + " bias_name, \n", + " [2], initializer=tf.zeros_initializer())\n", + "\n", + "\n", + " # class_weights = tf.constant([[1.0, 2.0]])\n", + " # deduce weights for batch samples based on their true label\n", + "\n", + " class_weights_off = tf.constant([[class_weights_Noff, class_weights_off]])\n", + " class_weights_hate = tf.constant([[class_weights_Nhate, class_weights_hate]])\n", + "\n", + " with tf.variable_scope(\"loss\"):\n", + " if is_training:\n", + " # I.e., 0.1 dropout\n", + " output_layer = tf.nn.dropout(output_layer, keep_prob=0.9)\n", + " \n", + " logits = []\n", + " probabilities = []\n", + " per_example_loss = []\n", + " log_probs =[]\n", + " labels_hot= []\n", + " losses=[]\n", + "\n", + " for task in range(num_labels):\n", + " key = 'task_{}'.format(task)\n", + "\n", + " logits.append(tf.matmul(output_layer, weights[key], transpose_b=True))\n", + " logits[task] = tf.nn.bias_add(logits[task], biases[key])\n", + "\n", + " \n", + " \n", + "\n", + " probabilities.append(tf.nn.softmax(logits[task], axis=-1))\n", + "\n", + " labels = tf.cast(labels, tf.int32) # labels shape: (batch_size, n_labels) (32,2)\n", + " labels_hot.append(tf.one_hot(labels[:,task], depth=num_labels, dtype=tf.int32))\n", + " \n", + " tf.logging.info(\"num_labels:{};logits:{};labels:{}\".format(num_labels, logits, labels))\n", + "\n", + " labels_hot[task] = tf.cast(labels_hot[task], tf.float32)\n", + "\n", + "\n", + " ''' for weighted loss function '''\n", + " # if task ==0:\n", + " per_example_loss.append(tf.reduce_mean( tf.nn.softmax_cross_entropy_with_logits_v2(logits=logits[task], labels=labels_hot[task] ) ))\n", + " # per_example_loss[task] = per_example_loss[task] * class_weights_off\n", + " # else:\n", + " # per_example_loss.append(tf.reduce_mean( tf.nn.softmax_cross_entropy_with_logits_v2(logits = logits[task], labels = labels_hot[task] ) ))\n", + " # per_example_loss[task] = per_example_loss[task] * class_weights_hate\n", + " # per_example_loss.append(tf.reduce_mean( tf.nn.softmax_cross_entropy_with_logits_v2(logits=logits[task], labels=labels_hot[task]) ))\n", + "\n", + " loss = tf.math.reduce_sum(per_example_loss)\n", + "\n", + " return (loss, per_example_loss, logits, probabilities)\n", + "\n", + "\n", + "def model_fn_builder(bert_config, num_labels, init_checkpoint, learning_rate,\n", + " num_train_steps, num_warmup_steps, use_tpu,\n", + " use_one_hot_embeddings):\n", + " \"\"\"Returns `model_fn` closure for TPUEstimator.\"\"\"\n", + "\n", + " def model_fn(features, labels, mode, params): # pylint: disable=unused-argument\n", + " \"\"\"The `model_fn` for TPUEstimator.\"\"\"\n", + "\n", + " tf.logging.info(\"*** Features ***\")\n", + " for name in sorted(features.keys()):\n", + " tf.logging.info(\" name = %s, shape = %s\" % (name, features[name].shape))\n", + "\n", + " input_ids = features[\"input_ids\"]\n", + " input_mask = features[\"input_mask\"]\n", + " segment_ids = features[\"segment_ids\"]\n", + " label_ids = features[\"label_ids\"]\n", + " is_real_example = None\n", + " if \"is_real_example\" in features:\n", + " is_real_example = tf.cast(features[\"is_real_example\"], dtype=tf.float32)\n", + " else:\n", + " is_real_example = tf.ones(tf.shape(label_ids), dtype=tf.float32)\n", + "\n", + " is_training = (mode == tf.estimator.ModeKeys.TRAIN)\n", + "\n", + " \n", + "\n", + " (total_loss, per_example_loss, logits, probabilities) = create_model(\n", + " bert_config, is_training, input_ids, input_mask, segment_ids, label_ids,\n", + " num_labels, use_one_hot_embeddings)\n", + "\n", + " tvars = tf.trainable_variables()\n", + " initialized_variable_names = {}\n", + " scaffold_fn = None\n", + " if init_checkpoint:\n", + " (assignment_map, initialized_variable_names\n", + " ) = modeling.get_assignment_map_from_checkpoint(tvars, init_checkpoint)\n", + " if use_tpu:\n", + "\n", + " def tpu_scaffold():\n", + " tf.train.init_from_checkpoint(init_checkpoint, assignment_map)\n", + " return tf.train.Scaffold()\n", + "\n", + " scaffold_fn = tpu_scaffold\n", + " else:\n", + " tf.train.init_from_checkpoint(init_checkpoint, assignment_map)\n", + "\n", + " tf.logging.info(\"**** Trainable Variables ****\")\n", + " for var in tvars:\n", + " init_string = \"\"\n", + " if var.name in initialized_variable_names:\n", + " init_string = \", *INIT_FROM_CKPT*\"\n", + " # tf.logging.info(\" name = %s, shape = %s%s\", var.name, var.shape,init_string)\n", + "\n", + " output_spec = None\n", + " if mode == tf.estimator.ModeKeys.TRAIN:\n", + " train_op = optimization.create_optimizer(\n", + " total_loss, learning_rate, num_train_steps, num_warmup_steps, use_tpu)\n", + "\n", + " output_spec = tf.estimator.EstimatorSpec(\n", + " mode=mode,\n", + " loss=total_loss,\n", + " train_op=train_op,\n", + " scaffold=scaffold_fn)\n", + "\n", + "\n", + " elif mode == tf.estimator.ModeKeys.EVAL:\n", + "\n", + " def metric_fn(per_example_loss, label_ids, probabilities, is_real_example):\n", + " \n", + " labels_hot = []\n", + " for task in range(len(LABEL_COLUMNS)):\n", + "\n", + " label_ids = tf.cast(label_ids, tf.int32) # labels shape: (batch_size, n_labels) (32,2)\n", + " labels_hot.append(tf.one_hot(label_ids[:,task], depth=num_labels, dtype=tf.int32))\n", + " # 0 non-offense, non-hate\n", + " # 1 offense, hate\n", + "\n", + "\n", + " label_cols = ['non-offense','offense', 'non-hate', 'hate']\n", + "\n", + " non_offense = probabilities[0][:,0]\n", + " offense = probabilities[0][:,1]\n", + " non_hate = probabilities[1][:,0]\n", + " hate = probabilities[1][:,1]\n", + "\n", + " proba = [non_offense, offense, non_hate, hate]\n", + " labels_separate = [labels_hot[0][:,0], labels_hot[0][:,1], labels_hot[1][:,0], labels_hot[1][:,1]]\n", + " # metrics change to auc of every class\n", + " eval_dict = {}\n", + " \n", + " for j, (label_name, logits) in enumerate(zip(label_cols, proba)):\n", + "\n", + " logits = tf.math.round(logits)\n", + "\n", + " current_f1, update_op_f1 = tf.contrib.metrics.f1_score(labels_separate[j], logits) \n", + " current_accuracy, update_op_accuracy = tf.compat.v1.metrics.accuracy(labels_separate[j], logits)\n", + "\n", + " \n", + " eval_dict[label_name + '_f1'] = (current_f1, update_op_f1) # (current_auc, update_op_auc)\n", + " eval_dict[label_name + '_accuracy'] = (current_accuracy, update_op_accuracy)\n", + "\n", + "\n", + " eval_dict['eval_loss'] = tf.metrics.mean(values=per_example_loss)\n", + " return eval_dict\n", + "\n", + "\n", + "\n", + " eval_metrics = metric_fn(per_example_loss, label_ids, probabilities, is_real_example)\n", + " output_spec = tf.estimator.EstimatorSpec(\n", + " mode=mode,\n", + " loss=total_loss,\n", + " eval_metric_ops = eval_metrics,\n", + " scaffold=scaffold_fn)\n", + " else:\n", + " print(\"mode:\", mode,\"probabilities:\", probabilities)\n", + " output_spec = tf.estimator.EstimatorSpec(\n", + " mode=mode,\n", + " predictions={\"probabilities_offense\": probabilities[0], 'probabilities_hate': probabilities[1]},\n", + " scaffold=scaffold_fn)\n", + " return output_spec\n", + "\n", + " return model_fn" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "VekZ_uAYfJdu", + "colab_type": "text" + }, + "source": [ + "### Training Preps" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "2nZETvAQ078Q", + "colab_type": "code", + "outputId": "7ec08981-3293-46aa-dd04-78d830d56caf", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 33 + } + }, + "source": [ + "tokenizer = tokenization.FullTokenizer(vocab_file=BERT_VOCAB, do_lower_case=False)\n", + "\n", + "MAX_SEQ_LENGTH = 256\n", + "BATCH_SIZE = 16\n", + "LEARNING_RATE = 2e-5\n", + "NUM_TRAIN_EPOCHS = 5.0\n", + "WARMUP_PROPORTION = 0.1\n", + "SAVE_CHECKPOINTS_STEPS = 200\n", + "SAVE_SUMMARY_STEPS = 200\n", + "\n", + "!mkdir working\n", + "train_file = os.path.join('./working', \"train.tf_record\")\n", + "#filename = Path(train_file)\n", + "if not os.path.exists(train_file):\n", + " open(train_file, 'w').close()\n", + "\n", + "train_examples = create_examples(x_train)\n", + "file_based_convert_examples_to_features(train_examples, MAX_SEQ_LENGTH, tokenizer, train_file)\n", + "\n", + "eval_file = os.path.join('./working', \"eval.tf_record\")\n", + "#filename = Path(train_file)\n", + "if not os.path.exists(eval_file):\n", + " open(eval_file, 'w').close()\n", + "\n", + "eval_examples = create_examples(x_val)\n", + "file_based_convert_examples_to_features(eval_examples, MAX_SEQ_LENGTH, tokenizer, eval_file)\n", + "\n", + "test_file = os.path.join('./working', \"test.tf_record\")\n", + "if not os.path.exists(test_file):\n", + " open(test_file, 'w').close()\n", + "\n", + "test_examples = create_examples(x_test)\n", + "file_based_convert_examples_to_features(test_examples, MAX_SEQ_LENGTH, tokenizer, test_file)" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "mkdir: cannot create directory ‘working’: File exists\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "I8Nux7RvlC4l", + "colab_type": "code", + "outputId": "1bbb7517-bbf8-4a2b-9cf4-1f23958b6474", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 191 + } + }, + "source": [ + "x_val.head()" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/html": [ + "
\n", + "\n", + "\n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + "
textoffensivehate_speech
0في حاج +ات مينفعش نلفت نظرك +وا لي +ها زى ال+ ...00
1: و+ عيون تنادي +نا تحايل في +نا و+ نقول يا عي...00
2يا بلاد +ي يا أم ال+ بلاد يا بلاد +ي ب+ حبك يا...00
3: يا رب يا قوي يا معين مدني ب+ ال+ قو +ة و+ ال...00
4: رحم ك+ الله يا صدام يا بطل و+ مقدام .00
\n", + "
" + ], + "text/plain": [ + " text offensive hate_speech\n", + "0 في حاج +ات مينفعش نلفت نظرك +وا لي +ها زى ال+ ... 0 0\n", + "1 : و+ عيون تنادي +نا تحايل في +نا و+ نقول يا عي... 0 0\n", + "2 يا بلاد +ي يا أم ال+ بلاد يا بلاد +ي ب+ حبك يا... 0 0\n", + "3 : يا رب يا قوي يا معين مدني ب+ ال+ قو +ة و+ ال... 0 0\n", + "4 : رحم ك+ الله يا صدام يا بطل و+ مقدام . 0 0" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 57 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "VOz-hJDelJTF", + "colab_type": "code", + "outputId": "7fed0ce0-9408-41e0-df00-5a798d63c702", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 191 + } + }, + "source": [ + "x_test.head()" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/html": [ + "
\n", + "\n", + "\n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + " \n", + "
textoffensivehate_speech
0اما أنت تقعد طول عمر ك+ لا مبدا و+ لا رأي ثابت...0.00.0
1ب+ تخاف نسوان ك+ يزعل +وا و+ لا أي اه يا هلفوت...0.00.0
2: يا عسانى نبقى يا عمري حبايب و+ حب +نا يكبر م...0.00.0
3: باقي ال+ بيان و+ ينو ما شفن +ه يا برهان و+ ر...0.00.0
4اللهم أنت ال+ شافي ال+ معافي اشفي +ه و+ جميع م...0.00.0
\n", + "
" + ], + "text/plain": [ + " text offensive hate_speech\n", + "0 اما أنت تقعد طول عمر ك+ لا مبدا و+ لا رأي ثابت... 0.0 0.0\n", + "1 ب+ تخاف نسوان ك+ يزعل +وا و+ لا أي اه يا هلفوت... 0.0 0.0\n", + "2 : يا عسانى نبقى يا عمري حبايب و+ حب +نا يكبر م... 0.0 0.0\n", + "3 : باقي ال+ بيان و+ ينو ما شفن +ه يا برهان و+ ر... 0.0 0.0\n", + "4 اللهم أنت ال+ شافي ال+ معافي اشفي +ه و+ جميع م... 0.0 0.0" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 17 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "CIurzoBFk-eA", + "colab_type": "code", + "colab": {} + }, + "source": [ + "x_test['offensive'] = np.zeros((x_test.shape[0]))\n", + "x_test['hate_speech'] = np.zeros((x_test.shape[0]))" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "jOsj5MFm4sS5", + "colab_type": "code", + "outputId": "5f4926fd-439d-4ca5-c766-c4a6b92450a8", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 82 + } + }, + "source": [ + "num_train_steps = int(len(train_examples) / BATCH_SIZE * NUM_TRAIN_EPOCHS)\n", + "num_warmup_steps = int(num_train_steps * WARMUP_PROPORTION)\n", + "tf.logging.info(\"***** Running training *****\")\n", + "tf.logging.info(\" Num examples = %d\", len(train_examples))\n", + "tf.logging.info(\" Batch size = %d\", BATCH_SIZE)\n", + "tf.logging.info(\" Num steps = %d\", num_train_steps)" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "INFO:tensorflow:***** Running training *****\n", + "INFO:tensorflow: Num examples = 6839\n", + "INFO:tensorflow: Batch size = 16\n", + "INFO:tensorflow: Num steps = 2137\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "AKLAN-yD073K", + "colab_type": "code", + "colab": {} + }, + "source": [ + "train_input_fn = file_based_input_fn_builder(\n", + " input_file=train_file,\n", + " seq_length=MAX_SEQ_LENGTH,\n", + " is_training=True,\n", + " drop_remainder=False)\n", + "\n", + "eval_input_fn = file_based_input_fn_builder(\n", + " input_file=eval_file,\n", + " seq_length=MAX_SEQ_LENGTH,\n", + " is_training=False,\n", + " drop_remainder=False)\n", + "\n", + "test_input_fn = file_based_input_fn_builder(\n", + " input_file=test_file,\n", + " seq_length=MAX_SEQ_LENGTH,\n", + " is_training=False,\n", + " drop_remainder=False)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "Ye-aDlm7c33_", + "colab_type": "code", + "colab": {} + }, + "source": [ + "OUTPUT_DIR = \"/content/Output_Dir\"\n", + "if not os.path.exists(OUTPUT_DIR):\n", + " os.mkdir(OUTPUT_DIR)\n", + "\n", + "# tf.gfile.MkDir(OUTPUT_DIR)\n", + "\n", + "# checkpoint_name = BERT_GCS_DIR + 'test.ckpt'\n", + "checkpoint_name = BERT_INIT_CHKPNT\n", + "OUTPUT_DIR_PER_MODEL = OUTPUT_DIR + \"/arabert/\"\n", + "print(OUTPUT_DIR_PER_MODEL)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "iE4XUL523q9L", + "colab_type": "code", + "colab": {} + }, + "source": [ + "\n", + "\n", + "if tf.gfile.Exists(OUTPUT_DIR_PER_MODEL):\n", + " pass\n", + "else:\n", + " tf.gfile.MkDir(OUTPUT_DIR_PER_MODEL)\n", + "\n", + "num_train_steps = int(len(train_examples) / BATCH_SIZE * NUM_TRAIN_EPOCHS)\n", + "num_eval_steps = int(len(eval_examples) / BATCH_SIZE * NUM_TRAIN_EPOCHS)\n", + "num_warmup_steps = int(num_train_steps * WARMUP_PROPORTION)\n", + "num_steps_per_epoch = int(num_train_steps/BATCH_SIZE)\n", + "\n", + "print(\"num train steps: {}\".format(num_train_steps))\n", + "print(\"num warmup steps: {}\".format(num_warmup_steps))\n", + "print(\"num_steps_per_epoch: {}\".format(num_steps_per_epoch))\n", + "\n", + "bert_config = modeling.BertConfig.from_json_file(BERT_CONFIG)\n", + "\n", + "model_fn = model_fn_builder(\n", + " bert_config=bert_config,\n", + " num_labels=len(LABEL_COLUMNS),\n", + " init_checkpoint=checkpoint_name,\n", + " learning_rate=LEARNING_RATE,\n", + " num_train_steps=num_train_steps,\n", + " num_warmup_steps=num_warmup_steps,\n", + " use_tpu=False,\n", + " use_one_hot_embeddings=False)\n", + "\n", + "run_config = tf.estimator.RunConfig(\n", + " keep_checkpoint_max=100,\n", + " model_dir=OUTPUT_DIR_PER_MODEL,\n", + " save_summary_steps=SAVE_SUMMARY_STEPS,\n", + " save_checkpoints_steps=200)\n", + "\n", + "estimator = tf.estimator.Estimator(\n", + " model_fn=model_fn,\n", + " config=run_config,\n", + " params={\"batch_size\": BATCH_SIZE})\n", + "\n", + "print(f'Beginning Training!')\n", + "estimator.train(input_fn=train_input_fn, max_steps=num_train_steps)\n", + "\n", + "print(f'Beginning Evaluation!')\n", + "eval_model_files = tf.gfile.Glob(os.path.join(OUTPUT_DIR_PER_MODEL,'*index'))\n", + "\n", + "for eval_checkpoint in tqdm(sorted(eval_model_files,key=lambda x: int(x[0:-6].split('-')[-1]))):\n", + "# eval_checkpoint = eval_model_files[3]\n", + " estimator.evaluate(input_fn=eval_input_fn, steps=int(num_eval_steps/BATCH_SIZE),checkpoint_path=eval_checkpoint[0:-6])" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "9_CNI-tefRnC", + "colab_type": "text" + }, + "source": [ + "### Evaluating" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "yK57NMAdHd8k", + "colab_type": "code", + "colab": {} + }, + "source": [ + "import numpy as np\n", + "from sklearn.metrics import f1_score\n", + "\n", + "offensive_true = np.asarray(eval_[\"offensive\"], dtype=np.int32)\n", + "hatespeech_true = np.asarray(eval_[\"hate_speech\"], dtype=np.int32)\n", + "\n", + "def get_f1(preds, offensive_true, hatespeech_true, f1_averaging):\n", + " model_predictions = list()\n", + " for i in preds:\n", + " model_predictions.append(i)\n", + "\n", + " hate_speech_output = list()\n", + " offense_output = list()\n", + " for instance in model_predictions:\n", + " hate_speech_output.append(list(instance['probabilities_hate']))\n", + " offense_output.append(list(instance['probabilities_offense']))\n", + " hate_speech_output = np.asarray(hate_speech_output)\n", + " offense_output = np.asarray(offense_output)\n", + "\n", + " hate_speech_output = np.round(hate_speech_output).astype(np.int32)\n", + " offense_output = np.round(offense_output).astype(np.int32)\n", + "\n", + " # print('not_offensive f1 score:', f1_score(offensive_true_one_hot[:, 0], offense_output[:, 0]))\n", + " # print('not_hate_speech f1 score:', f1_score(hatespeech_true_one_hot[:, 0], hate_speech_output[:, 0]))\n", + " # print('offensive f1 score:', f1_score(offensive_true_one_hot[:, 1], offense_output[:, 1]))\n", + " # print('hate_speech f1 score:', f1_score(hatespeech_true_one_hot[:, 1], hate_speech_output[:, 1]))\n", + " offensive_true_one_hot = np.zeros((offensive_true.size, offensive_true.max()+1))\n", + " offensive_true_one_hot[np.arange(offensive_true.size), offensive_true] = 1\n", + " hatespeech_true_one_hot = np.zeros((hatespeech_true.size, hatespeech_true.max()+1))\n", + " hatespeech_true_one_hot[np.arange(hatespeech_true.size), hatespeech_true] = 1\n", + "\n", + " from prettytable import PrettyTable\n", + " \n", + " tab = PrettyTable()\n", + " print('\\n')\n", + " tab.field_names = [\"\",\"not_offensive f1\", 'not_hate_speech f1', 'offensive f1', 'hate_speech f1']\n", + " tab.add_row([\"values\", np.round(f1_score(offensive_true_one_hot[:, 0], offense_output[:, 0], average= f1_averaging),4),\n", + " np.round(f1_score(hatespeech_true_one_hot[:, 0], hate_speech_output[:, 0], average= f1_averaging),4),\n", + " np.round(f1_score(offensive_true_one_hot[:, 1], offense_output[:, 1], average= f1_averaging),4), \n", + " np.round(f1_score(hatespeech_true_one_hot[:, 1], hate_speech_output[:, 1], average= f1_averaging),4)])\n", + " print(tab)\n", + "\n", + "\n", + " f1_not_hate_speech = f1_score(offensive_true_one_hot[:, 0], offense_output[:, 0])\n", + " f1_not_hate_speech = f1_score(hatespeech_true_one_hot[:, 0], hate_speech_output[:, 0])\n", + " f1_offensive = f1_score(offensive_true_one_hot[:, 1], offense_output[:, 1])\n", + " f1_hate_speech = f1_score(hatespeech_true_one_hot[:, 1], hate_speech_output[:, 1])\n", + "\n", + " return f1_not_hate_speech, f1_not_hate_speech, f1_offensive, f1_hate_speech" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "LM35TL6MHh_X", + "colab_type": "code", + "outputId": "3d9fcb27-f368-4fa0-84bd-a7bd1be4dfed", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 980 + } + }, + "source": [ + "# offensive_labels = x_val.iloc[:,1]\n", + "# hate_labels = x_val.iloc[:,2]\n", + "eval_model_files = tf.gfile.Glob(os.path.join(OUTPUT_DIR_PER_MODEL,'*index'))\n", + "for eval_checkpoint in tqdm(sorted(eval_model_files,key=lambda x: int(x[0:-6].split('-')[-1]))):\n", + " \n", + " result = estimator.predict(eval_input_fn, checkpoint_path=eval_checkpoint[0:-6])\n", + "\n", + "\n", + " f1_not_hate_speech, f1_not_hate_speech, f1_offensive, f1_hate_speech = get_f1(result, offensive_true, hatespeech_true, 'macro')" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "\r 0%| | 0/1 [00:00:179: map_and_batch (from tensorflow.contrib.data.python.ops.batching) is deprecated and will be removed in a future version.\n", + "Instructions for updating:\n", + "Use `tf.data.experimental.map_and_batch(...)`.\n", + "WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/tensorflow_core/contrib/data/python/ops/batching.py:276: map_and_batch (from tensorflow.python.data.experimental.ops.batching) is deprecated and will be removed in a future version.\n", + "Instructions for updating:\n", + "Use `tf.data.Dataset.map(map_func, num_parallel_calls)` followed by `tf.data.Dataset.batch(batch_size, drop_remainder)`. Static tf.data optimizations will take care of using the fused implementation.\n", + "WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/tensorflow_core/python/autograph/converters/directives.py:119: The name tf.parse_single_example is deprecated. Please use tf.io.parse_single_example instead.\n", + "\n", + "WARNING:tensorflow:From :159: to_int32 (from tensorflow.python.ops.math_ops) is deprecated and will be removed in a future version.\n", + "Instructions for updating:\n", + "Use `tf.cast` instead.\n", + "INFO:tensorflow:Calling model_fn.\n", + "INFO:tensorflow:*** Features ***\n", + "INFO:tensorflow: name = input_ids, shape = (?, 256)\n", + "INFO:tensorflow: name = input_mask, shape = (?, 256)\n", + "INFO:tensorflow: name = is_real_example, shape = (?,)\n", + "INFO:tensorflow: name = label_ids, shape = (?, 2)\n", + "INFO:tensorflow: name = segment_ids, shape = (?, 256)\n", + "WARNING:tensorflow:From /content/bert/modeling.py:171: The name tf.variable_scope is deprecated. Please use tf.compat.v1.variable_scope instead.\n", + "\n", + "WARNING:tensorflow:From /content/bert/modeling.py:409: The name tf.get_variable is deprecated. Please use tf.compat.v1.get_variable instead.\n", + "\n", + "WARNING:tensorflow:From /content/bert/modeling.py:490: The name tf.assert_less_equal is deprecated. Please use tf.compat.v1.assert_less_equal instead.\n", + "\n", + "WARNING:tensorflow:From /content/bert/modeling.py:671: dense (from tensorflow.python.layers.core) is deprecated and will be removed in a future version.\n", + "Instructions for updating:\n", + "Use keras.layers.Dense instead.\n", + "WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/tensorflow_core/python/layers/core.py:187: Layer.apply (from tensorflow.python.keras.engine.base_layer) is deprecated and will be removed in a future version.\n", + "Instructions for updating:\n", + "Please use `layer.__call__` method instead.\n", + "INFO:tensorflow:num_labels:2;logits:[];labels:Tensor(\"IteratorGetNext:3\", shape=(?, 2), dtype=int32)\n", + "INFO:tensorflow:num_labels:2;logits:[, ];labels:Tensor(\"IteratorGetNext:3\", shape=(?, 2), dtype=int32)\n", + "INFO:tensorflow:**** Trainable Variables ****\n", + "mode: infer probabilities: [, ]\n", + "INFO:tensorflow:Done calling model_fn.\n", + "WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/tensorflow_core/python/ops/array_ops.py:1475: where (from tensorflow.python.ops.array_ops) is deprecated and will be removed in a future version.\n", + "Instructions for updating:\n", + "Use tf.where in 2.0, which has the same broadcast rule as np.where\n", + "INFO:tensorflow:Graph was finalized.\n", + "INFO:tensorflow:Restoring parameters from /content/Output_Dir/1250000/model.ckpt-0\n", + "INFO:tensorflow:Running local_init_op.\n", + "INFO:tensorflow:Done running local_init_op.\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "\r100%|██████████| 1/1 [00:36<00:00, 36.97s/it]" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "\n", + "\n", + "+--------+------------------+--------------------+--------------+----------------+\n", + "| | not_offensive f1 | not_hate_speech f1 | offensive f1 | hate_speech f1 |\n", + "+--------+------------------+--------------------+--------------+----------------+\n", + "| values | 0.9015 | 0.8341 | 0.9015 | 0.8341 |\n", + "+--------+------------------+--------------------+--------------+----------------+\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "\n" + ], + "name": "stderr" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "epyAnG_bfdl8", + "colab_type": "text" + }, + "source": [ + "#### Saving Best Model" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "bb9a3uwyr_-2", + "colab_type": "code", + "colab": {} + }, + "source": [ + "eval_checkpoint = eval_model_files[7]\n", + "checkpoint_path = eval_checkpoint[0:-6]\n", + "# result = estimator.predict(eval_input_fn, checkpoint_path = eval_checkpoint[0:-6])" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "hCRbQfe8aNL8", + "colab_type": "code", + "colab": {} + }, + "source": [ + "!cp -r /content/Output_Dir/arabert/model.ckpt-1200.index /content/best_model/\n", + "!cp -r /content/Output_Dir/arabert/model.ckpt-1200.meta /content/best_model/\n", + "!cp -r /content/Output_Dir/arabert/graph.pbtxt /content/best_model/\n", + "!cp -r /content/Output_Dir/arabert/events.out.tfevents.1582011537.9f8209d16eb2 /content/best_model/\n", + "!cp -r /content/Output_Dir/arabert/checkpoint /content/best_model/\n", + "!cp -r /content/Output_Dir/arabert/model.ckpt-1200.data-00000-of-00001 /content/best_model/" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "rLfSGVZXadpL", + "colab_type": "code", + "outputId": "807463dd-cdfb-4b91-f47f-49d89461b558", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 131 + } + }, + "source": [ + "!zip -r best_model.zip /content/best_model" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "stream", + "text": [ + "updating: content/best_model/ (stored 0%)\n", + " adding: content/best_model/events.out.tfevents.1582011537.9f8209d16eb2 (deflated 92%)\n", + " adding: content/best_model/checkpoint (deflated 84%)\n", + " adding: content/best_model/model.ckpt-1200.meta (deflated 92%)\n", + " adding: content/best_model/graph.pbtxt (deflated 97%)\n", + " adding: content/best_model/model.ckpt-1200.index (deflated 69%)\n", + " adding: content/best_model/model.ckpt-1200.data-00000-of-00001 (deflated 25%)\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "sYv2cLAqbwaB", + "colab_type": "code", + "colab": {} + }, + "source": [ + "!cp /content/best_model.zip /content/drive/'My Drive'/best_MTL_model/" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "DP8q2FX3T3QY", + "colab_type": "text" + }, + "source": [ + "" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "SanXbZg_g9uz", + "colab_type": "code", + "colab": {} + }, + "source": [ + "result = estimator.predict(test_input_fn, checkpoint_path=eval_checkpoint[0:-6])" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "lZDpSp2EfhvM", + "colab_type": "text" + }, + "source": [ + "### Predicting on eval and test sets" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "ErsiphU0sVjj", + "colab_type": "code", + "colab": {} + }, + "source": [ + "def get_predictions(path_to_input_text, predictions, filename, true_labels, is_test_data):\n", + " label_list = ['0','1']\n", + " label_list_2= ['0', '1']\n", + " output_predict_file = \"/content/test_results.tsv\"\n", + " res = []\n", + " f = open(path_to_input_text, 'r', encoding='utf-8')\n", + " lines = f.readlines()\n", + " str1 = ''\n", + " with tf.gfile.GFile(output_predict_file, \"w\") as writer:\n", + " tf.logging.info(\"***** Predict results *****\")\n", + "\n", + " for i, preds in enumerate(predictions):\n", + " prediction_1 = preds[\"probabilities_offense\"]\n", + " prediction_2 = preds[\"probabilities_hate\"]\n", + " output_line = \"\\t\".join(\n", + " str(class_probability) for class_probability in prediction_1) + \"\\n\"\n", + " writer.write(output_line)\n", + "\n", + " prediction_1 = prediction_1.tolist()\n", + " prediction_2 = prediction_2.tolist()\n", + " pre_label_1 = label_list[prediction_1.index(max(prediction_1))]\n", + " pre_label_2 = label_list_2[prediction_2.index(max(prediction_2))]\n", + " # print(i)\n", + " li = lines[i].strip().split('\\t')\n", + " # print(li)\n", + " if is_test_data:\n", + " str1 += li[0] + '\\t' + pre_label_1 + '\\t' + pre_label_2 + '\\n'\n", + " \n", + " else: \n", + " str1 += li[0] + '\\t' + pre_label_1 + '\\t'+ true_labels.iloc[i,0] + '\\t' + pre_label_2 + '\\t' + true_labels.iloc[i,1] + '\\n'\n", + "\n", + " \n", + "\n", + " with open('result.txt', 'w', encoding='utf-8') as f:\n", + " f.write(str1)\n", + "\n", + " preds = pd.read_csv(\"/content/result.txt\",sep=\"\\t\",header=None)\n", + " if is_test_data:\n", + " preds.columns = [\"text\",\"offensive\",\"hate_speech\", ]\n", + " else:\n", + " \n", + " preds.columns = [\"text\",\"offensive\",\"true_off\",\"hate_speech\", \"true_hate\"]\n", + "\n", + " preds.to_excel('{}.xlsx'.format(filename))\n", + "\n", + " return preds" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "oP_sa6g6tgQ6", + "colab_type": "code", + "colab": {} + }, + "source": [ + "eval_model_files" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "WZxW2wgItrQe", + "colab_type": "code", + "colab": {} + }, + "source": [ + "# preds = get_predictions('/content/OSACT2020-sharedTask-test-tweets.txt', result, 'test_preds')\n", + "eval_checkpoint = eval_model_files[7]\n", + "result_eval = estimator.predict(input_fn = eval_input_fn, checkpoint_path=eval_checkpoint[0:-6])\n", + "val_labels = x_train_w_eval.iloc[:,1:]\n", + "# train_labels = x_train.iloc[:,1:]\n", + "preds_eval = get_predictions('/content/data/OSACT2020-sharedTask-dev.txt', result_eval, 'eval_preds_1400', val_labels, is_test_data=True)\n" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "e76z2YW2htIA", + "colab_type": "code", + "colab": {} + }, + "source": [ + "def get_predictions_final( predictions):\n", + " label_list = ['NOT_OFF','OFF ']\n", + " label_list_2= ['NOT_HS', 'HS']\n", + " output_predict_file = \"/content/test_results.tsv\"\n", + " res = []\n", + " str1 = ''\n", + " str2 = ''\n", + " with tf.gfile.GFile(output_predict_file, \"w\") as writer:\n", + " tf.logging.info(\"***** Predict results *****\")\n", + "\n", + " for i, preds in enumerate(predictions):\n", + " prediction_1 = preds[\"probabilities_offense\"]\n", + " prediction_2 = preds[\"probabilities_hate\"]\n", + " output_line = \"\\t\".join(\n", + " str(class_probability) for class_probability in prediction_1) + \"\\n\"\n", + " writer.write(output_line)\n", + "\n", + " prediction_1 = prediction_1.tolist()\n", + " prediction_2 = prediction_2.tolist()\n", + " pre_label_1 = label_list[prediction_1.index(max(prediction_1))]\n", + " pre_label_2 = label_list_2[prediction_2.index(max(prediction_2))]\n", + " \n", + " str1 += pre_label_1 + '\\n'\n", + " str2 += pre_label_2 + '\\n'\n", + " \n", + "\n", + " with open('result_off.txt', 'w', encoding='utf-8') as f:\n", + " f.write(str1)\n", + " \n", + " with open('result_HS.txt', 'w', encoding='utf-8') as f:\n", + " f.write(str2)\n", + "\n", + "\n", + " return preds" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "AZwcI8VQrOcH", + "colab_type": "code", + "outputId": "e5e1aa55-c7ce-475f-9bf2-d1e48777ed16", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 33 + } + }, + "source": [ + "x_test.shape" + ], + "execution_count": 0, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "(2000, 3)" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 23 + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "BcmcDR4PnZOO", + "colab_type": "code", + "colab": {} + }, + "source": [ + "# preds = get_predictions('/content/OSACT2020-sharedTask-test-tweets.txt', result, 'test_preds')\n", + "eval_model_files = tf.gfile.Glob(os.path.join(OUTPUT_DIR_PER_MODEL,'*index'))\n", + "eval_checkpoint = eval_model_files[7]\n", + "result_eval = estimator.predict(input_fn = eval_input_fn, checkpoint_path=eval_checkpoint[0:-6])\n", + "\n", + "# train_labels = x_train.iloc[:,1:]\n", + "preds_eval = get_predictions_final( result_eval )\n" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "nuRcSTiAPiL0", + "colab_type": "code", + "colab": {} + }, + "source": [ + "!cp eval_preds.xlsx /content/drive/'My Drive'/" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "cShj5A_9hhfn", + "colab_type": "code", + "colab": {} + }, + "source": [ + "label_list = ['non-offense','offense']\n", + "label_list_2= ['non-hate', 'hate']\n", + "output_predict_file = \"/content/test_results.tsv\"\n", + "res = []\n", + "f = open('/content/OSACT2020-sharedTask-test-tweets.txt', 'r', encoding='utf-8')\n", + "lines = f.readlines()\n", + "str1 = ''\n", + "with tf.gfile.GFile(output_predict_file, \"w\") as writer:\n", + " tf.logging.info(\"***** Predict results *****\")\n", + "\n", + " for i, predictions in enumerate(result):\n", + " prediction = predictions[\"probabilities_offense\"]\n", + " prediction2 = predictions[\"probabilities_hate\"]\n", + " output_line = \"\\t\".join(\n", + " str(class_probability) for class_probability in prediction) + \"\\n\"\n", + " writer.write(output_line)\n", + "\n", + " prediction = prediction.tolist()\n", + " prediction2 = prediction2.tolist()\n", + " pre_label = label_list[prediction.index(max(prediction))]\n", + " pre_label2 = label_list_2[prediction2.index(max(prediction2))]\n", + "\n", + " li = lines[i].strip().split('\\t')\n", + " str1 += li[0] + '\\t' + pre_label + '\\t' + pre_label2 + '\\n'\n", + "\n", + " \n", + "\n", + " with open('result.txt', 'w', encoding='utf-8') as f:\n", + " f.write(str1)\n", + "\n" + ], + "execution_count": 0, + "outputs": [] + } + ] +} \ No newline at end of file diff --git a/arabert/examples/old/README.md b/arabert/examples/old/README.md new file mode 100644 index 0000000000000000000000000000000000000000..9c320f4ee5887c19a4301002a2608e2ef70250ed --- /dev/null +++ b/arabert/examples/old/README.md @@ -0,0 +1,13 @@ +**Examples** + +`AraBERT_ANERCorp_CamelSplits.ipynb` is a demo of AraBERT for token classification on the ANERCorp dataset. + +`araBERT_(Updated_Demo_TF).ipynb` is a demo using the AJGT dataset using TensorFlow Estimators (GPU and TPU compatible). + +`AraBERT_with_fast_bert.ipynb` is a demo using the AJGT dataset with Fast-Bert library + +`AraBERT_Fill_Mask.ipynb` is a demo of the Masked Language capabilites and how it is better than other models that support Arabic + +`AraBERT_Text_Classification_with_HF_Trainer_Pytorch_GPU.ipynb` is a demo using the AJGT dataset using HuggingFace's Trainer API for PyTorch (GPU compatible) Note: TPU compatibility should be enabled in the `TrainingArguments` but not tested yet + +`MTL_AraBERT_Offensive_Lanaguage_detection.ipynb` is the code used in the in the [OSACT4 - shared task on Offensive language detection (LREC 2020)](http://edinburghnlp.inf.ed.ac.uk/workshops/OSACT4/). Paper [Link](https://www.aclweb.org/anthology/2020.osact-1.16/) \ No newline at end of file diff --git a/arabert/examples/old/araBERT_(Updated_Demo_TF).ipynb b/arabert/examples/old/araBERT_(Updated_Demo_TF).ipynb new file mode 100644 index 0000000000000000000000000000000000000000..63677d1213573226467dd32aa1e98736a1d0de64 --- /dev/null +++ b/arabert/examples/old/araBERT_(Updated_Demo_TF).ipynb @@ -0,0 +1,834 @@ +{ + "nbformat": 4, + "nbformat_minor": 0, + "metadata": { + "colab": { + "name": "araBERT_(Updated_Demo_TF).ipynb", + "provenance": [] + }, + "kernelspec": { + "name": "python3", + "display_name": "Python 3" + } + }, + "cells": [ + { + "cell_type": "markdown", + "metadata": { + "id": "gfD4GtpCrLid", + "colab_type": "text" + }, + "source": [ + "#Mount Your Drive" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "ih7nxTJNgf-U", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 122 + }, + "outputId": "c10ee369-e130-4034-9100-30711eff9e01" + }, + "source": [ + "from google.colab import drive\n", + "drive.mount('/content/drive')" + ], + "execution_count": 1, + "outputs": [ + { + "output_type": "stream", + "text": [ + "Go to this URL in a browser: https://accounts.google.com/o/oauth2/auth?client_id=947318989803-6bn6qk8qdgf4n4g3pfee6491hc0brc4i.apps.googleusercontent.com&redirect_uri=urn%3aietf%3awg%3aoauth%3a2.0%3aoob&response_type=code&scope=email%20https%3a%2f%2fwww.googleapis.com%2fauth%2fdocs.test%20https%3a%2f%2fwww.googleapis.com%2fauth%2fdrive%20https%3a%2f%2fwww.googleapis.com%2fauth%2fdrive.photos.readonly%20https%3a%2f%2fwww.googleapis.com%2fauth%2fpeopleapi.readonly\n", + "\n", + "Enter your authorization code:\n", + "··········\n", + "Mounted at /content/drive\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "2yW2yLEzgZXQ", + "colab_type": "code", + "colab": {} + }, + "source": [ + "#copy the BERT model to Colab\n", + "!cp -r \"/content/drive/My Drive/AraBERT_models/\" ./" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "shok9wHKyI8L", + "colab_type": "text" + }, + "source": [ + "#Installing Farasa and pyarabic\n", + "\n", + "To do Farasa segmenting you will need FarasaSegmenter.jar in the same directory as the preprocess.py file \n", + "\n", + "(you can get the Farasa segmenter from http://qatsdemo.cloudapp.net/farasa/register.html)" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "nxf11ClKpMRn", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 323 + }, + "outputId": "a1f984c9-902d-4785-c4fb-fd28cc6827c8" + }, + "source": [ + "#install java on colab (needed for Farasa)\n", + "import os \n", + "def install_java():\n", + " !apt-get install -y openjdk-8-jdk-headless -qq > /dev/null #install openjdk\n", + " os.environ[\"JAVA_HOME\"] = \"/usr/lib/jvm/java-8-openjdk-amd64\" #set environment variable\n", + " !java -version #check java version\n", + "install_java()\n", + "!pip install py4j\n", + "!pip install pyarabic " + ], + "execution_count": 3, + "outputs": [ + { + "output_type": "stream", + "text": [ + "openjdk version \"11.0.6\" 2020-01-14\n", + "OpenJDK Runtime Environment (build 11.0.6+10-post-Ubuntu-1ubuntu118.04.1)\n", + "OpenJDK 64-Bit Server VM (build 11.0.6+10-post-Ubuntu-1ubuntu118.04.1, mixed mode, sharing)\n", + "Collecting py4j\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/9e/b6/6a4fb90cd235dc8e265a6a2067f2a2c99f0d91787f06aca4bcf7c23f3f80/py4j-0.10.9-py2.py3-none-any.whl (198kB)\n", + "\u001b[K |████████████████████████████████| 204kB 2.8MB/s \n", + "\u001b[?25hInstalling collected packages: py4j\n", + "Successfully installed py4j-0.10.9\n", + "Collecting pyarabic\n", + "\u001b[?25l Downloading https://files.pythonhosted.org/packages/b8/77/da852ee13bce3affc55b746cebc0fdc0fc48628dbc5898ce489112cd6bd1/PyArabic-0.6.6.tar.gz (101kB)\n", + "\u001b[K |████████████████████████████████| 102kB 2.3MB/s \n", + "\u001b[?25hBuilding wheels for collected packages: pyarabic\n", + " Building wheel for pyarabic (setup.py) ... \u001b[?25l\u001b[?25hdone\n", + " Created wheel for pyarabic: filename=PyArabic-0.6.6-cp36-none-any.whl size=106208 sha256=6290721a6eb1f51c1108b7d5358a41e3719509c8add4aa00e68d0858deef34a6\n", + " Stored in directory: /root/.cache/pip/wheels/34/b5/2d/668d567e8c2b6f10309dbfaba5bfef6ea0b1c0f9f6fb37078f\n", + "Successfully built pyarabic\n", + "Installing collected packages: pyarabic\n", + "Successfully installed pyarabic-0.6.6\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "s7005rJmvsnB", + "colab_type": "code", + "colab": {} + }, + "source": [ + "#This command is usefull when the java runtime hangs after a runtime restart (colab issue)\n", + "!pkill \"java\"" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "xc-kElEryO_5", + "colab_type": "text" + }, + "source": [ + "#Tensorflow implementation" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "ufHaEOIoyOfe", + "colab_type": "code", + "colab": {} + }, + "source": [ + "!git clone https://github.com/aub-mind/arabert" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "r-leDZZieoM3", + "colab_type": "text" + }, + "source": [ + "If the cell below hangs, stop it and use !pkill \"java\"" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "EFgvI-blyyY-", + "colab_type": "code", + "colab": {} + }, + "source": [ + "import tensorflow as tf\n", + "from arabert import tokenization\n", + "from arabert.preprocess_arabert import preprocess\n", + "from py4j.java_gateway import JavaGateway\n", + "\n", + "!pkill \"java\"\n", + "\n", + "gateway = JavaGateway.launch_gateway(classpath='./FarasaSegmenterJar.jar')\n", + "farasa = gateway.jvm.com.qcri.farasa.segmenter.Farasa()\n", + "\n", + "#Configure the path to the araBERT folder\n", + "ARABERT_PATH = \"./AraBERT_models/tf_arabert\"" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "-kF8X1LgzDqY", + "colab_type": "code", + "colab": {} + }, + "source": [ + "#test BERT tokenizer\n", + "bert_tokenizer = tokenization.FullTokenizer(ARABERT_PATH+\"/vocab.txt\")" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "TkfeIGpO0NkP", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 34 + }, + "outputId": "f49eceb6-e6cb-4e6c-8f06-6a3ec8d87757" + }, + "source": [ + "text = \"الدراسات النظرية للتصميم الحديث\"\n", + "text_prep = preprocess(text, do_farasa_tokenization=True , farasa=farasa)\n", + "print(text_prep)" + ], + "execution_count": 18, + "outputs": [ + { + "output_type": "stream", + "text": [ + "ال+ دراس +ات ال+ نظري +ة ل+ ال+ تصميم ال+ حديث\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "riK3zuM60Kpq", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 204 + }, + "outputId": "6d493ee9-cae5-441a-d970-2bb31b55ba05" + }, + "source": [ + "bert_tokenizer.tokenize(text_prep)" + ], + "execution_count": 19, + "outputs": [ + { + "output_type": "execute_result", + "data": { + "text/plain": [ + "['ال+',\n", + " 'دراس',\n", + " '+ات',\n", + " 'ال+',\n", + " 'نظري',\n", + " '+ة',\n", + " 'ل+',\n", + " 'ال+',\n", + " 'تصميم',\n", + " 'ال+',\n", + " 'حديث']" + ] + }, + "metadata": { + "tags": [] + }, + "execution_count": 19 + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "Ka_J4XCy6xyY", + "colab_type": "text" + }, + "source": [ + "##Tensorflow Training" + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "TvsyptgP7Vz_", + "colab_type": "text" + }, + "source": [ + "**ENABLE TPU RUNTIME!!!**\n", + "\n", + "Test Sentiment Analysis score on a dataset like the AJGT\n", + "\n", + "K. M. Alomari, H. M. ElSherif, and K. Shaalan, “Arabic tweets sentimental analysis using machine learning,” in Proceedings of the International Conference on Industrial, Engineering and Other Applications of Applied Intelligent Systems, pp. 602–610, Montreal, Canada, June 2017." + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "q8vC_Fnd6xNv", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 51 + }, + "outputId": "3c12399e-8495-4dce-be07-6745ceb589c9" + }, + "source": [ + "import os\n", + "import sys\n", + "import json\n", + "import nltk\n", + "import random\n", + "import logging\n", + "import tensorflow as tf\n", + "import pandas as pd\n", + "\n", + "from glob import glob\n", + "from tensorflow.keras.utils import Progbar\n", + "from tqdm import tqdm\n", + "\n", + "sys.path.append(\"arabert\")\n", + "\n", + "import arabert\n", + "from arabert import modeling, optimization, tokenization\n", + "from arabert.run_classifier import input_fn_builder, model_fn_builder\n", + "\n", + "from sklearn.model_selection import train_test_split\n", + "\n", + "from google.colab import auth\n", + "auth.authenticate_user()\n", + "\n", + "# configure logging\n", + "log = logging.getLogger('tensorflow')\n", + "log.setLevel(logging.INFO)\n", + "\n", + "# create formatter and add it to the handlers\n", + "formatter = logging.Formatter('%(asctime)s : %(message)s')\n", + "sh = logging.StreamHandler()\n", + "sh.setLevel(logging.INFO)\n", + "sh.setFormatter(formatter)\n", + "log.handlers = [sh]\n", + "\n", + "if 'COLAB_TPU_ADDR' in os.environ:\n", + " log.info(\"Using TPU runtime\")\n", + " USE_TPU = True\n", + " TPU_ADDRESS = 'grpc://' + os.environ['COLAB_TPU_ADDR']\n", + "\n", + " with tf.Session(TPU_ADDRESS) as session:\n", + " log.info('TPU address is ' + TPU_ADDRESS)\n", + " # Upload credentials to TPU.\n", + " with open('/content/adc.json', 'r') as f:\n", + " auth_info = json.load(f)\n", + " tf.contrib.cloud.configure_gcs(session, credentials=auth_info)\n", + " \n", + "else:\n", + " log.warning('Not connected to TPU runtime')\n", + " USE_TPU = False" + ], + "execution_count": 28, + "outputs": [ + { + "output_type": "stream", + "text": [ + "2020-03-11 12:09:35,885 : Not connected to TPU runtime\n", + "WARNING:tensorflow:Not connected to TPU runtime\n" + ], + "name": "stderr" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "ODrRSrYL78KM", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 85 + }, + "outputId": "58402dcb-f341-48c7-8aa2-12a34f888a1e" + }, + "source": [ + "# Input data pipeline config\n", + "TRAIN_BATCH_SIZE = 32 #@param {type:\"integer\"} #You can probably \n", + " #increase when using TPUS\n", + "MAX_SEQ_LENGTH = 512 #@param {type:\"integer\"} #reduce if running on GPU\n", + "\n", + "# Training procedure config\n", + "EVAL_BATCH_SIZE = 64 \n", + "LEARNING_RATE = 2e-5\n", + "NUM_TRAIN_EPOCHS = 6 #@param {type:\"integer\"}\n", + "WARMUP_PROPORTION = 0.1 #@param {type:\"number\"}\n", + "NUM_TPU_CORES = 8\n", + "PREDICT_BATCH_SIZE = 8\n", + "\n", + "\n", + "CONFIG_FILE = os.path.join(ARABERT_PATH, \"config.json\")\n", + "INIT_CHECKPOINT = os.path.join(ARABERT_PATH,\"arabert_model.ckpt\")#change the model name when you use arabertv0.1\n", + "\n", + "OUTPUT_DIR_PER_MODEL = \"./finetuned_model\"\n", + "bert_config = modeling.BertConfig.from_json_file(CONFIG_FILE)\n", + "\n", + "log.info(\"Using checkpoint: {}\".format(INIT_CHECKPOINT))\n", + "\n", + "print(\"ARABERT_PATH: \"+ARABERT_PATH)\n", + "print(\"CONFIG_FILE: \"+CONFIG_FILE)\n", + "print(\"INIT_CHECKPOINT: \"+INIT_CHECKPOINT)" + ], + "execution_count": 23, + "outputs": [ + { + "output_type": "stream", + "text": [ + "2020-03-11 12:08:05,119 : Using checkpoint: ./AraBERT_models/tf_arabert\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "ARABERT_PATH: ./AraBERT_models/tf_arabert\n", + "CONFIG_FILE: ./AraBERT_models/tf_arabert/config.json\n", + "INIT_CHECKPOINT: ./AraBERT_models/tf_arabert\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "RERzE9788SkN", + "colab_type": "code", + "colab": {} + }, + "source": [ + "df_AJGT = pd.read_excel('./arabert/AJGT.xlsx',header=0)\n", + "\n", + "DATA_COLUMN = 'text'\n", + "LABEL_COLUMN = 'label'\n", + "\n", + "df_AJGT = df_AJGT[['Feed', 'Sentiment']]\n", + "df_AJGT.columns = [DATA_COLUMN, LABEL_COLUMN]\n", + "\n", + "df_AJGT['text'] = df_AJGT['text'].apply(lambda x: preprocess(x, do_farasa_tokenization=True , farasa=farasa))\n", + "\n", + "train_AJGT, test_AJGT = train_test_split(df_AJGT, test_size=0.2,random_state=42)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "MPIM4K2a80l3", + "colab_type": "code", + "colab": {} + }, + "source": [ + "train_InputExamples = train_AJGT.apply(lambda x: arabert.run_classifier.InputExample(guid=None, # Globally unique ID for bookkeeping, unused in this example\n", + " text_a = x[\"text\"], \n", + " text_b = None, \n", + " label = x[\"label\"]), axis = 1)\n", + "\n", + "test_InputExamples = test_AJGT.apply(lambda x: arabert.run_classifier.InputExample(guid=None, \n", + " text_a = x[\"text\"], \n", + " text_b = None, \n", + " label = x[\"label\"]), axis = 1)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "code", + "metadata": { + "id": "kReBtJo89p3K", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 1000 + }, + "outputId": "34c827ad-305b-4ffa-df94-bfcd690052a4" + }, + "source": [ + "labels = list(df_AJGT.label.unique())\n", + "print(labels)\n", + "\n", + "train_features = arabert.run_classifier.convert_examples_to_features(train_InputExamples, labels, MAX_SEQ_LENGTH, bert_tokenizer)\n", + "test_features = arabert.run_classifier.convert_examples_to_features(test_InputExamples, labels, MAX_SEQ_LENGTH, bert_tokenizer)" + ], + "execution_count": 32, + "outputs": [ + { + "output_type": "stream", + "text": [ + "2020-03-11 12:10:02,955 : From /content/arabert/run_classifier.py:777: The name tf.logging.info is deprecated. Please use tf.compat.v1.logging.info instead.\n", + "\n", + "WARNING:tensorflow:From /content/arabert/run_classifier.py:777: The name tf.logging.info is deprecated. Please use tf.compat.v1.logging.info instead.\n", + "\n", + "2020-03-11 12:10:02,967 : Writing example 0 of 1440\n", + "INFO:tensorflow:Writing example 0 of 1440\n", + "2020-03-11 12:10:02,971 : *** Example ***\n", + "INFO:tensorflow:*** Example ***\n", + "2020-03-11 12:10:02,976 : guid: None\n", + "INFO:tensorflow:guid: None\n", + "2020-03-11 12:10:02,979 : tokens: [CLS] سبحان الله ب+ حمد +ه عدد خلق +ه رضى نفس +ه زن +ه عرش +ه مداد كلم +ات +ه [SEP]\n", + "INFO:tensorflow:tokens: [CLS] سبحان الله ب+ حمد +ه عدد خلق +ه رضى نفس +ه زن +ه عرش +ه مداد كلم +ات +ه [SEP]\n", + "2020-03-11 12:10:02,982 : input_ids: 29756 36006 12695 448 3945 129 5367 4095 129 4444 6746 129 630 129 5383 129 21336 6025 1012 129 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_ids: 29756 36006 12695 448 3945 129 5367 4095 129 4444 6746 129 630 129 5383 129 21336 6025 1012 129 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:02,984 : input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:02,986 : segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:02,989 : label: Positive (id = 0)\n", + "INFO:tensorflow:label: Positive (id = 0)\n", + "2020-03-11 12:10:02,992 : *** Example ***\n", + "INFO:tensorflow:*** Example ***\n", + "2020-03-11 12:10:02,995 : guid: None\n", + "INFO:tensorflow:guid: None\n", + "2020-03-11 12:10:02,997 : tokens: [CLS] سبحان الله مالك ال+ سمو +ات ال+ ارض [SEP]\n", + "INFO:tensorflow:tokens: [CLS] سبحان الله مالك ال+ سمو +ات ال+ ارض [SEP]\n", + "2020-03-11 12:10:03,000 : input_ids: 29756 36006 12695 20952 3000 4787 1012 3000 2889 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_ids: 29756 36006 12695 20952 3000 4787 1012 3000 2889 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,002 : input_mask: 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_mask: 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,005 : segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,008 : label: Positive (id = 0)\n", + "INFO:tensorflow:label: Positive (id = 0)\n", + "2020-03-11 12:10:03,012 : *** Example ***\n", + "INFO:tensorflow:*** Example ***\n", + "2020-03-11 12:10:03,014 : guid: None\n", + "INFO:tensorflow:guid: None\n", + "2020-03-11 12:10:03,017 : tokens: [CLS] قص +ه جميل +ه جد +ا تعكس معنى ال+ ايمان ال+ تمسك ب+ ال ##ع ##قيد +ه ال+ صحيح ##ه حسن تعاليم +ها [SEP]\n", + "INFO:tensorflow:tokens: [CLS] قص +ه جميل +ه جد +ا تعكس معنى ال+ ايمان ال+ تمسك ب+ ال ##ع ##قيد +ه ال+ صحيح ##ه حسن تعاليم +ها [SEP]\n", + "2020-03-11 12:10:03,020 : input_ids: 29756 793 129 15724 129 503 124 14652 21906 3000 32291 3000 15008 448 445 996 28980 129 3000 18504 1004 3889 48933 1018 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_ids: 29756 793 129 15724 129 503 124 14652 21906 3000 32291 3000 15008 448 445 996 28980 129 3000 18504 1004 3889 48933 1018 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,022 : input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,025 : segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,027 : label: Positive (id = 0)\n", + "INFO:tensorflow:label: Positive (id = 0)\n", + "2020-03-11 12:10:03,035 : *** Example ***\n", + "INFO:tensorflow:*** Example ***\n", + "2020-03-11 12:10:03,039 : guid: None\n", + "INFO:tensorflow:guid: None\n", + "2020-03-11 12:10:03,041 : tokens: [CLS] س+ نبق ##ى نذكر دول +ه ال+ شهيد و+ صف +ي ال+ تل الذي كان رييس +ا ل+ ال+ وزراء حبيب +ا ل+ ال+ فقراء [SEP]\n", + "INFO:tensorflow:tokens: [CLS] س+ نبق ##ى نذكر دول +ه ال+ شهيد و+ صف +ي ال+ تل الذي كان رييس +ا ل+ ال+ وزراء حبيب +ا ل+ ال+ فقراء [SEP]\n", + "2020-03-11 12:10:03,044 : input_ids: 29756 635 6553 1006 22861 4274 129 3000 18347 897 683 130 3000 483 12691 5951 17335 124 816 3000 41130 15958 124 816 3000 37425 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_ids: 29756 635 6553 1006 22861 4274 129 3000 18347 897 683 130 3000 483 12691 5951 17335 124 816 3000 41130 15958 124 816 3000 37425 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,047 : input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,049 : segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,052 : label: Negative (id = 1)\n", + "INFO:tensorflow:label: Negative (id = 1)\n", + "2020-03-11 12:10:03,055 : *** Example ***\n", + "INFO:tensorflow:*** Example ***\n", + "2020-03-11 12:10:03,057 : guid: None\n", + "INFO:tensorflow:guid: None\n", + "2020-03-11 12:10:03,060 : tokens: [CLS] اول واحد ذكر ##نى ب+ صاحب اسم +ه قرد +ه [SEP]\n", + "INFO:tensorflow:tokens: [CLS] اول واحد ذكر ##نى ب+ صاحب اسم +ه قرد +ه [SEP]\n", + "2020-03-11 12:10:03,062 : input_ids: 29756 3051 23631 4309 8214 448 18446 2917 129 5820 129 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_ids: 29756 3051 23631 4309 8214 448 18446 2917 129 5820 129 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,065 : input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,067 : segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,070 : label: Negative (id = 1)\n", + "INFO:tensorflow:label: Negative (id = 1)\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "['Positive', 'Negative']\n" + ], + "name": "stdout" + }, + { + "output_type": "stream", + "text": [ + "2020-03-11 12:10:03,689 : Writing example 0 of 360\n", + "INFO:tensorflow:Writing example 0 of 360\n", + "2020-03-11 12:10:03,692 : *** Example ***\n", + "INFO:tensorflow:*** Example ***\n", + "2020-03-11 12:10:03,694 : guid: None\n", + "INFO:tensorflow:guid: None\n", + "2020-03-11 12:10:03,696 : tokens: [CLS] و+ الله حرام و+ الله موتو +ه ل+ شعب ال+ اردني من و ##ين بدن +ا نجيب ال+ كو من و ##ين يا الله ارحم ##و من في ال+ ارض يرحمك ##م من في ال+ سماء الله حرام [SEP]\n", + "INFO:tensorflow:tokens: [CLS] و+ الله حرام و+ الله موتو +ه ل+ شعب ال+ اردني من و ##ين بدن +ا نجيب ال+ كو من و ##ين يا الله ارحم ##و من في ال+ ارض يرحمك ##م من في ال+ سماء الله حرام [SEP]\n", + "2020-03-11 12:10:03,697 : input_ids: 29756 897 12695 16006 897 12695 22398 129 816 4928 3000 31462 857 117 8268 3106 124 22786 3000 813 857 117 8268 900 12695 12271 1005 857 781 3000 2889 41768 1002 857 781 3000 17867 12695 16006 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_ids: 29756 897 12695 16006 897 12695 22398 129 816 4928 3000 31462 857 117 8268 3106 124 22786 3000 813 857 117 8268 900 12695 12271 1005 857 781 3000 2889 41768 1002 857 781 3000 17867 12695 16006 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,699 : input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,701 : segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,703 : label: Negative (id = 1)\n", + "INFO:tensorflow:label: Negative (id = 1)\n", + "2020-03-11 12:10:03,705 : *** Example ***\n", + "INFO:tensorflow:*** Example ***\n", + "2020-03-11 12:10:03,707 : guid: None\n", + "INFO:tensorflow:guid: None\n", + "2020-03-11 12:10:03,708 : tokens: [CLS] صباح ك+ سعيد [SEP]\n", + "INFO:tensorflow:tokens: [CLS] صباح ك+ سعيد [SEP]\n", + "2020-03-11 12:10:03,710 : input_ids: 29756 18480 802 17782 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_ids: 29756 18480 802 17782 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,712 : input_mask: 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_mask: 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,714 : segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,715 : label: Positive (id = 0)\n", + "INFO:tensorflow:label: Positive (id = 0)\n", + "2020-03-11 12:10:03,717 : *** Example ***\n", + "INFO:tensorflow:*** Example ***\n", + "2020-03-11 12:10:03,719 : guid: None\n", + "INFO:tensorflow:guid: None\n", + "2020-03-11 12:10:03,720 : tokens: [CLS] شخصي +ه تافه [SEP]\n", + "INFO:tensorflow:tokens: [CLS] شخصي +ه تافه [SEP]\n", + "2020-03-11 12:10:03,722 : input_ids: 29756 18162 129 13632 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_ids: 29756 18162 129 13632 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,724 : input_mask: 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_mask: 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,726 : segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,727 : label: Negative (id = 1)\n", + "INFO:tensorflow:label: Negative (id = 1)\n", + "2020-03-11 12:10:03,730 : *** Example ***\n", + "INFO:tensorflow:*** Example ***\n", + "2020-03-11 12:10:03,731 : guid: None\n", + "INFO:tensorflow:guid: None\n", + "2020-03-11 12:10:03,733 : tokens: [CLS] ال+ حق مش على ل+ جن +ه ال+ تحكيم ال+ حق على ال+ اغب ##ي ##ه ال+ مشترك +ين [SEP]\n", + "INFO:tensorflow:tokens: [CLS] ال+ حق مش على ل+ جن +ه ال+ تحكيم ال+ حق على ال+ اغب ##ي ##ه ال+ مشترك +ين [SEP]\n", + "2020-03-11 12:10:03,734 : input_ids: 29756 3000 534 845 5467 816 514 129 3000 33337 3000 534 5467 3000 2964 1007 1004 3000 39431 1023 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_ids: 29756 3000 534 845 5467 816 514 129 3000 33337 3000 534 5467 3000 2964 1007 1004 3000 39431 1023 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,736 : input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,738 : segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,740 : label: Negative (id = 1)\n", + "INFO:tensorflow:label: Negative (id = 1)\n", + "2020-03-11 12:10:03,742 : *** Example ***\n", + "INFO:tensorflow:*** Example ***\n", + "2020-03-11 12:10:03,744 : guid: None\n", + "INFO:tensorflow:guid: None\n", + "2020-03-11 12:10:03,745 : tokens: [CLS] ل+ ما تكثر عليا ال+ التزام +ات يصير كل ال ##لي نفس +ي اس ##و +ي +ه استلق ##ي على ظهر ##ي و+ اس ##ولف ل+ ال+ سماء [SEP]\n", + "INFO:tensorflow:tokens: [CLS] ل+ ما تكثر عليا ال+ التزام +ات يصير كل ال ##لي نفس +ي اس ##و +ي +ه استلق ##ي على ظهر ##ي و+ اس ##ولف ل+ ال+ سماء [SEP]\n", + "2020-03-11 12:10:03,747 : input_ids: 29756 816 834 14878 19242 3000 47795 1012 24712 812 445 8175 6746 130 435 1005 130 129 31572 1007 5467 5317 1007 897 435 29487 816 3000 17867 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_ids: 29756 816 834 14878 19242 3000 47795 1012 24712 812 445 8175 6746 130 435 1005 130 129 31572 1007 5467 5317 1007 897 435 29487 816 3000 17867 29758 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,749 : input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:input_mask: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,751 : segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "INFO:tensorflow:segment_ids: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0\n", + "2020-03-11 12:10:03,752 : label: Negative (id = 1)\n", + "INFO:tensorflow:label: Negative (id = 1)\n" + ], + "name": "stderr" + } + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "KfDMcI2l95Y9", + "colab_type": "code", + "colab": { + "base_uri": "https://localhost:8080/", + "height": 428 + }, + "outputId": "27473eb6-3c72-4110-979b-9ab978a061d1" + }, + "source": [ + "num_train_steps = int(len(train_features) / TRAIN_BATCH_SIZE * NUM_TRAIN_EPOCHS)\n", + "num_warmup_steps = int(num_train_steps * WARMUP_PROPORTION)\n", + "num_steps_per_epoch = int(len(train_features) / TRAIN_BATCH_SIZE)\n", + "\n", + "print(\"num train steps: {}\".format(num_train_steps))\n", + "print(\"num warmup steps: {}\".format(num_warmup_steps))\n", + "print(\"num_steps_per_epoch: {}\".format(num_steps_per_epoch))\n", + "\n", + "model_fn = model_fn_builder(\n", + " bert_config=modeling.BertConfig.from_json_file(CONFIG_FILE),\n", + " num_labels=2,\n", + " init_checkpoint=INIT_CHECKPOINT,\n", + " learning_rate=LEARNING_RATE,\n", + " num_train_steps=num_train_steps,\n", + " num_warmup_steps=num_warmup_steps,\n", + " use_tpu=USE_TPU,\n", + " use_one_hot_embeddings=USE_TPU\n", + ")\n", + "\n", + "tpu_cluster_resolver = None\n", + "if USE_TPU:\n", + " tpu_cluster_resolver = tf.contrib.cluster_resolver.TPUClusterResolver(TPU_ADDRESS)\n", + "\n", + "run_config = tf.contrib.tpu.RunConfig(\n", + " cluster=tpu_cluster_resolver,\n", + " model_dir=OUTPUT_DIR_PER_MODEL,\n", + " save_checkpoints_steps=num_steps_per_epoch,\n", + " keep_checkpoint_max=0,\n", + " tpu_config=tf.contrib.tpu.TPUConfig(\n", + " iterations_per_loop=num_steps_per_epoch,\n", + " num_shards=NUM_TPU_CORES,\n", + " per_host_input_for_training=tf.contrib.tpu.InputPipelineConfig.PER_HOST_V2))\n", + "\n", + "estimator = tf.contrib.tpu.TPUEstimator(\n", + " use_tpu=USE_TPU,\n", + " model_fn=model_fn,\n", + " config=run_config,\n", + " train_batch_size=TRAIN_BATCH_SIZE,\n", + " eval_batch_size=EVAL_BATCH_SIZE,\n", + " predict_batch_size=PREDICT_BATCH_SIZE)\n", + " \n", + "train_input_fn = input_fn_builder(\n", + " features=train_features,\n", + " seq_length=MAX_SEQ_LENGTH,\n", + " is_training=True,\n", + " drop_remainder=True)\n", + "\n", + "test_input_fn = input_fn_builder(\n", + " features=test_features,\n", + " seq_length=MAX_SEQ_LENGTH,\n", + " is_training=False,\n", + " drop_remainder=True)" + ], + "execution_count": 34, + "outputs": [ + { + "output_type": "stream", + "text": [ + "2020-03-11 12:10:40,673 : Estimator's model_fn (.model_fn at 0x7f040e78d620>) includes params argument, but params are not passed to Estimator.\n", + "WARNING:tensorflow:Estimator's model_fn (.model_fn at 0x7f040e78d620>) includes params argument, but params are not passed to Estimator.\n", + "2020-03-11 12:10:40,683 : Using config: {'_model_dir': './finetuned_model', '_tf_random_seed': None, '_save_summary_steps': 100, '_save_checkpoints_steps': 45, '_save_checkpoints_secs': None, '_session_config': allow_soft_placement: true\n", + "graph_options {\n", + " rewrite_options {\n", + " meta_optimizer_iterations: ONE\n", + " }\n", + "}\n", + ", '_keep_checkpoint_max': 0, '_keep_checkpoint_every_n_hours': 10000, '_log_step_count_steps': None, '_train_distribute': None, '_device_fn': None, '_protocol': None, '_eval_distribute': None, '_experimental_distribute': None, '_experimental_max_worker_delay_secs': None, '_session_creation_timeout_secs': 7200, '_service': None, '_cluster_spec': , '_task_type': 'worker', '_task_id': 0, '_global_id_in_cluster': 0, '_master': '', '_evaluation_master': '', '_is_chief': True, '_num_ps_replicas': 0, '_num_worker_replicas': 1, '_tpu_config': TPUConfig(iterations_per_loop=45, num_shards=8, num_cores_per_replica=None, per_host_input_for_training=3, tpu_job_name=None, initial_infeed_sleep_secs=None, input_partition_dims=None, eval_training_input_configuration=2, experimental_host_call_every_n_steps=1), '_cluster': None}\n", + "INFO:tensorflow:Using config: {'_model_dir': './finetuned_model', '_tf_random_seed': None, '_save_summary_steps': 100, '_save_checkpoints_steps': 45, '_save_checkpoints_secs': None, '_session_config': allow_soft_placement: true\n", + "graph_options {\n", + " rewrite_options {\n", + " meta_optimizer_iterations: ONE\n", + " }\n", + "}\n", + ", '_keep_checkpoint_max': 0, '_keep_checkpoint_every_n_hours': 10000, '_log_step_count_steps': None, '_train_distribute': None, '_device_fn': None, '_protocol': None, '_eval_distribute': None, '_experimental_distribute': None, '_experimental_max_worker_delay_secs': None, '_session_creation_timeout_secs': 7200, '_service': None, '_cluster_spec': , '_task_type': 'worker', '_task_id': 0, '_global_id_in_cluster': 0, '_master': '', '_evaluation_master': '', '_is_chief': True, '_num_ps_replicas': 0, '_num_worker_replicas': 1, '_tpu_config': TPUConfig(iterations_per_loop=45, num_shards=8, num_cores_per_replica=None, per_host_input_for_training=3, tpu_job_name=None, initial_infeed_sleep_secs=None, input_partition_dims=None, eval_training_input_configuration=2, experimental_host_call_every_n_steps=1), '_cluster': None}\n", + "2020-03-11 12:10:40,687 : _TPUContext: eval_on_tpu True\n", + "INFO:tensorflow:_TPUContext: eval_on_tpu True\n", + "2020-03-11 12:10:40,690 : eval_on_tpu ignored because use_tpu is False.\n", + "WARNING:tensorflow:eval_on_tpu ignored because use_tpu is False.\n" + ], + "name": "stderr" + }, + { + "output_type": "stream", + "text": [ + "num train steps: 270\n", + "num warmup steps: 27\n", + "num_steps_per_epoch: 45\n" + ], + "name": "stdout" + } + ] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "EaIt17wo-8dU", + "colab_type": "text" + }, + "source": [ + "##Train the model" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "yFAHCPW--tdY", + "colab_type": "code", + "colab": {} + }, + "source": [ + "print(f'Beginning Training!')\n", + "estimator.train(input_fn=train_input_fn, max_steps=num_train_steps)" + ], + "execution_count": 0, + "outputs": [] + }, + { + "cell_type": "markdown", + "metadata": { + "id": "_GqBb9JI--pg", + "colab_type": "text" + }, + "source": [ + "##Evaluate the model on all saved checkpoint files" + ] + }, + { + "cell_type": "code", + "metadata": { + "id": "YE2vyARj-2jH", + "colab_type": "code", + "colab": {} + }, + "source": [ + "print(f'Beginning Evaluation!')\n", + "eval_model_files = tf.gfile.Glob(os.path.join(OUTPUT_DIR_PER_MODEL,'*index'))\n", + "\n", + "for eval_checkpoint in tqdm(sorted(eval_model_files,key=lambda x: int(x[0:-6].split('-')[-1]))):\n", + " result = estimator.evaluate(input_fn=test_input_fn, steps=int(len(test_features)/EVAL_BATCH_SIZE),checkpoint_path=eval_checkpoint[0:-6])\n", + " tf.logging.info(\"***** Eval results *****\")\n", + " for key in sorted(result.keys()):\n", + " tf.logging.info(\" %s = %s\", key, str(result[key]))" + ], + "execution_count": 0, + "outputs": [] + } + ] +} diff --git a/arabert/examples/question-answering/run_qa.py b/arabert/examples/question-answering/run_qa.py new file mode 100644 index 0000000000000000000000000000000000000000..0beacfa8c88fdd86ba04fa02eb55899de01e5184 --- /dev/null +++ b/arabert/examples/question-answering/run_qa.py @@ -0,0 +1,546 @@ +#!/usr/bin/env python +# coding=utf-8 +# Copyright 2020 The HuggingFace Team All rights reserved. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +""" +Fine-tuning the library models for question answering. +""" +# You can also adapt this script on your own question answering task. Pointers for this are left as comments. + +import logging +import os +import sys +from dataclasses import dataclass, field +from typing import Optional + +from datasets import load_dataset, load_metric + +import transformers +from trainer_qa import QuestionAnsweringTrainer +from transformers import ( + AutoConfig, + AutoModelForQuestionAnswering, + AutoTokenizer, + DataCollatorWithPadding, + EvalPrediction, + HfArgumentParser, + PreTrainedTokenizerFast, + TrainingArguments, + default_data_collator, + set_seed, +) +from transformers.trainer_utils import get_last_checkpoint, is_main_process +from utils_qa import postprocess_qa_predictions + + +logger = logging.getLogger(__name__) + + +@dataclass +class ModelArguments: + """ + Arguments pertaining to which model/config/tokenizer we are going to fine-tune from. + """ + + model_name_or_path: str = field( + metadata={"help": "Path to pretrained model or model identifier from huggingface.co/models"} + ) + config_name: Optional[str] = field( + default=None, metadata={"help": "Pretrained config name or path if not the same as model_name"} + ) + tokenizer_name: Optional[str] = field( + default=None, metadata={"help": "Pretrained tokenizer name or path if not the same as model_name"} + ) + cache_dir: Optional[str] = field( + default=None, + metadata={"help": "Path to directory to store the pretrained models downloaded from huggingface.co"}, + ) + model_revision: str = field( + default="main", + metadata={"help": "The specific model version to use (can be a branch name, tag name or commit id)."}, + ) + use_auth_token: bool = field( + default=False, + metadata={ + "help": "Will use the token generated when running `transformers-cli login` (necessary to use this script " + "with private models)." + }, + ) + + +@dataclass +class DataTrainingArguments: + """ + Arguments pertaining to what data we are going to input our model for training and eval. + """ + + dataset_name: Optional[str] = field( + default=None, metadata={"help": "The name of the dataset to use (via the datasets library)."} + ) + dataset_config_name: Optional[str] = field( + default=None, metadata={"help": "The configuration name of the dataset to use (via the datasets library)."} + ) + train_file: Optional[str] = field(default=None, metadata={"help": "The input training data file (a text file)."}) + validation_file: Optional[str] = field( + default=None, + metadata={"help": "An optional input evaluation data file to evaluate the perplexity on (a text file)."}, + ) + overwrite_cache: bool = field( + default=False, metadata={"help": "Overwrite the cached training and evaluation sets"} + ) + preprocessing_num_workers: Optional[int] = field( + default=None, + metadata={"help": "The number of processes to use for the preprocessing."}, + ) + max_seq_length: int = field( + default=384, + metadata={ + "help": "The maximum total input sequence length after tokenization. Sequences longer " + "than this will be truncated, sequences shorter will be padded." + }, + ) + pad_to_max_length: bool = field( + default=True, + metadata={ + "help": "Whether to pad all samples to `max_seq_length`. " + "If False, will pad the samples dynamically when batching to the maximum length in the batch (which can " + "be faster on GPU but will be slower on TPU)." + }, + ) + max_train_samples: Optional[int] = field( + default=None, + metadata={ + "help": "For debugging purposes or quicker training, truncate the number of training examples to this " + "value if set." + }, + ) + max_val_samples: Optional[int] = field( + default=None, + metadata={ + "help": "For debugging purposes or quicker training, truncate the number of validation examples to this " + "value if set." + }, + ) + version_2_with_negative: bool = field( + default=False, metadata={"help": "If true, some of the examples do not have an answer."} + ) + null_score_diff_threshold: float = field( + default=0.0, + metadata={ + "help": "The threshold used to select the null answer: if the best answer has a score that is less than " + "the score of the null answer minus this threshold, the null answer is selected for this example. " + "Only useful when `version_2_with_negative=True`." + }, + ) + doc_stride: int = field( + default=128, + metadata={"help": "When splitting up a long document into chunks, how much stride to take between chunks."}, + ) + n_best_size: int = field( + default=20, + metadata={"help": "The total number of n-best predictions to generate when looking for an answer."}, + ) + max_answer_length: int = field( + default=30, + metadata={ + "help": "The maximum length of an answer that can be generated. This is needed because the start " + "and end predictions are not conditioned on one another." + }, + ) + + def __post_init__(self): + if self.dataset_name is None and self.train_file is None and self.validation_file is None: + raise ValueError("Need either a dataset name or a training/validation file.") + else: + if self.train_file is not None: + extension = self.train_file.split(".")[-1] + assert extension in ["csv", "json"], "`train_file` should be a csv or a json file." + if self.validation_file is not None: + extension = self.validation_file.split(".")[-1] + assert extension in ["csv", "json"], "`validation_file` should be a csv or a json file." + + +def main(): + # See all possible arguments in src/transformers/training_args.py + # or by passing the --help flag to this script. + # We now keep distinct sets of args, for a cleaner separation of concerns. + + parser = HfArgumentParser((ModelArguments, DataTrainingArguments, TrainingArguments)) + if len(sys.argv) == 2 and sys.argv[1].endswith(".json"): + # If we pass only one argument to the script and it's the path to a json file, + # let's parse it to get our arguments. + model_args, data_args, training_args = parser.parse_json_file(json_file=os.path.abspath(sys.argv[1])) + else: + model_args, data_args, training_args = parser.parse_args_into_dataclasses() + + # Detecting last checkpoint. + last_checkpoint = None + if os.path.isdir(training_args.output_dir) and training_args.do_train and not training_args.overwrite_output_dir: + last_checkpoint = get_last_checkpoint(training_args.output_dir) + if last_checkpoint is None and len(os.listdir(training_args.output_dir)) > 0: + raise ValueError( + f"Output directory ({training_args.output_dir}) already exists and is not empty. " + "Use --overwrite_output_dir to overcome." + ) + elif last_checkpoint is not None: + logger.info( + f"Checkpoint detected, resuming training at {last_checkpoint}. To avoid this behavior, change " + "the `--output_dir` or add `--overwrite_output_dir` to train from scratch." + ) + + # Setup logging + logging.basicConfig( + format="%(asctime)s - %(levelname)s - %(name)s - %(message)s", + datefmt="%m/%d/%Y %H:%M:%S", + handlers=[logging.StreamHandler(sys.stdout)], + ) + logger.setLevel(logging.INFO if is_main_process(training_args.local_rank) else logging.WARN) + + # Log on each process the small summary: + logger.warning( + f"Process rank: {training_args.local_rank}, device: {training_args.device}, n_gpu: {training_args.n_gpu}" + + f"distributed training: {bool(training_args.local_rank != -1)}, 16-bits training: {training_args.fp16}" + ) + # Set the verbosity to info of the Transformers logger (on main process only): + if is_main_process(training_args.local_rank): + transformers.utils.logging.set_verbosity_info() + transformers.utils.logging.enable_default_handler() + transformers.utils.logging.enable_explicit_format() + logger.info("Training/evaluation parameters %s", training_args) + + # Set seed before initializing model. + set_seed(training_args.seed) + + # Get the datasets: you can either provide your own CSV/JSON/TXT training and evaluation files (see below) + # or just provide the name of one of the public datasets available on the hub at https://huggingface.co/datasets/ + # (the dataset will be downloaded automatically from the datasets Hub). + # + # For CSV/JSON files, this script will use the column called 'text' or the first column if no column called + # 'text' is found. You can easily tweak this behavior (see below). + # + # In distributed training, the load_dataset function guarantee that only one local process can concurrently + # download the dataset. + if data_args.dataset_name is not None: + # Downloading and loading a dataset from the hub. + datasets = load_dataset(data_args.dataset_name, data_args.dataset_config_name) + else: + data_files = {} + if data_args.train_file is not None: + data_files["train"] = data_args.train_file + if data_args.validation_file is not None: + data_files["validation"] = data_args.validation_file + extension = data_args.train_file.split(".")[-1] + datasets = load_dataset(extension, data_files=data_files, field="data") + # See more about loading any type of standard or custom dataset (from files, python dict, pandas DataFrame, etc) at + # https://huggingface.co/docs/datasets/loading_datasets.html. + + # Load pretrained model and tokenizer + # + # Distributed training: + # The .from_pretrained methods guarantee that only one local process can concurrently + # download model & vocab. + config = AutoConfig.from_pretrained( + model_args.config_name if model_args.config_name else model_args.model_name_or_path, + cache_dir=model_args.cache_dir, + revision=model_args.model_revision, + use_auth_token=True if model_args.use_auth_token else None, + ) + tokenizer = AutoTokenizer.from_pretrained( + model_args.tokenizer_name if model_args.tokenizer_name else model_args.model_name_or_path, + cache_dir=model_args.cache_dir, + use_fast=True, + revision=model_args.model_revision, + use_auth_token=True if model_args.use_auth_token else None, + ) + model = AutoModelForQuestionAnswering.from_pretrained( + model_args.model_name_or_path, + from_tf=bool(".ckpt" in model_args.model_name_or_path), + config=config, + cache_dir=model_args.cache_dir, + revision=model_args.model_revision, + use_auth_token=True if model_args.use_auth_token else None, + ) + + # Tokenizer check: this script requires a fast tokenizer. + if not isinstance(tokenizer, PreTrainedTokenizerFast): + raise ValueError( + "This example script only works for models that have a fast tokenizer. Checkout the big table of models " + "at https://huggingface.co/transformers/index.html#bigtable to find the model types that meet this " + "requirement" + ) + + # Preprocessing the datasets. + # Preprocessing is slighlty different for training and evaluation. + if training_args.do_train: + column_names = datasets["train"].column_names + else: + column_names = datasets["validation"].column_names + question_column_name = "question" if "question" in column_names else column_names[0] + context_column_name = "context" if "context" in column_names else column_names[1] + answer_column_name = "answers" if "answers" in column_names else column_names[2] + + # Padding side determines if we do (question|context) or (context|question). + pad_on_right = tokenizer.padding_side == "right" + + if data_args.max_seq_length > tokenizer.model_max_length: + logger.warn( + f"The max_seq_length passed ({data_args.max_seq_length}) is larger than the maximum length for the" + f"model ({tokenizer.model_max_length}). Using max_seq_length={tokenizer.model_max_length}." + ) + max_seq_length = min(data_args.max_seq_length, tokenizer.model_max_length) + + # Training preprocessing + def prepare_train_features(examples): + # Tokenize our examples with truncation and maybe padding, but keep the overflows using a stride. This results + # in one example possible giving several features when a context is long, each of those features having a + # context that overlaps a bit the context of the previous feature. + tokenized_examples = tokenizer( + examples[question_column_name if pad_on_right else context_column_name], + examples[context_column_name if pad_on_right else question_column_name], + truncation="only_second" if pad_on_right else "only_first", + max_length=max_seq_length, + stride=data_args.doc_stride, + return_overflowing_tokens=True, + return_offsets_mapping=True, + padding="max_length" if data_args.pad_to_max_length else False, + ) + + # Since one example might give us several features if it has a long context, we need a map from a feature to + # its corresponding example. This key gives us just that. + sample_mapping = tokenized_examples.pop("overflow_to_sample_mapping") + # The offset mappings will give us a map from token to character position in the original context. This will + # help us compute the start_positions and end_positions. + offset_mapping = tokenized_examples.pop("offset_mapping") + + # Let's label those examples! + tokenized_examples["start_positions"] = [] + tokenized_examples["end_positions"] = [] + + for i, offsets in enumerate(offset_mapping): + # We will label impossible answers with the index of the CLS token. + input_ids = tokenized_examples["input_ids"][i] + cls_index = input_ids.index(tokenizer.cls_token_id) + + # Grab the sequence corresponding to that example (to know what is the context and what is the question). + sequence_ids = tokenized_examples.sequence_ids(i) + + # One example can give several spans, this is the index of the example containing this span of text. + sample_index = sample_mapping[i] + answers = examples[answer_column_name][sample_index] + # If no answers are given, set the cls_index as answer. + if len(answers["answer_start"]) == 0: + tokenized_examples["start_positions"].append(cls_index) + tokenized_examples["end_positions"].append(cls_index) + else: + # Start/end character index of the answer in the text. + start_char = answers["answer_start"][0] + end_char = start_char + len(answers["text"][0]) + + # Start token index of the current span in the text. + token_start_index = 0 + while sequence_ids[token_start_index] != (1 if pad_on_right else 0): + token_start_index += 1 + + # End token index of the current span in the text. + token_end_index = len(input_ids) - 1 + while sequence_ids[token_end_index] != (1 if pad_on_right else 0): + token_end_index -= 1 + + # Detect if the answer is out of the span (in which case this feature is labeled with the CLS index). + if not (offsets[token_start_index][0] <= start_char and offsets[token_end_index][1] >= end_char): + tokenized_examples["start_positions"].append(cls_index) + tokenized_examples["end_positions"].append(cls_index) + else: + # Otherwise move the token_start_index and token_end_index to the two ends of the answer. + # Note: we could go after the last offset if the answer is the last word (edge case). + while token_start_index < len(offsets) and offsets[token_start_index][0] <= start_char: + token_start_index += 1 + tokenized_examples["start_positions"].append(token_start_index - 1) + while offsets[token_end_index][1] >= end_char: + token_end_index -= 1 + tokenized_examples["end_positions"].append(token_end_index + 1) + + return tokenized_examples + + if training_args.do_train: + if "train" not in datasets: + raise ValueError("--do_train requires a train dataset") + train_dataset = datasets["train"] + if data_args.max_train_samples is not None: + # We will select sample from whole data if agument is specified + train_dataset = train_dataset.select(range(data_args.max_train_samples)) + # Create train feature from dataset + train_dataset = train_dataset.map( + prepare_train_features, + batched=True, + num_proc=data_args.preprocessing_num_workers, + remove_columns=column_names, + load_from_cache_file=not data_args.overwrite_cache, + ) + if data_args.max_train_samples is not None: + # Number of samples might increase during Feature Creation, We select only specified max samples + train_dataset = train_dataset.select(range(data_args.max_train_samples)) + + # Validation preprocessing + def prepare_validation_features(examples): + # Tokenize our examples with truncation and maybe padding, but keep the overflows using a stride. This results + # in one example possible giving several features when a context is long, each of those features having a + # context that overlaps a bit the context of the previous feature. + tokenized_examples = tokenizer( + examples[question_column_name if pad_on_right else context_column_name], + examples[context_column_name if pad_on_right else question_column_name], + truncation="only_second" if pad_on_right else "only_first", + max_length=max_seq_length, + stride=data_args.doc_stride, + return_overflowing_tokens=True, + return_offsets_mapping=True, + padding="max_length" if data_args.pad_to_max_length else False, + ) + + # Since one example might give us several features if it has a long context, we need a map from a feature to + # its corresponding example. This key gives us just that. + sample_mapping = tokenized_examples.pop("overflow_to_sample_mapping") + + # For evaluation, we will need to convert our predictions to substrings of the context, so we keep the + # corresponding example_id and we will store the offset mappings. + tokenized_examples["example_id"] = [] + + for i in range(len(tokenized_examples["input_ids"])): + # Grab the sequence corresponding to that example (to know what is the context and what is the question). + sequence_ids = tokenized_examples.sequence_ids(i) + context_index = 1 if pad_on_right else 0 + + # One example can give several spans, this is the index of the example containing this span of text. + sample_index = sample_mapping[i] + tokenized_examples["example_id"].append(examples["id"][sample_index]) + + # Set to None the offset_mapping that are not part of the context so it's easy to determine if a token + # position is part of the context or not. + tokenized_examples["offset_mapping"][i] = [ + (o if sequence_ids[k] == context_index else None) + for k, o in enumerate(tokenized_examples["offset_mapping"][i]) + ] + + return tokenized_examples + + if training_args.do_eval: + if "validation" not in datasets: + raise ValueError("--do_eval requires a validation dataset") + eval_dataset = datasets["validation"] + if data_args.max_val_samples is not None: + # We will select sample from whole data + eval_dataset = eval_dataset.select(range(data_args.max_val_samples)) + # Validation Feature Creation + eval_dataset = eval_dataset.map( + prepare_validation_features, + batched=True, + num_proc=data_args.preprocessing_num_workers, + remove_columns=column_names, + load_from_cache_file=not data_args.overwrite_cache, + ) + if data_args.max_val_samples is not None: + # During Feature creation dataset samples might increase, we will select required samples again + eval_dataset = eval_dataset.select(range(data_args.max_val_samples)) + + # Data collator + # We have already padded to max length if the corresponding flag is True, otherwise we need to pad in the data + # collator. + data_collator = ( + default_data_collator + if data_args.pad_to_max_length + else DataCollatorWithPadding(tokenizer, pad_to_multiple_of=8 if training_args.fp16 else None) + ) + + # Post-processing: + def post_processing_function(examples, features, predictions): + # Post-processing: we match the start logits and end logits to answers in the original context. + predictions = postprocess_qa_predictions( + examples=examples, + features=features, + predictions=predictions, + version_2_with_negative=data_args.version_2_with_negative, + n_best_size=data_args.n_best_size, + max_answer_length=data_args.max_answer_length, + null_score_diff_threshold=data_args.null_score_diff_threshold, + output_dir=training_args.output_dir, + is_world_process_zero=trainer.is_world_process_zero(), + ) + # Format the result to the format the metric expects. + if data_args.version_2_with_negative: + formatted_predictions = [ + {"id": k, "prediction_text": v, "no_answer_probability": 0.0} for k, v in predictions.items() + ] + else: + formatted_predictions = [{"id": k, "prediction_text": v} for k, v in predictions.items()] + references = [{"id": ex["id"], "answers": ex[answer_column_name]} for ex in datasets["validation"]] + return EvalPrediction(predictions=formatted_predictions, label_ids=references) + + metric = load_metric("squad_v2" if data_args.version_2_with_negative else "squad") + + def compute_metrics(p: EvalPrediction): + return metric.compute(predictions=p.predictions, references=p.label_ids) + + # Initialize our Trainer + trainer = QuestionAnsweringTrainer( + model=model, + args=training_args, + train_dataset=train_dataset if training_args.do_train else None, + eval_dataset=eval_dataset if training_args.do_eval else None, + eval_examples=datasets["validation"] if training_args.do_eval else None, + tokenizer=tokenizer, + data_collator=data_collator, + post_process_function=post_processing_function, + compute_metrics=compute_metrics, + ) + + # Training + if training_args.do_train: + if last_checkpoint is not None: + checkpoint = last_checkpoint + elif os.path.isdir(model_args.model_name_or_path): + checkpoint = model_args.model_name_or_path + else: + checkpoint = None + train_result = trainer.train(resume_from_checkpoint=checkpoint) + trainer.save_model() # Saves the tokenizer too for easy upload + + metrics = train_result.metrics + max_train_samples = ( + data_args.max_train_samples if data_args.max_train_samples is not None else len(train_dataset) + ) + metrics["train_samples"] = min(max_train_samples, len(train_dataset)) + + trainer.log_metrics("train", metrics) + trainer.save_metrics("train", metrics) + trainer.save_state() + + # Evaluation + if training_args.do_eval: + logger.info("*** Evaluate ***") + metrics = trainer.evaluate() + + max_val_samples = data_args.max_val_samples if data_args.max_val_samples is not None else len(eval_dataset) + metrics["eval_samples"] = min(max_val_samples, len(eval_dataset)) + + trainer.log_metrics("eval", metrics) + trainer.save_metrics("eval", metrics) + + +def _mp_fn(index): + # For xla_spawn (TPUs) + main() + + +if __name__ == "__main__": + main() diff --git a/arabert/examples/question-answering/squad_preprocessing.py b/arabert/examples/question-answering/squad_preprocessing.py new file mode 100644 index 0000000000000000000000000000000000000000..f4bcda23c34704cff467f6c72e385d9e9d496344 --- /dev/null +++ b/arabert/examples/question-answering/squad_preprocessing.py @@ -0,0 +1,174 @@ +# coding=utf-8 +# +# This script applies AraBERT's cleaning process and segmentation to ARCD or +# any SQUAD-like structured files and "naively" re-alligns the answers start positions + +import sys + +sys.path.append("..") + +import tensorflow.compat.v1 as tf + +import json + +from fuzzysearch import find_near_matches +from pyarabic import araby +from tqdm import tqdm + +from arabert.arabert.tokenization import BasicTokenizer +from arabert.preprocess import ArabertPreprocessor + +flags = tf.flags +FLAGS = flags.FLAGS + + +## Required parameters +flags.DEFINE_string( + "input_file", None, "The input json file with a SQUAD like structure." +) + +flags.DEFINE_string( + "output_file", None, "The ouput json file with AraBERT preprocessing applied." +) + +flags.DEFINE_string("model_name", None, "Model name same as HuggingFace library") + +flags.DEFINE_bool( + "filter_tydiqa", + False, + "If the input dataset is tydiqa, then only process arabic examples", +) + + +bt = BasicTokenizer(do_lower_case=False) + + +def clean_preprocess(text, processor): + text = " ".join(bt._run_split_on_punc(text)) + text = processor.preprocess(text) + text = " ".join(text.split()) # removes extra whitespaces + return text + + +def get_start_pos(old_context, old_answer_start, processor): + new_context = clean_preprocess(old_context[:old_answer_start], processor) + num_of_pluses = new_context.count("+") + return old_answer_start + num_of_pluses * 2 - 20 + + +def main(_): + tf.logging.set_verbosity(tf.logging.INFO) + logger = tf.get_logger() + logger.propagate = False + + print(FLAGS.model_name) + arabert_prep = ArabertPreprocessor( + model_name=FLAGS.model_name, remove_html_markup=False + ) + + with tf.gfile.Open(FLAGS.input_file, "r") as reader: + input_data = json.load(reader)["data"] + + new_answers_count = 0 + no_answers_found_count = 0 + trunc_ans_count = 0 + for entry in tqdm(input_data): + for paragraph in entry["paragraphs"]: + + if FLAGS.filter_tydiqa: + # this will only apply farasa segmentation to Arabic Data + if "arabic" not in paragraph["qas"][0]["id"]: + continue + old_context = paragraph["context"] + paragraph["context"] = clean_preprocess(paragraph["context"], arabert_prep) + for qas in paragraph["qas"]: + qas["question"] = clean_preprocess(qas["question"], arabert_prep) + + for i in range(len(qas["answers"])): + temp_text = clean_preprocess( + qas["answers"][i]["text"], arabert_prep + ) + + if temp_text == "": + temp_text = qas["answers"][i]["text"] + + answer_location = paragraph["context"].find(temp_text) + if answer_location == -1: + + search_start_pos = get_start_pos( + old_context, qas["answers"][i]["answer_start"], arabert_prep + ) + search_end_pos = min( + len(paragraph["context"]), + search_start_pos + len(temp_text) + 20, + ) + answer_match = find_near_matches( + temp_text, + paragraph["context"][search_start_pos:search_end_pos], + max_l_dist=min(10, len(temp_text) // 2), + ) + if len(answer_match) > 0: + tf.logging.warning( + "Found new answer for question '%s' :\n '%s' \nvs old.\n '%s'\norig:\n'%s'\ncontext:\n'%s'\n==================", + qas["id"], + answer_match[i].matched, + temp_text, + qas["answers"][i]["text"], + paragraph["context"], + ) + temp_text = answer_match[i].matched + qas["answers"][i]["answer_start"] = answer_match[i].start + new_answers_count += 1 + + else: + tf.logging.warning( + "Could not find answer for question '%s' :\n '%s' \nvs.\n '%s'\norig answer:\n '%s'\n==================", + qas["id"], + paragraph["context"], + temp_text, + qas["answers"][i]["text"], + ) + qas["answers"][i]["answer_start"] = -1 + no_answers_found_count += 1 + else: + qas["answers"][i]["answer_start"] = answer_location + + if len(temp_text) + qas["answers"][i]["answer_start"] < ( + len(paragraph["context"]) + 1 + ): + qas["answers"][i]["text"] = temp_text + else: + tf.logging.warning( + "answer truncated for question '%s' :\n context:\n'%s' \nanswer:\n '%s'\n orig_answer:\n'%s'\nanswer start: %d\nlength of answer: %d\nlength of paragraph: %d\n=================================", + qas["id"], + paragraph["context"], + temp_text, + qas["answers"][i]["text"], + qas["answers"][0]["answer_start"], + len(temp_text), + len(paragraph["context"]), + ) + qas["answers"][0]["text"] = temp_text[ + 0 : len(paragraph["context"]) + - (len(temp_text) + qas["answers"][0]["answer_start"]) + ] + trunc_ans_count += 1 + + tf.logging.warning("Found %d new answers: ", new_answers_count) + tf.logging.warning("Found %d with no answers: ", no_answers_found_count) + tf.logging.warning("Found %d with trunc answers: ", trunc_ans_count) + + input_data = { + "data": input_data, + "version": "1.1", + "preprocess": "True", + } + with tf.gfile.Open(FLAGS.output_file, "w") as writer: + json.dump(input_data, writer) + + +if __name__ == "__main__": + flags.mark_flag_as_required("input_file") + flags.mark_flag_as_required("output_file") + flags.mark_flag_as_required("model_name") + tf.app.run() diff --git a/arabert/examples/question-answering/trainer_qa.py b/arabert/examples/question-answering/trainer_qa.py new file mode 100644 index 0000000000000000000000000000000000000000..04c8a976c7f149a64d0a2791f8739fe61536a9b2 --- /dev/null +++ b/arabert/examples/question-answering/trainer_qa.py @@ -0,0 +1,104 @@ +# coding=utf-8 +# Copyright 2020 The HuggingFace Team All rights reserved. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +""" +A subclass of `Trainer` specific to Question-Answering tasks +""" + +from transformers import Trainer, is_datasets_available, is_torch_tpu_available +from transformers.trainer_utils import PredictionOutput + + +if is_datasets_available(): + import datasets + +if is_torch_tpu_available(): + import torch_xla.core.xla_model as xm + import torch_xla.debug.metrics as met + + +class QuestionAnsweringTrainer(Trainer): + def __init__(self, *args, eval_examples=None, post_process_function=None, **kwargs): + super().__init__(*args, **kwargs) + self.eval_examples = eval_examples + self.post_process_function = post_process_function + + def evaluate(self, eval_dataset=None, eval_examples=None, ignore_keys=None): + eval_dataset = self.eval_dataset if eval_dataset is None else eval_dataset + eval_dataloader = self.get_eval_dataloader(eval_dataset) + eval_examples = self.eval_examples if eval_examples is None else eval_examples + + # Temporarily disable metric computation, we will do it in the loop here. + compute_metrics = self.compute_metrics + self.compute_metrics = None + try: + output = self.prediction_loop( + eval_dataloader, + description="Evaluation", + # No point gathering the predictions if there are no metrics, otherwise we defer to + # self.args.prediction_loss_only + prediction_loss_only=True if compute_metrics is None else None, + ignore_keys=ignore_keys, + ) + finally: + self.compute_metrics = compute_metrics + + # We might have removed columns from the dataset so we put them back. + if isinstance(eval_dataset, datasets.Dataset): + eval_dataset.set_format(type=eval_dataset.format["type"], columns=list(eval_dataset.features.keys())) + + if self.post_process_function is not None and self.compute_metrics is not None: + eval_preds = self.post_process_function(eval_examples, eval_dataset, output.predictions) + metrics = self.compute_metrics(eval_preds) + + self.log(metrics) + else: + metrics = {} + + if self.args.tpu_metrics_debug or self.args.debug: + # tpu-comment: Logging debug metrics for PyTorch/XLA (compile, execute times, ops, etc.) + xm.master_print(met.metrics_report()) + + self.control = self.callback_handler.on_evaluate(self.args, self.state, self.control, metrics) + return metrics + + def predict(self, test_dataset, test_examples, ignore_keys=None): + test_dataloader = self.get_test_dataloader(test_dataset) + + # Temporarily disable metric computation, we will do it in the loop here. + compute_metrics = self.compute_metrics + self.compute_metrics = None + try: + output = self.prediction_loop( + test_dataloader, + description="Evaluation", + # No point gathering the predictions if there are no metrics, otherwise we defer to + # self.args.prediction_loss_only + prediction_loss_only=True if compute_metrics is None else None, + ignore_keys=ignore_keys, + ) + finally: + self.compute_metrics = compute_metrics + + if self.post_process_function is None or self.compute_metrics is None: + return output + + # We might have removed columns from the dataset so we put them back. + if isinstance(test_dataset, datasets.Dataset): + test_dataset.set_format(type=test_dataset.format["type"], columns=list(test_dataset.features.keys())) + + eval_preds = self.post_process_function(test_examples, test_dataset, output.predictions) + metrics = self.compute_metrics(eval_preds) + + return PredictionOutput(predictions=eval_preds.predictions, label_ids=eval_preds.label_ids, metrics=metrics) diff --git a/arabert/examples/question-answering/utils_qa.py b/arabert/examples/question-answering/utils_qa.py new file mode 100644 index 0000000000000000000000000000000000000000..aad5deccf94a7e55c46687f3e7c193a67ea84c93 --- /dev/null +++ b/arabert/examples/question-answering/utils_qa.py @@ -0,0 +1,427 @@ +# coding=utf-8 +# Copyright 2020 The HuggingFace Team All rights reserved. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +""" +Post-processing utilities for question answering. +""" +import collections +import json +import logging +import os +from typing import Optional, Tuple + +import numpy as np +from tqdm.auto import tqdm + + +logger = logging.getLogger(__name__) + + +def postprocess_qa_predictions( + examples, + features, + predictions: Tuple[np.ndarray, np.ndarray], + version_2_with_negative: bool = False, + n_best_size: int = 20, + max_answer_length: int = 30, + null_score_diff_threshold: float = 0.0, + output_dir: Optional[str] = None, + prefix: Optional[str] = None, + is_world_process_zero: bool = True, +): + """ + Post-processes the predictions of a question-answering model to convert them to answers that are substrings of the + original contexts. This is the base postprocessing functions for models that only return start and end logits. + + Args: + examples: The non-preprocessed dataset (see the main script for more information). + features: The processed dataset (see the main script for more information). + predictions (:obj:`Tuple[np.ndarray, np.ndarray]`): + The predictions of the model: two arrays containing the start logits and the end logits respectively. Its + first dimension must match the number of elements of :obj:`features`. + version_2_with_negative (:obj:`bool`, `optional`, defaults to :obj:`False`): + Whether or not the underlying dataset contains examples with no answers. + n_best_size (:obj:`int`, `optional`, defaults to 20): + The total number of n-best predictions to generate when looking for an answer. + max_answer_length (:obj:`int`, `optional`, defaults to 30): + The maximum length of an answer that can be generated. This is needed because the start and end predictions + are not conditioned on one another. + null_score_diff_threshold (:obj:`float`, `optional`, defaults to 0): + The threshold used to select the null answer: if the best answer has a score that is less than the score of + the null answer minus this threshold, the null answer is selected for this example (note that the score of + the null answer for an example giving several features is the minimum of the scores for the null answer on + each feature: all features must be aligned on the fact they `want` to predict a null answer). + + Only useful when :obj:`version_2_with_negative` is :obj:`True`. + output_dir (:obj:`str`, `optional`): + If provided, the dictionaries of predictions, n_best predictions (with their scores and logits) and, if + :obj:`version_2_with_negative=True`, the dictionary of the scores differences between best and null + answers, are saved in `output_dir`. + prefix (:obj:`str`, `optional`): + If provided, the dictionaries mentioned above are saved with `prefix` added to their names. + is_world_process_zero (:obj:`bool`, `optional`, defaults to :obj:`True`): + Whether this process is the main process or not (used to determine if logging/saves should be done). + """ + assert len(predictions) == 2, "`predictions` should be a tuple with two elements (start_logits, end_logits)." + all_start_logits, all_end_logits = predictions + + assert len(predictions[0]) == len(features), f"Got {len(predictions[0])} predictions and {len(features)} features." + + # Build a map example to its corresponding features. + example_id_to_index = {k: i for i, k in enumerate(examples["id"])} + features_per_example = collections.defaultdict(list) + for i, feature in enumerate(features): + features_per_example[example_id_to_index[feature["example_id"]]].append(i) + + # The dictionaries we have to fill. + all_predictions = collections.OrderedDict() + all_nbest_json = collections.OrderedDict() + if version_2_with_negative: + scores_diff_json = collections.OrderedDict() + + # Logging. + logger.setLevel(logging.INFO if is_world_process_zero else logging.WARN) + logger.info(f"Post-processing {len(examples)} example predictions split into {len(features)} features.") + + # Let's loop over all the examples! + for example_index, example in enumerate(tqdm(examples)): + # Those are the indices of the features associated to the current example. + feature_indices = features_per_example[example_index] + + min_null_prediction = None + prelim_predictions = [] + + # Looping through all the features associated to the current example. + for feature_index in feature_indices: + # We grab the predictions of the model for this feature. + start_logits = all_start_logits[feature_index] + end_logits = all_end_logits[feature_index] + # This is what will allow us to map some the positions in our logits to span of texts in the original + # context. + offset_mapping = features[feature_index]["offset_mapping"] + # Optional `token_is_max_context`, if provided we will remove answers that do not have the maximum context + # available in the current feature. + token_is_max_context = features[feature_index].get("token_is_max_context", None) + + # Update minimum null prediction. + feature_null_score = start_logits[0] + end_logits[0] + if min_null_prediction is None or min_null_prediction["score"] > feature_null_score: + min_null_prediction = { + "offsets": (0, 0), + "score": feature_null_score, + "start_logit": start_logits[0], + "end_logit": end_logits[0], + } + + # Go through all possibilities for the `n_best_size` greater start and end logits. + start_indexes = np.argsort(start_logits)[-1 : -n_best_size - 1 : -1].tolist() + end_indexes = np.argsort(end_logits)[-1 : -n_best_size - 1 : -1].tolist() + for start_index in start_indexes: + for end_index in end_indexes: + # Don't consider out-of-scope answers, either because the indices are out of bounds or correspond + # to part of the input_ids that are not in the context. + if ( + start_index >= len(offset_mapping) + or end_index >= len(offset_mapping) + or offset_mapping[start_index] is None + or offset_mapping[end_index] is None + ): + continue + # Don't consider answers with a length that is either < 0 or > max_answer_length. + if end_index < start_index or end_index - start_index + 1 > max_answer_length: + continue + # Don't consider answer that don't have the maximum context available (if such information is + # provided). + if token_is_max_context is not None and not token_is_max_context.get(str(start_index), False): + continue + prelim_predictions.append( + { + "offsets": (offset_mapping[start_index][0], offset_mapping[end_index][1]), + "score": start_logits[start_index] + end_logits[end_index], + "start_logit": start_logits[start_index], + "end_logit": end_logits[end_index], + } + ) + if version_2_with_negative: + # Add the minimum null prediction + prelim_predictions.append(min_null_prediction) + null_score = min_null_prediction["score"] + + # Only keep the best `n_best_size` predictions. + predictions = sorted(prelim_predictions, key=lambda x: x["score"], reverse=True)[:n_best_size] + + # Add back the minimum null prediction if it was removed because of its low score. + if version_2_with_negative and not any(p["offsets"] == (0, 0) for p in predictions): + predictions.append(min_null_prediction) + + # Use the offsets to gather the answer text in the original context. + context = example["context"] + for pred in predictions: + offsets = pred.pop("offsets") + pred["text"] = context[offsets[0] : offsets[1]] + + # In the very rare edge case we have not a single non-null prediction, we create a fake prediction to avoid + # failure. + if len(predictions) == 0 or (len(predictions) == 1 and predictions[0]["text"] == ""): + predictions.insert(0, {"text": "empty", "start_logit": 0.0, "end_logit": 0.0, "score": 0.0}) + + # Compute the softmax of all scores (we do it with numpy to stay independent from torch/tf in this file, using + # the LogSumExp trick). + scores = np.array([pred.pop("score") for pred in predictions]) + exp_scores = np.exp(scores - np.max(scores)) + probs = exp_scores / exp_scores.sum() + + # Include the probabilities in our predictions. + for prob, pred in zip(probs, predictions): + pred["probability"] = prob + + # Pick the best prediction. If the null answer is not possible, this is easy. + if not version_2_with_negative: + all_predictions[example["id"]] = predictions[0]["text"] + else: + # Otherwise we first need to find the best non-empty prediction. + i = 0 + while predictions[i]["text"] == "": + i += 1 + best_non_null_pred = predictions[i] + + # Then we compare to the null prediction using the threshold. + score_diff = null_score - best_non_null_pred["start_logit"] - best_non_null_pred["end_logit"] + scores_diff_json[example["id"]] = float(score_diff) # To be JSON-serializable. + if score_diff > null_score_diff_threshold: + all_predictions[example["id"]] = "" + else: + all_predictions[example["id"]] = best_non_null_pred["text"] + + # Make `predictions` JSON-serializable by casting np.float back to float. + all_nbest_json[example["id"]] = [ + {k: (float(v) if isinstance(v, (np.float16, np.float32, np.float64)) else v) for k, v in pred.items()} + for pred in predictions + ] + + # If we have an output_dir, let's save all those dicts. + if output_dir is not None: + assert os.path.isdir(output_dir), f"{output_dir} is not a directory." + + prediction_file = os.path.join( + output_dir, "predictions.json" if prefix is None else f"predictions_{prefix}".json + ) + nbest_file = os.path.join( + output_dir, "nbest_predictions.json" if prefix is None else f"nbest_predictions_{prefix}".json + ) + if version_2_with_negative: + null_odds_file = os.path.join( + output_dir, "null_odds.json" if prefix is None else f"null_odds_{prefix}".json + ) + + logger.info(f"Saving predictions to {prediction_file}.") + with open(prediction_file, "w") as writer: + writer.write(json.dumps(all_predictions, indent=4) + "\n") + logger.info(f"Saving nbest_preds to {nbest_file}.") + with open(nbest_file, "w") as writer: + writer.write(json.dumps(all_nbest_json, indent=4) + "\n") + if version_2_with_negative: + logger.info(f"Saving null_odds to {null_odds_file}.") + with open(null_odds_file, "w") as writer: + writer.write(json.dumps(scores_diff_json, indent=4) + "\n") + + return all_predictions + + +def postprocess_qa_predictions_with_beam_search( + examples, + features, + predictions: Tuple[np.ndarray, np.ndarray], + version_2_with_negative: bool = False, + n_best_size: int = 20, + max_answer_length: int = 30, + start_n_top: int = 5, + end_n_top: int = 5, + output_dir: Optional[str] = None, + prefix: Optional[str] = None, + is_world_process_zero: bool = True, +): + """ + Post-processes the predictions of a question-answering model with beam search to convert them to answers that are substrings of the + original contexts. This is the postprocessing functions for models that return start and end logits, indices, as well as + cls token predictions. + + Args: + examples: The non-preprocessed dataset (see the main script for more information). + features: The processed dataset (see the main script for more information). + predictions (:obj:`Tuple[np.ndarray, np.ndarray]`): + The predictions of the model: two arrays containing the start logits and the end logits respectively. Its + first dimension must match the number of elements of :obj:`features`. + version_2_with_negative (:obj:`bool`, `optional`, defaults to :obj:`False`): + Whether or not the underlying dataset contains examples with no answers. + n_best_size (:obj:`int`, `optional`, defaults to 20): + The total number of n-best predictions to generate when looking for an answer. + max_answer_length (:obj:`int`, `optional`, defaults to 30): + The maximum length of an answer that can be generated. This is needed because the start and end predictions + are not conditioned on one another. + start_n_top (:obj:`int`, `optional`, defaults to 5): + The number of top start logits too keep when searching for the :obj:`n_best_size` predictions. + end_n_top (:obj:`int`, `optional`, defaults to 5): + The number of top end logits too keep when searching for the :obj:`n_best_size` predictions. + output_dir (:obj:`str`, `optional`): + If provided, the dictionaries of predictions, n_best predictions (with their scores and logits) and, if + :obj:`version_2_with_negative=True`, the dictionary of the scores differences between best and null + answers, are saved in `output_dir`. + prefix (:obj:`str`, `optional`): + If provided, the dictionaries mentioned above are saved with `prefix` added to their names. + is_world_process_zero (:obj:`bool`, `optional`, defaults to :obj:`True`): + Whether this process is the main process or not (used to determine if logging/saves should be done). + """ + assert len(predictions) == 5, "`predictions` should be a tuple with five elements." + start_top_log_probs, start_top_index, end_top_log_probs, end_top_index, cls_logits = predictions + + assert len(predictions[0]) == len( + features + ), f"Got {len(predictions[0])} predicitions and {len(features)} features." + + # Build a map example to its corresponding features. + example_id_to_index = {k: i for i, k in enumerate(examples["id"])} + features_per_example = collections.defaultdict(list) + for i, feature in enumerate(features): + features_per_example[example_id_to_index[feature["example_id"]]].append(i) + + # The dictionaries we have to fill. + all_predictions = collections.OrderedDict() + all_nbest_json = collections.OrderedDict() + scores_diff_json = collections.OrderedDict() if version_2_with_negative else None + + # Logging. + logger.setLevel(logging.INFO if is_world_process_zero else logging.WARN) + logger.info(f"Post-processing {len(examples)} example predictions split into {len(features)} features.") + + # Let's loop over all the examples! + for example_index, example in enumerate(tqdm(examples)): + # Those are the indices of the features associated to the current example. + feature_indices = features_per_example[example_index] + + min_null_score = None + prelim_predictions = [] + + # Looping through all the features associated to the current example. + for feature_index in feature_indices: + # We grab the predictions of the model for this feature. + start_log_prob = start_top_log_probs[feature_index] + start_indexes = start_top_index[feature_index] + end_log_prob = end_top_log_probs[feature_index] + end_indexes = end_top_index[feature_index] + feature_null_score = cls_logits[feature_index] + # This is what will allow us to map some the positions in our logits to span of texts in the original + # context. + offset_mapping = features[feature_index]["offset_mapping"] + # Optional `token_is_max_context`, if provided we will remove answers that do not have the maximum context + # available in the current feature. + token_is_max_context = features[feature_index].get("token_is_max_context", None) + + # Update minimum null prediction + if min_null_score is None or feature_null_score < min_null_score: + min_null_score = feature_null_score + + # Go through all possibilities for the `n_start_top`/`n_end_top` greater start and end logits. + for i in range(start_n_top): + for j in range(end_n_top): + start_index = start_indexes[i] + j_index = i * end_n_top + j + end_index = end_indexes[j_index] + # Don't consider out-of-scope answers (last part of the test should be unnecessary because of the + # p_mask but let's not take any risk) + if ( + start_index >= len(offset_mapping) + or end_index >= len(offset_mapping) + or offset_mapping[start_index] is None + or offset_mapping[end_index] is None + ): + continue + # Don't consider answers with a length negative or > max_answer_length. + if end_index < start_index or end_index - start_index + 1 > max_answer_length: + continue + # Don't consider answer that don't have the maximum context available (if such information is + # provided). + if token_is_max_context is not None and not token_is_max_context.get(str(start_index), False): + continue + prelim_predictions.append( + { + "offsets": (offset_mapping[start_index][0], offset_mapping[end_index][1]), + "score": start_log_prob[i] + end_log_prob[j_index], + "start_log_prob": start_log_prob[i], + "end_log_prob": end_log_prob[j_index], + } + ) + + # Only keep the best `n_best_size` predictions. + predictions = sorted(prelim_predictions, key=lambda x: x["score"], reverse=True)[:n_best_size] + + # Use the offsets to gather the answer text in the original context. + context = example["context"] + for pred in predictions: + offsets = pred.pop("offsets") + pred["text"] = context[offsets[0] : offsets[1]] + + # In the very rare edge case we have not a single non-null prediction, we create a fake prediction to avoid + # failure. + if len(predictions) == 0: + predictions.insert(0, {"text": "", "start_logit": -1e-6, "end_logit": -1e-6, "score": -2e-6}) + + # Compute the softmax of all scores (we do it with numpy to stay independent from torch/tf in this file, using + # the LogSumExp trick). + scores = np.array([pred.pop("score") for pred in predictions]) + exp_scores = np.exp(scores - np.max(scores)) + probs = exp_scores / exp_scores.sum() + + # Include the probabilities in our predictions. + for prob, pred in zip(probs, predictions): + pred["probability"] = prob + + # Pick the best prediction and set the probability for the null answer. + all_predictions[example["id"]] = predictions[0]["text"] + if version_2_with_negative: + scores_diff_json[example["id"]] = float(min_null_score) + + # Make `predictions` JSON-serializable by casting np.float back to float. + all_nbest_json[example["id"]] = [ + {k: (float(v) if isinstance(v, (np.float16, np.float32, np.float64)) else v) for k, v in pred.items()} + for pred in predictions + ] + + # If we have an output_dir, let's save all those dicts. + if output_dir is not None: + assert os.path.isdir(output_dir), f"{output_dir} is not a directory." + + prediction_file = os.path.join( + output_dir, "predictions.json" if prefix is None else f"predictions_{prefix}".json + ) + nbest_file = os.path.join( + output_dir, "nbest_predictions.json" if prefix is None else f"nbest_predictions_{prefix}".json + ) + if version_2_with_negative: + null_odds_file = os.path.join( + output_dir, "null_odds.json" if prefix is None else f"null_odds_{prefix}".json + ) + + print(f"Saving predictions to {prediction_file}.") + with open(prediction_file, "w") as writer: + writer.write(json.dumps(all_predictions, indent=4) + "\n") + print(f"Saving nbest_preds to {nbest_file}.") + with open(nbest_file, "w") as writer: + writer.write(json.dumps(all_nbest_json, indent=4) + "\n") + if version_2_with_negative: + print(f"Saving null_odds to {null_odds_file}.") + with open(null_odds_file, "w") as writer: + writer.write(json.dumps(scores_diff_json, indent=4) + "\n") + + return all_predictions, scores_diff_json diff --git a/arabert/preprocess.py b/arabert/preprocess.py new file mode 100644 index 0000000000000000000000000000000000000000..972cf14672989853d7980b378b0a782217e941d5 --- /dev/null +++ b/arabert/preprocess.py @@ -0,0 +1,818 @@ +import html +import logging +import re +from typing import List + +import pyarabic.araby as araby + +ACCEPTED_MODELS = [ + "bert-base-arabertv01", + "bert-base-arabert", + "bert-base-arabertv02", + "bert-base-arabertv2", + "bert-large-arabertv02", + "bert-large-arabertv2", + "araelectra-base", + "araelectra-base-discriminator", + "araelectra-base-generator", + "araelectra-base-artydiqa", + "aragpt2-base", + "aragpt2-medium", + "aragpt2-large", + "aragpt2-mega", +] + +SEGMENTED_MODELS = [ + "bert-base-arabert", + "bert-base-arabertv2", + "bert-large-arabertv2", +] + +SECOND_GEN_MODELS = [ + "bert-base-arabertv02", + "bert-base-arabertv2", + "bert-large-arabertv02", + "bert-large-arabertv2", + "araelectra-base", + "araelectra-base-discriminator", + "araelectra-base-generator", + "araelectra-base-artydiqa", + "aragpt2-base", + "aragpt2-medium", + "aragpt2-large", + "aragpt2-mega", +] + + +class ArabertPreprocessor: + """ + A Preprocessor class that cleans and preprocesses text for all models in the AraBERT repo. + It also can unprocess the text ouput of the generated text + + Args: + + model_name (:obj:`str`): model name from the HuggingFace Models page without + the aubmindlab tag. Will default to a base Arabic preprocessor if model name was not found. + Current accepted models are: + + - "bert-base-arabertv01": No farasa segmentation. + - "bert-base-arabert": with farasa segmentation. + - "bert-base-arabertv02": No farasas egmentation. + - "bert-base-arabertv2": with farasa segmentation. + - "bert-large-arabertv02": No farasas egmentation. + - "bert-large-arabertv2": with farasa segmentation. + - "araelectra-base": No farasa segmentation. + - "araelectra-base-discriminator": No farasa segmentation. + - "araelectra-base-generator": No farasa segmentation. + - "aragpt2-base": No farasa segmentation. + - "aragpt2-medium": No farasa segmentation. + - "aragpt2-large": No farasa segmentation. + - "aragpt2-mega": No farasa segmentation. + + + keep_emojis(:obj:`bool`, `optional`, defaults to :obj:`False`): don't remove emojis while preprocessing. + + remove_html_markup(:obj: `bool`, `optional`, defaults to :obj:`True`): Whether to remove html artfacts, + should be set to False when preprocessing TyDi QA. + + replace_urls_emails_mentions(:obj:`bool`, `optional`, defaults to :obj:`True`): Whether to replace email urls + and mentions by special tokens. + + strip_tashkeel(:obj:`bool`, `optional`, defaults to :obj:`True`): remove diacritics (FATHATAN, DAMMATAN, KASRATAN, FATHA, DAMMA, + KASRA, SUKUN, SHADDA). + + strip_tatweel(:obj:`bool`, `optional`, defaults to :obj:`True`): remove tatweel '\\u0640'. + + insert_white_spaces(:obj:`bool`, `optional`, defaults to :obj:`True`): insert whitespace before and after all non Arabic digits + or English digits or Arabic and English Alphabet or the 2 brackets, then inserts whitespace + between words and numbers or numbers and words. + + remove_non_digit_repetition(:obj:`bool`, `optional`, defaults to :obj:`True`): replace repetition of more than 2 non-digit character with + 2 of this character. + + replace_slash_with_dash(:obj:`bool`, `optional`, defaults to :obj:`None`): Will be automatically set to True in AraBERTv02, + AraELECTRA and AraGPT2. + Set to False to force disable, and True to force enable. Replaces the "/" with "-", + since "/" is missing from AraBERTv2, AraELECTRA and ARAGPT2 vocabulary. + + map_hindi_numbers_to_arabic(:obj:`bool`, `optional`, defaults to :obj:`None`): Will be automatically set to True in + AraBERTv02, AraELECTRA and AraGPT2.Set to False to force disable, and True to force enable. + Replaces hindi numbers with the corresponding Arabic one. ex: "١٩٩٥" --> "1995". + This is behavior is present by default in AraBERTv1 and v2 (with pre-segmentation), + and fixes the issue of caused by a bug when inserting white spaces. + + apply_farasa_segmentation(:obj:`bool`, `optional`, defaults to :obj:`None`): Will be automatically set to True in + AraBERTv2, and AraBERTv1. Set to False to force disable, and True to force enable. + + + + Returns: + + ArabertPreprocessor: A preprocessor instance + + Example: + + from preprocess import ArabertPreprocessor + + arabert_prep = ArabertPreprocessor("aubmindlab/bert-base-arabertv2") + + arabert_prep.preprocess("SOME ARABIC TEXT") + """ + + def __init__( + self, + model_name: str, + keep_emojis: bool = False, + remove_html_markup: bool = True, + replace_urls_emails_mentions: bool = True, + strip_tashkeel: bool = True, + strip_tatweel: bool = True, + insert_white_spaces: bool = True, + remove_non_digit_repetition: bool = True, + replace_slash_with_dash: bool = None, + map_hindi_numbers_to_arabic: bool = None, + apply_farasa_segmentation: bool = None, + ): + """ + A Preprocessor class that cleans and preprocesses text for all models in the AraBERT repo. + It also can unprocess the text ouput of the generated text + + Args: + + model_name (:obj:`str`): model name from the HuggingFace Models page without + the aubmindlab tag. Will default to a base Arabic preprocessor if model name was not found. + Current accepted models are: + + - :obj:`"bert-base-arabertv01"`: No farasa segmentation. + - :obj:`"bert-base-arabert"`: with farasa segmentation. + - :obj:`"bert-base-arabertv02"`: No farasas egmentation. + - :obj:`"bert-base-arabertv2"`: with farasa segmentation. + - :obj:`"bert-large-arabertv02"`: No farasas egmentation. + - :obj:`"bert-large-arabertv2"`: with farasa segmentation. + - :obj:`"araelectra-base"`: No farasa segmentation. + - :obj:`"araelectra-base-discriminator"`: No farasa segmentation. + - :obj:`"araelectra-base-generator"`: No farasa segmentation. + - :obj:`"aragpt2-base"`: No farasa segmentation. + - :obj:`"aragpt2-medium"`: No farasa segmentation. + - :obj:`"aragpt2-large"`: No farasa segmentation. + - :obj:`"aragpt2-mega"`: No farasa segmentation. + + keep_emojis(:obj:`bool`, `optional`, defaults to :obj:`False`): don't remove emojis while preprocessing. + + remove_html_markup(:obj: `bool`, `optional`, defaults to :obj:`True`): Whether to remove html artfacts, + should be set to False when preprocessing TyDi QA. + + replace_urls_emails_mentions(:obj:`bool`, `optional`, defaults to :obj:`True`): Whether to replace email urls + and mentions by special tokens. + + strip_tashkeel(:obj:`bool`, `optional`, defaults to :obj:`True`): remove diacritics (FATHATAN, DAMMATAN, KASRATAN, FATHA, DAMMA, + KASRA, SUKUN, SHADDA). + + strip_tatweel(:obj:`bool`, `optional`, defaults to :obj:`True`): remove tatweel '\\u0640'. + + insert_white_spaces(:obj:`bool`, `optional`, defaults to :obj:`True`): insert whitespace before and after all non Arabic digits + or English digits or Arabic and English Alphabet or the 2 brackets, then inserts whitespace + between words and numbers or numbers and words. + + remove_non_digit_repetition(:obj:`bool`, `optional`, defaults to :obj:`True`): replace repetition of more than 2 non-digit character with + 2 of this character. + + replace_slash_with_dash(:obj:`bool`, `optional`, defaults to :obj:`None`): Will be automatically set to True in AraBERTv02, + AraELECTRA and AraGPT2. + Set to False to force disable, and True to force enable. Replaces the "/" with "-", + since "/" is missing from AraBERTv2, AraELECTRA and ARAGPT2 vocabulary. + + map_hindi_numbers_to_arabic(:obj:`bool`, `optional`, defaults to :obj:`None`): Will be automatically set to True in + AraBERTv02, AraELECTRA and AraGPT2.Set to False to force disable, and True to force enable. + Replaces hindi numbers with the corresponding Arabic one. ex: "١٩٩٥" --> "1995". + This is behavior is present by default in AraBERTv1 and v2 (with pre-segmentation), + and fixes the issue of caused by a bug when inserting white spaces. + + apply_farasa_segmentation(:obj:`bool`, `optional`, defaults to :obj:`None`): Will be automatically set to True in + AraBERTv2, and AraBERTv1. Set to False to force disable, and True to force enable. + + Returns: + + ArabertPreprocessor: A preprocessor instance + + Example: + + from preprocess import ArabertPreprocessor + + arabert_prep = ArabertPreprocessor("aubmindlab/bert-base-arabertv2") + + arabert_prep.preprocess("SOME ARABIC TEXT") + + """ + model_name = model_name.replace("aubmindlab/", "").replace("wissamantoun/", "") + + if model_name not in ACCEPTED_MODELS: + logging.warning( + """Model provided is not in the accepted model list. Preprocessor will default to a base Arabic preprocessor""" + ) + self.model_name = "bert-base-arabertv02" + else: + self.model_name = model_name + + if apply_farasa_segmentation is None: + if self.model_name in SEGMENTED_MODELS: + self.apply_farasa_segmentation = True + else: + self.apply_farasa_segmentation = False + else: + if apply_farasa_segmentation == False and self.apply_farasa_segmentation: + logging.warning( + "The selected model_name requires Farasa pre-segmentation, but apply_farasa_segmentation was set to False!" + ) + + self.apply_farasa_segmentation = apply_farasa_segmentation + + if self.apply_farasa_segmentation: + try: + from farasa.segmenter import FarasaSegmenter + + self.farasa_segmenter = FarasaSegmenter(interactive=True) + except ModuleNotFoundError: + logging.error( + "farasapy is not installed, you want be able to process text for AraBERTv1 and v2. Install it using: pip install farasapy" + ) + + self.keep_emojis = keep_emojis + if self.keep_emojis: + import emoji + + self.emoji = emoji + if self.apply_farasa_segmentation: + logging.warning( + "Keeping tweets with Farasa Segmentation is 10 times slower" + ) + + self.remove_html_markup = remove_html_markup + self.replace_urls_emails_mentions = replace_urls_emails_mentions + self.strip_tashkeel = strip_tashkeel + self.strip_tatweel = strip_tatweel + self.insert_white_spaces = insert_white_spaces + self.remove_non_digit_repetition = remove_non_digit_repetition + + if replace_slash_with_dash is None: + if self.model_name in SECOND_GEN_MODELS: + self.replace_slash_with_dash = True + else: + self.replace_slash_with_dash = False + else: + self.replace_slash_with_dash = replace_slash_with_dash + + if map_hindi_numbers_to_arabic is None: + if self.model_name in SECOND_GEN_MODELS: + self.map_hindi_numbers_to_arabic = True + else: + self.map_hindi_numbers_to_arabic = False + else: + self.map_hindi_numbers_to_arabic = map_hindi_numbers_to_arabic + + def preprocess(self, text: str) -> str: + """ + Preprocess takes an input text line an applies the same preprocessing used in AraBERT + pretraining, or according to settings + + Args: + + text (:obj:`str`): inout text string + + Returns: + + string: A preprocessed string depending on which model was selected + """ + if ( + self.model_name == "bert-base-arabert" + or self.model_name == "bert-base-arabertv01" + ): + return self._preprocess_v1( + text, + do_farasa_tokenization=self.apply_farasa_segmentation, + ) + + if self.model_name in SECOND_GEN_MODELS: + return self._preprocess_v2(text) + + return self._preprocess_v3(text) + + def unpreprocess(self, text: str, desegment: bool = True) -> str: + """Re-formats the text to a classic format where punctuations, brackets, parenthesis are not seperated by whitespaces. + The objective is to make the generated text of any model appear natural and not preprocessed. + + Args: + text (:obj:`str`): input text to be un-preprocessed + desegment (:obj:`bool`, optional): [whether or not to remove farasa pre-segmentation before].. + + Returns: + str: The unpreprocessed (and possibly Farasa-desegmented) text. + """ + + if self.apply_farasa_segmentation and desegment: + text = self.desegment(text) + + # removes the spaces around quotation marks ex: i " ate " an apple --> i "ate" an apple + # https://stackoverflow.com/a/53436792/5381220 + text = re.sub(white_spaced_double_quotation_regex, '"' + r"\1" + '"', text) + text = re.sub(white_spaced_single_quotation_regex, "'" + r"\1" + "'", text) + text = re.sub(white_spaced_back_quotation_regex, "\`" + r"\1" + "\`", text) + text = re.sub(white_spaced_back_quotation_regex, "\—" + r"\1" + "\—", text) + + # during generation, sometimes the models don't put a space after the dot, this handles it + text = text.replace(".", " . ") + text = " ".join(text.split()) + + # handle decimals + text = re.sub(r"(\d+) \. (\d+)", r"\1.\2", text) + text = re.sub(r"(\d+) \, (\d+)", r"\1,\2", text) + + text = re.sub(left_and_right_spaced_chars, r"\1", text) + text = re.sub(left_spaced_chars, r"\1", text) + text = re.sub(right_spaced_chars, r"\1", text) + + return text + + def desegment(self, text: str) -> str: + """ + Use this function if sentence tokenization was done using + `from arabert.preprocess_arabert import preprocess` with Farasa enabled + AraBERT segmentation using Farasa adds a space after the '+' for prefixes, + and after before the '+' for suffixes + + Example: + >>> desegment('ال+ دراس +ات') + الدراسات + """ + text = text.replace("+ ", "+") + text = text.replace(" +", "+") + text = " ".join([self._desegmentword(word) for word in text.split(" ")]) + return text + + def _desegmentword(self, orig_word: str) -> str: + """ + Word segmentor that takes a Farasa Segmented Word and removes the '+' signs + + Example: + >>> _desegmentword("ال+يومي+ة") + اليومية + """ + word = orig_word.replace("ل+ال+", "لل") + if "ال+ال" not in orig_word: + word = word.replace("ل+ال", "لل") + word = word.replace("+", "") + word = word.replace("للل", "لل") + return word + + def _preprocess_v3(self, text: str) -> str: + text = str(text) + text = html.unescape(text) + if self.strip_tashkeel: + text = araby.strip_tashkeel(text) + if self.strip_tatweel: + text = araby.strip_tatweel(text) + + if self.replace_urls_emails_mentions: + # replace all possible URLs + for reg in url_regexes: + text = re.sub(reg, " [رابط] ", text) + # REplace Emails with [بريد] + for reg in email_regexes: + text = re.sub(reg, " [بريد] ", text) + # replace mentions with [مستخدم] + text = re.sub(user_mention_regex, " [مستخدم] ", text) + + if self.remove_html_markup: + # remove html line breaks + text = re.sub("
", " ", text) + # remove html markup + text = re.sub("]+>", " ", text) + + if self.map_hindi_numbers_to_arabic: + text = text.translate(hindi_to_arabic_map) + + # remove repeated characters >2 + if self.remove_non_digit_repetition: + text = self._remove_non_digit_repetition(text) + + # insert whitespace before and after all non Arabic digits or English Digits and Alphabet and the 2 brackets + if self.insert_white_spaces: + text = re.sub( + "([^0-9\u0621-\u063A\u0641-\u064A\u0660-\u0669a-zA-Z ])", + r" \1 ", + text, + ) + + # re-fix brackets + text = text.replace("[ رابط ]", "[رابط]") + text = text.replace("[ بريد ]", "[بريد]") + text = text.replace("[ مستخدم ]", "[مستخدم]") + + # insert whitespace between words and numbers or numbers and words + text = re.sub( + "(\d+)([\u0621-\u063A\u0641-\u064A\u066A-\u066C\u0654-\u0655]+)", + r" \1 \2 ", + text, + ) + text = re.sub( + "([\u0621-\u063A\u0641-\u064A\u066A-\u066C\u0654-\u0655]+)(\d+)", + r" \1 \2 ", + text, + ) + + # remove unwanted characters + if self.keep_emojis: + emoji_regex = "".join(list(self.emoji.UNICODE_EMOJI["en"].keys())) + rejected_chars_regex2 = "[^%s%s]" % (chars_regexv2, emoji_regex) + text = re.sub(rejected_chars_regex2, " ", text) + else: + text = re.sub(rejected_chars_regexv2, " ", text) + + # remove extra spaces + text = " ".join(text.replace("\uFE0F", "").split()) + + if self.apply_farasa_segmentation: + if self.keep_emojis: + new_text = [] + for word in text.split(): + if word in list(self.emoji.UNICODE_EMOJI["en"].keys()): + new_text.append(word) + else: + new_text.append(self.farasa_segmenter.segment(word)) + text = " ".join(new_text) + else: + text = self.farasa_segmenter.segment(text) + return self._farasa_segment(text) + + # ALl the other models dont require Farasa Segmentation + return text + + def _preprocess_v2(self, text: str) -> str: + text = str(text) + text = html.unescape(text) + if self.strip_tashkeel: + text = araby.strip_tashkeel(text) + if self.strip_tatweel: + text = araby.strip_tatweel(text) + + if self.replace_urls_emails_mentions: + # replace all possible URLs + for reg in url_regexes: + text = re.sub(reg, " [رابط] ", text) + # REplace Emails with [بريد] + for reg in email_regexes: + text = re.sub(reg, " [بريد] ", text) + # replace mentions with [مستخدم] + text = re.sub(user_mention_regex, " [مستخدم] ", text) + + if self.remove_html_markup: + # remove html line breaks + text = re.sub("
", " ", text) + # remove html markup + text = re.sub("]+>", " ", text) + + if self.map_hindi_numbers_to_arabic: + text = text.translate(hindi_to_arabic_map) + + # remove repeated characters >2 + if self.remove_non_digit_repetition: + text = self._remove_non_digit_repetition(text) + + # insert whitespace before and after all non Arabic digits or English Digits and Alphabet and the 2 brackets + if self.insert_white_spaces: + text = re.sub( + "([^0-9\u0621-\u063A\u0641-\u064A\u0660-\u0669a-zA-Z\[\]])", + r" \1 ", + text, + ) + + # insert whitespace between words and numbers or numbers and words + text = re.sub( + "(\d+)([\u0621-\u063A\u0641-\u064A\u0660-\u066C]+)", r" \1 \2 ", text + ) + text = re.sub( + "([\u0621-\u063A\u0641-\u064A\u0660-\u066C]+)(\d+)", r" \1 \2 ", text + ) + + if self.replace_slash_with_dash: + text = text.replace("/", "-") + + # remove unwanted characters + if self.keep_emojis: + emoji_regex = "".join(list(self.emoji.UNICODE_EMOJI["en"].keys())) + rejected_chars_regex2 = "[^%s%s]" % (chars_regex, emoji_regex) + text = re.sub(rejected_chars_regex2, " ", text) + else: + text = re.sub(rejected_chars_regex, " ", text) + + # remove extra spaces + text = " ".join(text.replace("\uFE0F", "").split()) + + if ( + self.model_name == "bert-base-arabertv2" + or self.model_name == "bert-large-arabertv2" + ): + if self.keep_emojis: + new_text = [] + for word in text.split(): + if word in list(self.emoji.UNICODE_EMOJI["en"].keys()): + new_text.append(word) + else: + new_text.append(self.farasa_segmenter.segment(word)) + text = " ".join(new_text) + else: + text = self.farasa_segmenter.segment(text) + return self._farasa_segment(text) + + # ALl the other models dont require Farasa Segmentation + return text + + def _preprocess_v1(self, text: str, do_farasa_tokenization: bool) -> str: + """ + AraBERTv1 preprocessing Function + """ + text = str(text) + if self.strip_tashkeel: + text = araby.strip_tashkeel(text) + + text = re.sub(r"\d+\/[ء-ي]+\/\d+\]", "", text) + text = re.sub("ـ", "", text) + text = re.sub("[«»]", ' " ', text) + + if self.replace_urls_emails_mentions: + # replace the [رابط] token with space if you want to clean links + text = re.sub(regex_url_step1, "[رابط]", text) + text = re.sub(regex_url_step2, "[رابط]", text) + text = re.sub(regex_url, "[رابط]", text) + text = re.sub(regex_email, "[بريد]", text) + text = re.sub(regex_mention, "[مستخدم]", text) + text = re.sub("…", r"\.", text).strip() + text = self._remove_redundant_punct(text) + + if self.replace_urls_emails_mentions: + text = re.sub(r"\[ رابط \]|\[ رابط\]|\[رابط \]", " [رابط] ", text) + text = re.sub(r"\[ بريد \]|\[ بريد\]|\[بريد \]", " [بريد] ", text) + text = re.sub(r"\[ مستخدم \]|\[ مستخدم\]|\[مستخدم \]", " [مستخدم] ", text) + + if self.remove_non_digit_repetition: + text = self._remove_non_digit_repetition(text) + + if self.insert_white_spaces: + text = re.sub( + "([^0-9\u0621-\u063A\u0641-\u0669\u0671-\u0673a-zA-Z\[\]])", + r" \1 ", + text, + ) + if do_farasa_tokenization: + text = self._tokenize_arabic_words_farasa(text) + + text = " ".join(text.split()) + + return text + + def _farasa_segment(self, text: str) -> str: + line_farasa = text.split() + segmented_line = [] + for index, word in enumerate(line_farasa): + if word in ["[", "]"]: + continue + if word in ["رابط", "بريد", "مستخدم"] and line_farasa[index - 1] in [ + "[", + "]", + ]: + segmented_line.append("[" + word + "]") + continue + if "+" not in word: + segmented_line.append(word) + continue + segmented_word = self._split_farasa_output(word) + segmented_line.extend(segmented_word) + + return " ".join(segmented_line) + + def _split_farasa_output(self, word: str) -> str: + segmented_word = [] + temp_token = "" + for i, c in enumerate(word): + if c == "+": + # if the token is KAF, it could be a suffix or prefix + if temp_token == "ك": + # if we are at the second token, then KAF is surely a prefix + if i == 1: + segmented_word.append(temp_token + "+") + temp_token = "" + # If the KAF token is between 2 tokens + elif word[i - 2] == "+": + # if the previous token is prefix, then this KAF must be a prefix + if segmented_word[-1][-1] == "+": + segmented_word.append(temp_token + "+") + temp_token = "" + # else it is a suffix, this KAF could not be a second suffix + else: + segmented_word.append("+" + temp_token) + temp_token = "" + # if Kaf is at the end, this is handled with the statement after the loop + elif temp_token in prefix_list: + segmented_word.append(temp_token + "+") + temp_token = "" + elif temp_token in suffix_list: + segmented_word.append("+" + temp_token) + temp_token = "" + else: + segmented_word.append(temp_token) + temp_token = "" + continue + temp_token += c + if temp_token != "": + if temp_token in suffix_list: + segmented_word.append("+" + temp_token) + else: + segmented_word.append(temp_token) + return segmented_word + + def _tokenize_arabic_words_farasa(self, line_input: str) -> str: + + if self.keep_emojis: + # insert whitespace before and after all non Arabic digits or English Digits and Alphabet and the 2 brackets + line_farasa = [] + for word in line_input.split(): + if word in list(self.emoji.UNICODE_EMOJI["en"].keys()): + line_farasa.append(word) + else: + line_farasa.append(self.farasa_segmenter.segment(word)) + else: + line_farasa = self.farasa_segmenter.segment(line_input).split() + + segmented_line = [] + for index, word in enumerate(line_farasa): + if word in ["[", "]"]: + continue + if word in ["رابط", "بريد", "مستخدم"] and line_farasa[index - 1] in [ + "[", + "]", + ]: + segmented_line.append("[" + word + "]") + continue + segmented_word = [] + for token in word.split("+"): + if token in prefix_list: + segmented_word.append(token + "+") + elif token in suffix_list: + segmented_word.append("+" + token) + else: + segmented_word.append(token) + segmented_line.extend(segmented_word) + return " ".join(segmented_line) + + def _remove_non_digit_repetition(self, text: str) -> str: + """ + :param text: the input text to remove elongation + :return: delongated text + """ + # loop over the number of times the regex matched the text + # OLD + # for index_ in range(len(re.findall(regex_tatweel, text))): + # elongation = re.search(regex_tatweel, text) + # if elongation: + # elongation_pattern = elongation.group() + # elongation_replacement = elongation_pattern[0] + # elongation_pattern = re.escape(elongation_pattern) + # text = re.sub( + # elongation_pattern, elongation_replacement, text, flags=re.MULTILINE + # ) + # else: + # break + + # New + text = multiple_char_pattern.sub(r"\1\1", text) + return text + + def _remove_redundant_punct(self, text: str) -> str: + text_ = text + result = re.search(redundant_punct_pattern, text) + dif = 0 + while result: + sub = result.group() + sub = sorted(set(sub), key=sub.index) + sub = " " + "".join(list(sub)) + " " + text = "".join( + (text[: result.span()[0] + dif], sub, text[result.span()[1] + dif :]) + ) + text_ = "".join( + (text_[: result.span()[0]], text_[result.span()[1] :]) + ).strip() + dif = abs(len(text) - len(text_)) + result = re.search(redundant_punct_pattern, text_) + text = re.sub(r"\s+", " ", text) + return text.strip() + + +prefix_list = [ + "ال", + "و", + "ف", + "ب", + "ك", + "ل", + "لل", + "\u0627\u0644", + "\u0648", + "\u0641", + "\u0628", + "\u0643", + "\u0644", + "\u0644\u0644", + "س", +] +suffix_list = [ + "ه", + "ها", + "ك", + "ي", + "هما", + "كما", + "نا", + "كم", + "هم", + "هن", + "كن", + "ا", + "ان", + "ين", + "ون", + "وا", + "ات", + "ت", + "ن", + "ة", + "\u0647", + "\u0647\u0627", + "\u0643", + "\u064a", + "\u0647\u0645\u0627", + "\u0643\u0645\u0627", + "\u0646\u0627", + "\u0643\u0645", + "\u0647\u0645", + "\u0647\u0646", + "\u0643\u0646", + "\u0627", + "\u0627\u0646", + "\u064a\u0646", + "\u0648\u0646", + "\u0648\u0627", + "\u0627\u062a", + "\u062a", + "\u0646", + "\u0629", +] +other_tokens = ["[رابط]", "[مستخدم]", "[بريد]"] + +# the never_split list is ussed with the transformers library +prefix_symbols = [x + "+" for x in prefix_list] +suffix_symblos = ["+" + x for x in suffix_list] +never_split_tokens = list(set(prefix_symbols + suffix_symblos + other_tokens)) + +url_regexes = [ + r"(http(s)?:\/\/.)?(www\.)?[-a-zA-Z0-9@:%._\+~#=]{2,256}\.[a-z]{2,6}\b([-a-zA-Z0-9@:%_\+.~#?&//=]*)", + r"@(https?|ftp)://(-\.)?([^\s/?\.#-]+\.?)+(/[^\s]*)?$@iS", + r"http[s]?://[a-zA-Z0-9_\-./~\?=%&]+", + r"www[a-zA-Z0-9_\-?=%&/.~]+", + r"[a-zA-Z]+\.com", + r"(?=http)[^\s]+", + r"(?=www)[^\s]+", + r"://", +] +user_mention_regex = r"@[\w\d]+" +email_regexes = [r"[\w-]+@([\w-]+\.)+[\w-]+", r"\S+@\S+"] +redundant_punct_pattern = ( + r"([!\"#\$%\'\(\)\*\+,\.:;\-<=·>?@\[\\\]\^_ـ`{\|}~—٪’،؟`୍“؛”ۚ【»؛\s+«–…‘]{2,})" +) + +regex_tatweel = r"(\D)\1{2,}" +multiple_char_pattern = re.compile(r"(\D)\1{2,}", re.DOTALL) + +rejected_chars_regex = r"[^0-9\u0621-\u063A\u0640-\u066C\u0671-\u0674a-zA-Z\[\]!\"#\$%\'\(\)\*\+,\.:;\-<=·>?@\[\\\]\^_ـ`{\|}~—٪’،؟`୍“؛”ۚ»؛\s+«–…‘]" +rejected_chars_regexv2 = r"[^0-9\u0621-\u063A\u0641-\u066C\u0671-\u0674a-zA-Z\[\]!\"#\$%\'\(\)\*\+,\.:;\-<=·>?@\[\\\]\^_ـ`{\|}~—٪’،؟`୍“؛”ۚ»؛\s+«–…‘/]" + +regex_url_step1 = r"(?=http)[^\s]+" +regex_url_step2 = r"(?=www)[^\s]+" +regex_url = r"(http(s)?:\/\/.)?(www\.)?[-a-zA-Z0-9@:%._\+~#=]{2,256}\.[a-z]{2,6}\b([-a-zA-Z0-9@:%_\+.~#?&//=]*)" +regex_mention = r"@[\w\d]+" +regex_email = r"\S+@\S+" + +chars_regex = r"0-9\u0621-\u063A\u0640-\u066C\u0671-\u0674a-zA-Z\[\]!\"#\$%\'\(\)\*\+,\.:;\-<=·>?@\[\\\]\^_ـ`{\|}~—٪’،؟`୍“؛”ۚ»؛\s+«–…‘" +chars_regexv2 = r"0-9\u0621-\u063A\u0640-\u066C\u0671-\u0674a-zA-Z\[\]!\"#\$%\'\(\)\*\+,\.:;\-<=·>?@\[\\\]\^_ـ`{\|}~—٪’،؟`୍“؛”ۚ»؛\s+«–…‘/" + +white_spaced_double_quotation_regex = r'\"\s+([^"]+)\s+\"' +white_spaced_single_quotation_regex = r"\'\s+([^']+)\s+\'" +white_spaced_back_quotation_regex = r"\`\s+([^`]+)\s+\`" +white_spaced_em_dash = r"\—\s+([^—]+)\s+\—" + +left_spaced_chars = r" ([\]!#\$%\),\.:;\?}٪’،؟”؛…»·])" +right_spaced_chars = r"([\[\(\{“«‘*\~]) " +left_and_right_spaced_chars = r" ([\+\-\<\=\>\@\\\^\_\|\–]) " + +hindi_nums = "٠١٢٣٤٥٦٧٨٩" +arabic_nums = "0123456789" +hindi_to_arabic_map = str.maketrans(hindi_nums, arabic_nums) diff --git a/arabert/requirements.txt b/arabert/requirements.txt new file mode 100644 index 0000000000000000000000000000000000000000..1a384a4ae8225875a430c32155c7985c61057b4a --- /dev/null +++ b/arabert/requirements.txt @@ -0,0 +1,4 @@ +#tensorflow >= 1.11.0, <2.0 # CPU Version of TensorFlow. +# tensorflow-gpu >= 1.11.0, <2.0 # GPU version of TensorFlow. +PyArabic +farasapy