Buckets:
| <meta charset="utf-8" /><meta name="hf:doc:metadata" content="{"title":"الفلسفة","local":"الفلسفة","sections":[{"title":"المفاهيم الرئيسية","local":"المفاهيم-الرئيسية","sections":[],"depth":2}],"depth":1}"> | |
| <link href="/docs/transformers/pr_33913/ar/_app/immutable/assets/0.e3b0c442.css" rel="modulepreload"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/entry/start.a2b1508c.js"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/chunks/scheduler.5eb9d175.js"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/chunks/singletons.995fe7fe.js"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/chunks/index.4d790b85.js"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/chunks/paths.2c5f54bd.js"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/entry/app.72eb63b7.js"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/chunks/index.fcdcb606.js"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/nodes/0.6aa6e804.js"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/chunks/each.e59479a4.js"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/nodes/25.f3ecbca7.js"> | |
| <link rel="modulepreload" href="/docs/transformers/pr_33913/ar/_app/immutable/chunks/EditOnGithub.98bf070f.js"><!-- HEAD_svelte-u9bgzb_START --><meta name="hf:doc:metadata" content="{"title":"الفلسفة","local":"الفلسفة","sections":[{"title":"المفاهيم الرئيسية","local":"المفاهيم-الرئيسية","sections":[],"depth":2}],"depth":1}"><!-- HEAD_svelte-u9bgzb_END --> <p></p> <h1 class="relative group"><a id="الفلسفة" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#الفلسفة"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>الفلسفة</span></h1> <p data-svelte-h="svelte-57h2m">تُعد 🤗 Transformers مكتبة برمجية ذات رؤية واضحة صُممت من أجل:</p> <ul data-svelte-h="svelte-b7moe5"><li>الباحثون والمُتعلّمون في مجال التعلم الآلي ممن يسعون لاستخدام أو دراسة أو تطوير نماذج Transformers واسعة النطاق.</li> <li>مُطبّقي تعلم الآلة الذين يرغبون في ضبط تلك النماذج أو تشغيلها في بيئة إنتاجية، أو كليهما.</li> <li>المهندسون الذين يريدون فقط تنزيل نموذج مُدرب مسبقًا واستخدامه لحل مهمة تعلم آلي معينة.</li></ul> <p data-svelte-h="svelte-3xuevl">تم تصميم المكتبة مع الأخذ في الاعتبار هدفين رئيسيين:</p> <ol data-svelte-h="svelte-12kna6s"><li>سهولة وسرعة الاستخدام:</li></ol> <ul data-svelte-h="svelte-rfs11w"><li>تمّ تقليل عدد المفاهيم المُجردة التي يتعامل معها المستخدم إلى أدنى حد والتي يجب تعلمها، وفي الواقع، لا توجد مفاهيم مُجردة تقريبًا، فقط ثلاث فئات أساسية مطلوبة لاستخدام كل نموذج: <a href="main_classes/configuration">الإعدادات</a>، <a href="main_classes/model">نماذج</a>، وفئة ما قبل المعالجة (<a href="main_classes/tokenizer">مُجزّئ لغوي</a> لـ NLP، <a href="main_classes/image_processor">معالج الصور</a> للرؤية، <a href="main_classes/feature_extractor">مستخرج الميزات</a> للصوت، و <a href="main_classes/processors">معالج</a> للمدخﻻت متعددة الوسائط).</li> <li>يمكن تهيئة جميع هذه الفئات بطريقة بسيطة وموحدة من خلال نماذج مُدربة مسبقًا باستخدام الدالة الموحدة <code>from_pretrained()</code> والتي تقوم بتنزيل (إذا لزم الأمر)، وتخزين وتحميل كل من: فئة النموذج المُراد استخدامه والبيانات المرتبطة ( مُعاملات الإعدادات، ومعجم للمُجزّئ اللغوي،وأوزان النماذج) من نقطة تدقيق مُحددة مُخزّنة على <a href="https://huggingface.co/models" rel="nofollow">Hugging Face Hub</a> أو ن من نقطة تخزين خاصة بالمستخدم.</li> <li>بالإضافة إلى هذه الفئات الأساسية الثلاث، توفر المكتبة واجهتي برمجة تطبيقات: <code>pipeline()</code> للاستخدام السريع لأحد النماذج لأداء استنتاجات على مهمة مُحددة، و <code>Trainer</code> للتدريب السريع أو الضبط الدقيق لنماذج PyTorch (جميع نماذج TensorFlow متوافقة مع <code>Keras.fit</code>).</li> <li>نتيجة لذلك، هذه المكتبة ليست صندوق أدوات متعدد الاستخدامات من الكتل الإنشائية للشبكات العصبية. إذا كنت تريد توسيع أو البناء على المكتبة، فما عليك سوى استخدام Python و PyTorch و TensorFlow و Keras العادية والوراثة من الفئات الأساسية للمكتبة لإعادة استخدام الوظائف مثل تحميل النموذج وحفظه. إذا كنت ترغب في معرفة المزيد عن فلسفة الترميز لدينا للنماذج، فراجع منشور المدونة الخاص بنا <a href="https://huggingface.co/blog/transformers-design-philosophy" rel="nofollow">Repeat Yourself</a>.</li></ul> <ol start="2" data-svelte-h="svelte-dra3wr"><li>تقديم نماذج رائدة في مجالها مع أداء قريب قدر الإمكان من النماذج الأصلية:</li></ol> <ul data-svelte-h="svelte-1dszgby"><li>نقدم مثالًا واحدًا على الأقل لكل بنية تقوم بإعادة إنتاج نتيجة مقدمة من المؤلفين الرسميين لتلك البنية.</li> <li>عادةً ما تكون الشفرة قريبة قدر الإمكان من قاعدة الشفرة الأصلية، مما يعني أن بعض شفرة PyTorch قد لا تكون “بأسلوب PyTorch” كما يمكن أن تكون نتيجة لكونها شفرة TensorFlow محولة والعكس صحيح.</li></ul> <p data-svelte-h="svelte-1ke8iyn">بعض الأهداف الأخرى:</p> <ul data-svelte-h="svelte-1ea4nr4"><li><p>كشف تفاصيل النماذج الداخلية بشكل متسق قدر الإمكان:</p> <p>-نتيح الوصول، باستخدام واجهة برمجة واحدة، إلى جميع الحالات المخفية (Hidden-States) وأوزان الانتباه (Attention Weights).</p> <ul><li>تم توحيد واجهات برمجة التطبيقات الخاصة بفئات المعالجة المسبقة والنماذج الأساسية لتسهيل التبديل بين النماذج.</li></ul></li> <li><p>دمج مجموعة مختارة من الأدوات الواعدة لضبط النماذج بدقة (Fine-tuning) ودراستها:</p> <ul><li>طريقة بسيطة ومتسقة لإضافة رموز جديدة إلى مفردات التضمينات (Embeddings) لضبط النماذج بدقة.</li> <li>طرق سهلة لإخفاء (Masking) وتقليم (Pruning) رؤوس المحولات (Transformer Heads).</li></ul></li> <li><p>التبديل بسهولة بين PyTorch و TensorFlow 2.0 و Flax، مما يسمح بالتدريب باستخدام إطار واحد والاستدلال باستخدام إطار آخر.</p></li></ul> <h2 class="relative group"><a id="المفاهيم-الرئيسية" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#المفاهيم-الرئيسية"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>المفاهيم الرئيسية</span></h2> <p data-svelte-h="svelte-n686vo">تعتمد المكتبة على ثلاثة أنواع من الفئات لكل نموذج:</p> <ul data-svelte-h="svelte-6fbsv6"><li><strong>فئات النماذج</strong> يمكن أن تكون نماذج PyTorch (<a href="https://pytorch.org/docs/stable/nn.html#torch.nn.Module" rel="nofollow">torch.nn.Module</a>)، أو نماذج Keras (<a href="https://www.tensorflow.org/api_docs/python/tf/keras/Model" rel="nofollow">tf.keras.Model</a>)، أو نماذج JAX/Flax (<a href="https://flax.readthedocs.io/en/latest/api_reference/flax.linen/module.html" rel="nofollow">flax.linen.Module</a>) التي تعمل مع الأوزان المُدربة مسبقًا المقدمة في المكتبة.</li> <li><strong>فئات الإعداد</strong> تخزن معلمات التهيئة المطلوبة لبناء نموذج (مثل عدد الطبقات وحجم الطبقة المخفية). أنت لست مضطرًا دائمًا إلى إنشاء مثيل لهذه الفئات بنفسك. على وجه الخصوص، إذا كنت تستخدم نموذجًا مُدربًا مسبقًا دون أي تعديل، فإن إنشاء النموذج سيهتم تلقائيًا تهيئة الإعدادات (والذي يعد جزءًا من النموذج).</li> <li><strong>فئات ما قبل المعالجة</strong> تحويل البيانات الخام إلى تنسيق مقبول من قبل النموذج. يقوم <a href="main_classes/tokenizer">المعالج</a> بتخزين المعجم لكل نموذج ويقدم طرقًا لتشفير وفك تشفير السلاسل في قائمة من مؤشرات تضمين الرموز ليتم إطعامها للنموذج. تقوم <a href="main_classes/image_processor">معالجات الصور</a> بمعالجة إدخالات الرؤية، وتقوم <a href="main_classes/feature_extractor">مستخلصات الميزات</a> بمعالجة إدخالات الصوت، ويقوم <a href="main_classes/processors">المعالج</a> بمعالجة الإدخالات متعددة الوسائط.</li></ul> <p data-svelte-h="svelte-1v3gz3l">يمكن تهيئة جميع هذه الفئات من نسخ مُدربة مسبقًا، وحفظها محليًا، ومشاركتها على منصة Hub عبر ثلاث طرق:</p> <ul data-svelte-h="svelte-yj27se"><li>تسمح لك الدالة <code>from_pretrained()</code> بتهيئة النموذج وتكويناته وفئة المعالجة المسبقة من إصدار مُدرب مسبقًا إما يتم توفيره بواسطة المكتبة نفسها (يمكن العثور على النماذج المدعومة على <a href="https://huggingface.co/models" rel="nofollow">Model Hub</a>) أو مخزنة محليًا (أو على خادم) بواسطة المستخدم.</li> <li>تسمح لك الدالة <code>save_pretrained()</code> بحفظ النموذج، وتكويناته وفئة المعالجة المسبقة محليًا، بحيث يمكن إعادة تحميله باستخدام الدالة <code>from_pretrained()</code>.</li> <li>تسمح لك <code>push_to_hub()</code> بمشاركة نموذج وتكويناتهوفئة المعالجة المسبقة على Hub، بحيث يمكن الوصول إليها بسهولة من قبل الجميع.</li></ul> <a class="!text-gray-400 !no-underline text-sm flex items-center not-prose mt-4" href="https://github.com/huggingface/transformers/blob/main/docs/source/ar/philosophy.md" target="_blank"><span data-svelte-h="svelte-1kd6by1"><</span> <span data-svelte-h="svelte-x0xyl0">></span> <span data-svelte-h="svelte-1dajgef"><span class="underline ml-1.5">Update</span> on GitHub</span></a> <p></p> | |
| <script> | |
| { | |
| __sveltekit_1x8g0d4 = { | |
| assets: "/docs/transformers/pr_33913/ar", | |
| base: "/docs/transformers/pr_33913/ar", | |
| env: {} | |
| }; | |
| const element = document.currentScript.parentElement; | |
| const data = [null,null]; | |
| Promise.all([ | |
| import("/docs/transformers/pr_33913/ar/_app/immutable/entry/start.a2b1508c.js"), | |
| import("/docs/transformers/pr_33913/ar/_app/immutable/entry/app.72eb63b7.js") | |
| ]).then(([kit, app]) => { | |
| kit.start(app, element, { | |
| node_ids: [0, 25], | |
| data, | |
| form: null, | |
| error: null | |
| }); | |
| }); | |
| } | |
| </script> | |
Xet Storage Details
- Size:
- 14.4 kB
- Xet hash:
- 810986cfe16c25d842fde78d59508882ca0fd0c900880c011d0d156f2b24ffa6
·
Xet efficiently stores files, intelligently splitting them into unique chunks and accelerating uploads and downloads. More info.