«ArmenianGPT v1.0․ Աշխարհում առաջին՝ հայերեն տրամաբանող, բաց կշիռներով մոդելը»???

#1
by ican24 - opened

Այնպիսի տպավորություն է, որ բացարձակապես տեղյակ չեք Gen2B/HyGPT-10b-it մասին։
Հենց այս հարթակում է տեղադրված զուտ ազգային և հայկական լեզվամտածողությամբ արհեստական բանականությունը 2025 թվականից։
2025 թվականի փետրվարին է մշակվել։
Ոչ թերթ եք կարդացել, հեռուտացույց դիտել և ոչ էլ սոցիալական ցանցեր այցելել։
Շատ ցավալի է, որովհետև աղմկում եք բոլոր հարթակներում ասելով, որ "աշխարհում առաջին՝ հայերեն տրամաբանող, բաց կշիռներով մոդելն է»։
Էհ հետո՞, Հայաստանի ՏՏ ոլորտում մի քիչ բարոյականություն ու համեստություն պետք է լինի՞, թե ոչ․․․․

https://www.youtube.com/watch?v=OE507WoKxQc

Owner

Զարմանալի է, թե ինչը Ձեզ դրդեց գրել նման բացասական և անհիմն հաղորդագրություն։ Դուք ինքներդ մեջբերեցիք իմ խոսքերը՝ փաստելով, որ ես սա ներկայացնում եմ որպես առաջին հայկական տրամաբանող (reasoning) մոդել, և ոչ թե պարզապես հայերեն իմացող (ինչպիսիք Google-ինն ու OpenAI-ինն են)։

Իրականում, մոլորեցնող կարելի է համարել հենց Gen2B/HyGPT-10b-it-ի model card-ում գրվածը՝ “the first Armenian large language model”։ Սա այն դեպքում, երբ OpenAI-ի և Google-ի մոդելները վաղուց արդեն տիրապետում էին հայերենին։ Ավելին, անգամ «առաջին հայերեն իմացող open-weights մոդել» լինելու պնդումն է վիճելի, քանի որ Gemma 3-ը (որը թողարկվել է Ձեր նշած մոդելից ավելի վաղ) նույնպես open-weights է և տիրապետում է հայերենին։

Ես միշտ հատուկ շեշտում եմ, որ խոսքը առաջին տրամաբանող մոդելի մասին է, և դա փաստ է։ Ոչ ոք Gemma 2-ը (որի վրա հիմնված է Ձեր մոդելը) չի անվանում տրամաբանող մոդել, քանի որ դրա պատասխաններում բացակայում է Chain of Thought-ը (դատողությունների շղթան), և Ձեր մոդելն էլ չունի հստակ արտահայտված (explicit) Chain of Thought։ Հետևաբար, ըստ ոլորտի ստանդարտների՝ այն չի համարվում reasoning մոդել։

Սրանով հանդերձ, ես ոչ մի կերպ չեմ փորձում նսեմացնել այն փաստը, որ Դուք մեծ աշխատանք եք կատարել բազային Gemma մոդելը fine-tune անելու և դրա հայերենի իմացությունն ու Հայաստանի վերաբերյալ գիտելիքները բարելավելու ուղղությամբ։

Պարզապես տարօրինակ է նման հաղորդագրություն ստանալ մի մարդուց, ով խոսում է բարոյականությունից ու համեստությունից։ Ավելի ճիշտ կլիներ, եթե այս անհեթեթության վրա ժամանակ ծախսելու փոխարեն երկուսս էլ շարունակեինք կատարելագործել մեր մոդելները և անեինք առավելագույնը Հայաստանում AI ոլորտը զարգացնելու համար, այլ ոչ թե վիճեինք, թե ով է եղել առաջինը։

ArmGPT changed discussion status to closed

Անհեթեթ Ձեր հակափաստարկներն են։ Իբր թե OpenAI-ի և Google-ի մոդելները տիրապետում են հայերենին կամ որ, մեր մոդելը չունի տրամաբանություև։
Ես անձամբ ոչ մի լավ բան չեմ սպասում՝ ակնկալում Հայաստանի այսպես կոչված ՏՏ մասնագետներից։ Սա առաջին դեպք չէ, երբ ճչում են, որ իրենք են առաջին անգամ մշակել այս կամ այն տեխնոլոգիան։
Ինչ ուզում եք, արեք։ Խառը, քաոսային ժամանակներ են, բայց մի օր կարգ ու կանոն կհաստատվի երկրում։

Owner

Ցավալի է, որ տեխնիկական և մասնագիտական բանավեճը վերածում եք անհիմն հայտարարությունների ու վիրավորանքների։ Պնդելը, թե իբր OpenAI-ի և Google-ի մոդելները չեն տիրապետում հայերենին, ցույց է տալիս ոլորտի ներկայիս իրականությանը չտիրապետելը, քանի որ OpenAI-ի GPT-ն, Google-ի Gemini-ն և այլ խոշոր մոդելներ վաղուց գերազանց աշխատում են հայերենով։ Սա օբյեկտիվ փաստ է, որը հեգնելը կամ հերքելը պարզապես անլուրջ է։

Դուք շարունակում եք շփոթել մարդկային տրամաբանությունը տեխնիկական Reasoning մոդելների աշխատանքի սկզբունքի հետ։ Երբ նշվում է Reasoning մոդել, խոսքը ոչ թե պարզապես խելացի լինելու, այլ կոնկրետ մտքերի շղթա (Chain of Thought) մեթոդի կիրառման մասին է, որը թույլ է տալիս մոդելին քայլ առ քայլ մտածել պատասխանելուց առաջ։ Սա տեխնիկական տարբերակում է, որը բացակայում է ստանդարտ մոդելներում, և ցավոք, տերմինաբանական այս տարբերությունը հասկանալու փոխարեն դուք ընտրել եք մերժման ճանապարհը։

Ինչ վերաբերում է ամբողջ հայկական ՏՏ համայնքին ուղղված Ձեր վիրավորանքներին ու հոռետեսությանը, ապա փաստարկների բացակայությունը նման ագրեսիայով քողարկելը հեռու է այն բարոյականությունից, որից ինքներդ էիք խոսում։ Առաջարկում եմ էմոցիոնալ մեղադրանքների և ոլորտը վարկաբեկելու փոխարեն ժամանակը տրամադրել ուսումնասիրությանը և իրական արժեք ստեղծելուն։

Հարկ չկա վիճել մեկի հետ, ով հայերենը հասկանում է մեխանիկորեն, առանց մակարդակի և (հայկական) լեզվամտածողությամբ:
Ես իմ արդարացի վրդովմունքը հայտնեցի ամպագոռգոռ հայտարարության կապակցությամբ և պետք չէ խուսանավել բուն հարցից։
Հարցն ինձ համար փակ է և ցանկություն չունեմ շարունակելու այն։

Owner

Հարգելի՛ս, խորհուրդ եք տալիս «չխուսանավել բուն հարցից», սակայն իրական պատկերն այլ է։ Ուղղակի ապշեցուցիչ է Ձեր՝ իմ բերած բոլոր փաստարկները շրջանցելու և խեղաթյուրելու ունակությունը։ Ստեղծվել է մի իրավիճակ, երբ իմ յուրաքանչյուր պատասխան հստակ և սպառիչ անդրադառնում է Ձեր հաղորդագրության բոլոր մասերին, մինչդեռ Դուք կամ ամբողջությամբ անտեսում եք իմ փաստերը, կամ ընտրում եք դրանցից մեկը, խեղաթյուրում այն և «հերոսաբար» պայքարում Ձեր իսկ հորինած տարբերակի դեմ։ Նման պայմաններում քննարկում շարունակելն իմաստազուրկ է, ուստի ստորև ներկայացնում եմ, հուսով եմ, վերջին պարզաբանումս։

Խոսում եք «ամպագոռգոռ» հայտարարություններից, մինչդեռ «the first Armenian large language model» ձևակերպումը տեղ է գտել հենց Ձեր մոդելի նկարագրության մեջ։ Իրավիճակի աբսուրդությունն այն է, որ մինչ Դուք անուղղակիորեն պնդում եք, թե մյուս մոդելները բավարար որակի չէին կամ գոյություն չունեին, Ձեր իսկ մոդելի տվյալների բաղադրության բաժնում հստակ նշված է. «Approximately 50% synthetic data generated with Gemini Flash 2.0»:

Այս փաստը թողնում է ընդամենը երեք հնարավոր բացատրություն.

Անտրամաբանական. Դուք գիտակցաբար օգտագործել եք մի գործիք, որը համարում եք անորակ, ինչը անտրամաբանական կլիներ նույնիսկ Ձեզ համար։

Անտեղյակություն. Դուք բացարձակ տեղյակ չեք Ձեր իսկ մոդելի ուսուցման մանրամասներից և դատասեթի կառուցվածքից։

Մանիպուլյացիա. Դուք քաջատեղյակ եք, բայց միտումնավոր խեղաթյուրում եք իրականությունը՝ մրցակիցներին նսեմացնելու և Ձեր մոդելն արհեստականորեն գերագնահատելու համար։

Եվ ամենակարևորը՝ հարկ եմ համարում մեկընդմիշտ հստակեցնել. ես երբեք չեմ պնդել, թե Ձեր մոդելն ունակ չէ լուծել տրամաբանական խնդիրներ կամ պատասխանել հարցերի։ Խոսքը տեխնիկական դասակարգման մասին է։ AI ոլորտի ստանդարտներով՝ «Reasoning model» կոչվում են ոչ թե նրանք, որոնք պարզապես «խելացի» են (օրինակ՝ OpenAI-ի մոդելները մինչև o1-ի հայտնվելը երբեք չեն դասակարգվել որպես reasoning model), այլ նրանք, որոնք պատասխանելուց առաջ «մտածում են»՝ գեներացնելով մտքերի շղթա (Chain of Thought)։ Իմ մոդելն աշխատում է հենց այդ սկզբունքով, Ձերը՝ ոչ։ Անկեղծ ասած, ինձ համար անհասկանալի է, թե ինչպես կարող է այս պարզունակ տեխնիկական տարբերակումը այդքան բարդ լինել ընկալման համար։

Ինչու՞ է սա կարևոր. Chain of Thought-ի առկայությունը թույլ է տալիս Reinforcement Learning-ի միջոցով մոդելը շատ ավելի արդյունավետ հարմարեցնել նեղ մասնագիտական խնդիրների համար։ Այդ գործընթացում դատողությունների շղթան ինքնաշտկվում է՝ էապես բարձրացնելով վերջնական պատասխանի ճշգրտությունը։

Եվ վերջում՝ անկեղծ դիտարկում.
Մինչ այս հաղորդագրությունը, ես դիտարկում էի Ձեզ որպես պոտենցիալ գործընկեր՝ հաշվի առնելով Ձեր կուտակած տվյալների բազաներն ու ռեսուրսները։ Սակայն Ձեր կողմից տեխնիկական տերմինաբանության նման ընկալումը և ագրեսիվ արձագանքը հիմնավոր կասկածներ են առաջացնում Ձեր անմիջական տեխնիկական ներգրավվածության վերաբերյալ։ Տպավորություն է ստեղծվում, որ մոդելի թողարկման տեխնիկական ողջ աշխատանքն իրականացվել է Արմեն Աթայանի կողմից, հակառակ դեպքում՝ Reasoning մոդելների աշխատանքի սկզբունքները և սեփական դատասեթի աղբյուրները Ձեզ համար ոչ զարմանալի կլինեին, ոչ էլ վիճարկելի։

Այսքանով թեման համարում եմ սպառված։

Արմեն Աթայանի ընկերությունը մշակել է իմ՝ մեր հավաքած և ֆիլտրած մեծ տվյալներով, որոնք քանակը հաշվում է 100֊ավոր գեգաբայթերով։
Դրանից հետո արժեքավոր ոլորտներից միլիոնավոր տողերով՝ հարց ու պատասխաններով կատարելագործվել է մոդելը։ Բացառապես արել ենք fiine-tuniing-ը մեր ուժերով և դա ոչ մի կապ չունի huggingface֊ի մոդելի հետ։
Իսկ Դուք ի՞նչ տվյալներ եք հավաքել։ Մեկ առ մեկ ցույց տվեք աղբյուրները ու ապացուցեք, որ դրանք թարգմանված կամ սինթետիկ չեն։
Ու դադարեք տեխնոլոգիական տերմիններով խոսել, իբր թե ծանրակշիռ լինելու համար։
Այդ Դուք չգիտեք, որ մեքենայական ուսուցման մեջ կարևորագույնը մեծ տվյալներ են, նոր հետո տեխնոլոգիական հարթակը և մեթոդները։ Ծրագրավորողը չի մշակում ալգորիթմը, այլ մեքենան մեծ տվյալների հիման վրա։

Owner

Այս ամենն արդեն ոչ թե բանավեճ է, այլ պարզապես խղճուկ տեսարան։ Իրականությունն այն է, որ դուք պարզապես չեք հաշտվում մրցակցի գոյության հետ ու, գրանցվելուց ի վեր առաջին անգամ, ձեր հաշիվն օգտագործում եք բացառապես իմ մոդելի տակ անհեթեթություններ գրելու համար։

Եկեք իրերը կոչենք իրենց անուններով։ Դուք մտաք այս դաշտ՝ պնդելով, թե ես ստում եմ «reasoning» բառը կիրառելով։ Հենց հասկացաք, որ CoT-ից ու մոդելների ճարտարապետությունից գաղափար չունեք ու փաստերի դիմաց պարտված եք, միանգամից «թռաք» թեմայից ու կառչեցիք դատասեթի աղբյուրներից։ Սա էժան մանիպուլյացիա է։

Իսկ ձեր այն պնդումը, թե «կարևորը մեծ տվյալներն են, նոր՝ մեթոդները», ուղղակի աղաղակող ապացույց է, որ դուք անհուսալիորեն հետ եք մնացել ոլորտի զարգացումներից։ Հատկապես զավեշտալի է ձեր այն միտքը, թե «ծրագրավորողը չի մշակում ալգորիթմը»։ Եթե այդպես լիներ, և ամեն ինչ որոշեր «մեքենան՝ տվյալների հիման վրա», ապա բոլորը կունենային հզորագույն մոդելներ։ Իրականությունն այն է, որ հենց ինժեների մշակած ալգորիթմն ու ճարտարապետությունն են որոշում՝ տվյալը կդառնա՞ գիտելիք, թե՞ կմնա թվային աղբ։ DeepSeek R1-ը վառ օրինակ է. առանց CoT-ի և Reinforcement Learning-ի (RL) կիրառման, նույնիսկ մեծ տվյալների առկայության դեպքում, այն կլիներ շատ ավելի թույլ ու սովորական մոդել, և ոչ ոք մինչ օրս չէր շարունակի խոսել այդ հեղափոխության մասին ու կիրառել նրանց նոր տեխնիկաները։

Ու վերջապես՝ ո՞վ եք դուք, որ ինձնից «տող առ տող» հաշվետվություն եք պահանջում։ Դուք, որ ձեր դատասեթի մասին ԶՐՈ ստուգելի ինֆորմացիա եք տվել ու պահում եք այն փակ դռների հետևում, ի՞նչ բարոյական իրավունքով եք ուրիշից աուդիտ պահանջում կամ պայմաններ թելադրում։ Ես ձեր աշխատողը չեմ, սա էլ հարցաքննություն չէ։

Ակնհայտ է, որ այս ագրեսիան գալիս է բացառապես այն անձից, ով փորձում է խոսել տեխնիկական հարցերից՝ առանց դրանց տիրապետելու։ Վստահ եմ՝ տեխնիկական աշխատանքն անողը (Արմեն Աթայանը) շատ լավ գիտի թե՛ Reasoning-ի սկզբունքները, թե՛ իրականությունը։

Այնպես որ, հանգիստ նստեք ձեր փակ դատասեթի վրա ու մի՛ փորձեք ուրիշներին պահանջներ ներկայացնել։

Զավեշտալի և ցավալի է, որ ինչ֊որ մեկը գոռում է հայերեն արհեստական բանականություն մշակելու մասին, երբ բացառապես Հայաստանում բացակայում է հումանիտար տվյալագիտությունը։ Երկրում տվյալների հավաքման մեկ կենտրոն անգամ չկա։
Չի կարող լինել մեքենայական ուսուցում առանց հավաքված ու մշակված մեծ տվյալներ։ Ու Դուք ապացուցեցիք, որ այն չունեք հենվելով ինչ֊որ թարգմանված ու արհեստական՝ սինթեզված տվյալների վրա։ անունը դնելով հայերեն։
Կրկնակի ցավալի է, որ փորձ չի արվում բուն թեմայով արդարանալ կամ տարրական ներողություն խնդրել, այլ բնազդաբար աշխատում եք սլաքները թեքել կողմնակի՝ անհատական թիրախներով։
Հարյուր կամ հազար մարդկանց կարող եք մոլորեցնել Ձեր աղմուկով հաշվի առնելով հասարակության պայթած ու քարանձավային վիճակը։
Մի կրթված ու խելացի մարդ կգա, որ առկա փաստերի հիման վրա մանրակրկիտ հետաքննություն անի և ապացուցի, որ Ձեր «առաջին անգամը» չի համապատասխանում իրականությանը։
Ու ես չեմ մտել այս դաշտը, այլ Դուք Ձեր անհիմն՝ անհամեստ ու անհարգալից պնդմամբ սադրելով նման հակազդեցություն։
Ես այդքան ժամանակ չունեմ դատարկ վիճաբանությունների համար։ Իմ հստակ ու միանշանակ խոսքն ասել եմ «առաջին անգամի» կապակցությամբ։ Որևէ բան չունեմ ավելացնելու։
Կարող եք ջնջել, բայց հիշեք, որ այդքան էլ հեշտ չէ դուրս գալ «առաջին անգամ» հայտարարության տակից։

Owner

Հարգելի՛ս,

Աբսուրդի է հասնում այն փաստը, որ Դուք իմ պնդումները որակում եք «չափազանցված» կամ «անճշտություն», սակայն մինչ օրս չեք կարողացել հակադարձել իմ բերած ոչ մի տեխնիկական փաստարկի։ Փոխարենը՝ շարունակում եք խեղաթյուրել իրականությունը։

Ինչ վերաբերում է Ձեր պնդմանը, թե իբր ես «փորձ չեմ անում արդարանալ կամ տարրական ներողություն խնդրել» և «սլաքները թեքում եմ»՝ ապա սա արդեն իսկ ցույց է տալիս Ձեր կողմնակալությունը։ Ես «արդարանալու» կամ «ներողություն խնդրելու» ոչ մի պատճառ չունեմ, քանի որ իմ նշած յուրաքանչյուր փաստ տեխնիկապես հիմնավորված է, իսկ Դուք այդպես էլ չկարողացաք բերել որևէ հակափաստարկ։ Սլաքները թեքում եք հենց Դուք՝ տեխնիկական բանավեճը տանելով դեպի Հայաստանի տվյալագիտության վիճակի մասին ընդհանրական և կապ չունեցող դատողություններ, մինչդեռ ես խոսում եմ կոնկրետ մոդելների ճարտարապետությունից։

Հստակեցնեմ Ձեր հերթական մանիպուլյացիաները․ Դուք ինքնուրույն եզրակացրել եք, թե ես ինչ տվյալներ եմ օգտագործել՝ հենվելով բացառապես Ձեր ենթադրությունների վրա։ Նույն հաջողությամբ ես (կամ ցանկացած այլ ոք) կարող եմ պնդել, որ Ձեր մոդելն ուսուցանվել է բացառապես սինթետիկ կամ թարգմանված տվյալներով, քանի որ ես չեմ տեսնում Ձեր տվյալների հավաքածուն, և Դուք չեք կարող հակառակն ապացուցել, քանի դեռ հրաժարվում եք հրապարակել այն։ Սակայն, ի տարբերություն իմ մասին Ձեր «օդից վերցրած» պնդումների, Ձեր դեպքում կան փաստեր։ Համաձայն HuggingFace-ում Ձեր իսկ մոդելի նկարագրության և կայքի՝ Ձեր բազային մոդելի հետ միասին թողարկված instruction-tuned տարբերակի համար օգտագործվել են Gemini 2 Flash-ով գեներացված սինթետիկ տվյալներ։ Ստացվում է, որ Դուք ագրեսիվ կերպով քննադատում եք սինթետիկ տվյալների օգտագործումը, մինչդեռ ինքներդ կիրառում եք դրանք Ձեր մոդելի համար։

Անդրադառնամ Ձեր այն արտահայտությանը, թե «այդքան էլ հեշտ չէ դուրս գալ "առաջին անգամ" հայտարարության տակից»։ Այստեղ ես լիովին համաձայն եմ Ձեզ հետ, բայց մի էական ճշգրտմամբ՝ դա վերաբերում է հենց Ձեզ, ոչ թե ինձ։ Դուք հայտարարում եք, թե Ձեր մոդելը «առաջին հայերեն լեզվական մոդելն է», բայց միևնույն ժամանակ փաստում եք, որ տվյալներ գեներացնելու համար օգտագործել եք Gemini 2 Flash-ը։ Եթե Gemini 2 Flash-ը արդեն տիրապետում էր հայերենին այնքան լավ, որ կարողացել է Ձեզ համար որակյալ տվյալներ ստեղծել, ապա ինչպե՞ս կարող է Ձեր մոդելը լինել «առաջինը»։ Սա ուղղակիորեն և փաստացի հերքում է Ձեր «առաջինը» լինելու պնդումը, քանի որ Ձեր մոդելի ստեղծումից առաջ արդեն իսկ գոյություն են ունեցել հայերենին գերազանց տիրապետող մոդելներ (որոնցից մեկը հենց Դուք օգտագործել եք)։

Իմ պնդումը, ի տարբերություն Ձերինի, մնում է անխոցելի և փաստարկված. սա աշխարհում առաջին հայերեն ՏՐԱՄԱԲԱՆՈՂ (Reasoning) մոդելն է, քանի որ այն կիրառում է Chain-of-Thought մեթոդը։ Ես այս պնդումը կատարելուց առաջ մանրակրկիտ ուսումնասիրել եմ դաշտը, և ի տարբերություն Ձեզ, ես վախենալու ոչինչ չունեմ, քանի որ սա փաստ է։ Այն կարելի է հերքել միայն մեկ ճանապարհով՝ ներկայացնելով մեկ այլ մոդել, որը թողարկվել է իմ մոդելից շուտ և ունի Reasoning (CoT) ունակություն։ Քանի դեռ Դուք դա չեք արել (և չեք կարող անել, քանի որ նման մոդել գոյություն չի ունեցել), իմ պնդումը մնում է ուժի մեջ։

Եվ վերջում՝ մի անհանգստացեք, ոչ ոք չի պատրաստվում ջնջել այս հաղորդագրությունները։ Այս պատմությունը ոչ թե ինձ, այլ բացառապես Ձեզ է վարկաբեկում՝ ցուցադրելով Ձեր տեխնիկական անտեղյակությունը և հակասական պնդումները։

Ես նորից կրկնում եմ, որ մեքենայական ուսուցման առյուծի բաժինը պատկանում է մեծ տվյալներին։ Այդ մեծ տվյալների առկայությամբ է որոշվում ծրագրի որակը։
Ես չեմ պատրաստվում բանավիճել տեխնոլոգիական տերմինների հարցում, որովհետև դա կապ չունի թեմայի հետ։ 5-6 տարի զբաղվում եմ մեքենայական ուսուցման և կուշտ եմ մոդայիկ տերմիններից, որոնք մի կարճ ժամանակում հնանալու հատկություն ունեն։
Դուք չպատասխանեցիք այն հարցին, թե ի՞նչ տվյալներ, ի՞նչ մաքրությամբ ու լեզվամտածողությամբ եք տվել մեքենային։
Ու պետք չէ կառչել Gen2B ընկերության տեքստին։ Այն գրել է ընկերության ռուս ծրագրավորողը և նկատի է ունեցել բացառապես նախնական fine-tuning-ին, որն ինքն է արել տասնյակ հազարավոր հարցուպատասխաններով։ Դրանից հետո մենք տասնյակ անգամ փոխել ենք այդ կշիռները ավելացնելով իսկապես որակյալ և մաքուր տվյալներ։
Այլևս չեմ պատասխանելու։
2024 հոկտեմբերին բազմաթիվ ընկերություններ աղաղակում էին, որ իրենք են մշակել հայերենի խոսքիի ճանաչումը, հիմա էլ սա։

Owner

Հարգելի՛ս, Ձեր փորձերը մեղքը «ռուս ծրագրավորողի» վրա բարդելու անհամոզիչ են։ Ակնհայտ է, որ տեխնիկական կողմի պատասխանատուն Արմեն Աթայանն է, և եթե նա 10 ամիս շարունակ թե՛ Model Card-ում, թե՛ Ձեր պաշտոնական կայքում անփոփոխ է թողել տվյալների նկարագրությունը, ուրեմն ես հիմք չունեմ չհավատալու նրա պնդումներին։ Միայն ոլորտից կիլոմետրերով հեռու մարդը կարող է մեքենայական ուսուցման ընդունված մեթոդներն ու տեխնոլոգիաներն իրենց անուններով կոչելը համարել «ամպագոռգոռ», ինչը ևս մեկ անգամ ապացուցում է, որ Դուք պարզապես ոչինչ չգիտեք ոչ AI/ML-ից, ոչ էլ անգամ Ձեր սեփական մոդելի մարզման պրոցեսից։

Չկա ավելի լավ ապացույց, որ Դուք կտրված եք իրականությունից և տեղյակ չեք, թե ինչպես է մարզվել Ձեր մոդելը, քան այն փաստը, որ Դուք անընդհատ հակասում եք ոչ միայն ոլորտի ստանդարտներին, այլև անգամ Ձեր իսկ Model Card-ին և տեխնիկական նկարագրության էջին։ Իրականում, Ձեր փաստաթղթերը հստակ փաստում են, որ Ձեր նշած «թանկագին» տվյալներն օգտագործվել են pre-training փուլում, մինչդեռ ամենակարևոր և վերջին՝ instruction tuning փուլում օգտագործվել է 50% սինթետիկ տվյալ, որը գեներացվել է Gemini Flash 2.0-ով։ Սա նշանակում է, որ այն անձը, ով որոշել է օգտագործել սինթետիկ տվյալներ, շատ լավ իմացել է, որ Ձեր մոդելը «առաջին հայալեզու LLM-ը» չէ, քանի որ տվյալներ գեներացնելու համար արդեն իսկ օգտագործել է մեկ այլ հայալեզու մոդել՝ Gemini-ն։

Հստակեցնեմ, որ Ձեր այդ դպրոցական մակարդակի մարտավարությունը՝ նետել ապատեղեկատվություն և մեղադրանքներ, որպեսզի դրդեք դիմացինին ինչ-որ բան ապացուցել, չի աշխատելու։ Ես չեմ պատրաստվում տրամադրել ավելի շատ ինֆորմացիա, քան արդեն կա իմ Model Card-ում։ Եթե ես որոշեմ ավելին հրապարակել, դա կհայտնվի այնտեղ բացառապես համայնքի համար, այլ ոչ թե համացանցային ինչ-որ անհեթեթ գրառումներ անողի։ Դուք ոլորտում չունեք ոչ մի կշիռ կամ իրավունք թելադրելու կանոններ, քանի դեռ ինքներդ Ձեր դատասեթը պահում եք փակ դռների հետևում։

Եվ վերջում, վստահ եղեք, որ ցանկացած աղբյուր, որի մասին Դուք մտածել եք տվյալներ հավաքելիս, ես վաղուց արդեն դիտարկել և կիրառել եմ իմ տվյալների հավաքագրման pipeline-ում՝ օգտագործելով միայն այն աղբյուրներից վերցված տեքստերը, որոնք նպատակահարմար եմ համարել։

Ցանկացած ադեկվատ մարդ, կարդալով այս աբսուրդային քննարկումը, միանշանակ կհասկանա, թե ով է ճիշտ։ Իմ յուրաքանչյուր հաղորդագրություն փաստերով հօդս է ցնդեցնում Ձեր ասած հերթական անհեթեթությունը, իսկ Դուք, առանց իմ բերած գեթ մեկ փաստարկին պատշաճ անդրադառնալու, ի պատասխան ուղղակի դուրս եք տալիս նորանոր անհիմն մեղադրանքներ ու ապատեղեկատվություն՝ հիմնված բացառապես Ձեր երևակայության վրա։ Մի փոքր ինքնասիրություն և տղամարդկություն ունեցեք, որպեսզի դադարեք գրել այս անհեթեթությունները։ Ձեր վերջին մի քանի գրառումներից յուրաքանչյուրում նշում եք, թե «թեման փակ է», «ամեն ինչ ասված է» կամ «այլևս չեմ պատասխանելու», բայց հետո նորից շարունակում եք Ձեր ցեխարձակումները։

Sign up or log in to comment