File size: 1,292 Bytes
f451089 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 |
import os
PROJECT_ROOT = os.path.dirname(os.path.abspath(__file__))
#preprocessing
greekwords = {'ἔμφρων': 'emphron', 'σύμφρων': 'sumphron', 'ὑπέρφρων': 'huperphron', 'Νόμος': 'nomos', 'νέμων': 'nemon', 'ἀξιοπίστως': 'axiopistos', 'θεοφόρητος': 'theophoretos', 'οἰκονομίαν': 'oikonomian', 'τοῦτο': 'touto', 'ἔφερεν': 'eferen', 'αὐτῷ': 'auto', 'εὔμοιρος': 'eumoiros', 'εὐδαιμονία': 'eudaimonia', 'εὐπατρίδαι': 'eupatridai', 'καθότι': 'kathoti', 'κατορθώσεως': 'katorthoseos', 'κόσμος': 'kosmos', 'μέλος': 'melos', 'μέρος': 'meros', 'παρειλήφαμεν': 'pareilephamen', 'συμβαίνειν': 'symbainein', 'τάσις': 'tasis', 'ἀγαθός': 'agathos', 'ἀκτῖνες': 'aktines', 'ἐκτείνεσθαι': 'ekteinesthai', 'δαίμων': 'daimon', 'κατορθώσεις': 'katorthoseis', 'ἀγαθὸς': 'agathos', 'ἀυτῷ': 'auto'}
#tokenization
vocab_size = 4000
#model
num_blocks = 6
d_model = 64
h = 4
d_head = d_model // h
d_ff = 4 * d_model
#training time
batch_size = 512
num_epochs = 50
max_seq_length = 512
lr = 1e-3
#runtime
max_tokens = 200
temperature = 0.8
justification_model = "gpt-4"
argmax = False |